Flowise环境搭建:Mac M1芯片适配安装指南

张开发
2026/4/14 13:44:14 15 分钟阅读

分享文章

Flowise环境搭建:Mac M1芯片适配安装指南
Flowise环境搭建Mac M1芯片适配安装指南1. 为什么你需要关注Flowise如果你对AI应用开发感兴趣但又觉得写代码太麻烦或者想快速把公司文档变成智能问答机器人那么Flowise可能就是你要找的工具。简单来说Flowise是一个拖拽式的AI工作流搭建平台。它把那些复杂的AI开发流程比如调用大模型、处理文档、构建知识库都变成了一个个可以拖来拖去的“积木块”。你不需要写一行代码只需要在网页上把这些“积木块”用线连起来就能做出功能强大的AI应用。想象一下你想做一个能回答公司产品问题的客服机器人。传统方法可能需要程序员花几周时间写代码、调试。用Flowise你可能只需要花10分钟拖几个节点连几条线一个可用的原型就出来了。这就是它最大的魅力——零代码、可视化、快速落地。2. 在Mac M1/M2上安装前的准备在Mac上安装Flowise特别是使用Apple Silicon芯片M1, M2, M3的电脑和普通的Intel Mac或Windows电脑有些不同。主要区别在于一些底层的软件包需要针对ARM架构进行编译。别担心跟着下面的步骤走整个过程会很顺利。我们先来检查一下你的电脑环境。2.1 检查你的系统首先确认你的Mac芯片型号。打开“终端”应用可以在“应用程序”-“实用工具”里找到输入以下命令uname -m如果返回的是arm64恭喜你你用的是Apple Silicon芯片的Mac。如果返回x86_64那你用的是Intel芯片的Mac。本文主要针对arm64的安装进行优化。2.2 安装必备的软件Flowise基于Node.js开发所以我们需要先安装Node.js和它的包管理器pnpm。这里推荐使用nvm来管理Node.js版本这样可以灵活切换不同版本。第一步安装Homebrew如果还没安装Homebrew是Mac上的软件包管理器能让我们更方便地安装其他工具。在终端里输入/bin/bash -c $(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)按照提示操作可能需要输入你的电脑密码。安装完成后关闭终端再重新打开。第二步安装nvm用Homebrew安装nvmbrew install nvm安装完成后根据终端最后的提示把nvm的配置加到你的shell配置文件里比如~/.zshrc或~/.bash_profile。通常需要添加类似这样的几行export NVM_DIR$HOME/.nvm [ -s /opt/homebrew/opt/nvm/nvm.sh ] \. /opt/homebrew/opt/nvm/nvm.sh [ -s /opt/homebrew/opt/nvm/etc/bash_completion.d/nvm ] \. /opt/homebrew/opt/nvm/etc/bash_completion.d/nvm添加后执行source ~/.zshrc如果你用的是zsh让配置生效。第三步安装Node.js通过nvm安装一个长期支持版本的Node.js比如18.xnvm install 18 nvm use 18安装完成后验证一下node --version npm --version应该能看到版本号比如v18.19.0。第四步安装pnpmFlowise推荐使用pnpm作为包管理器它比npm更快、更节省磁盘空间。用npm全局安装pnpmnpm install -g pnpm验证安装pnpm --version3. 一步步安装和启动Flowise环境准备好了现在开始安装Flowise本身。整个过程就像安装一个普通的软件一样简单。3.1 下载Flowise代码打开终端找一个你喜欢的目录比如在“文档”文件夹里操作。然后执行以下命令来下载Flowise的代码# 克隆Flowise的代码仓库到本地 git clone https://github.com/FlowiseAI/Flowise.git # 进入Flowise文件夹 cd Flowise3.2 安装依赖并构建这是最关键的一步我们需要安装Flowise运行所需的所有“零件”。在Flowise目录下运行# 使用pnpm安装所有依赖包 pnpm install这个过程会根据你的网络情况持续几分钟到十几分钟。pnpm会下载所有必要的模块。对于M1/M2芯片它会自动处理ARM架构的兼容性问题。依赖安装完成后我们需要“编译”一下# 构建项目 pnpm build3.3 配置环境变量可选但推荐Flowise需要知道一些关键信息才能工作比如你想用哪个AI模型。这些信息通过一个叫.env的配置文件来设置。在Flowise/packages/server/目录下有一个示例配置文件.env.example。我们复制一份并改名为.env# 进入server目录 cd packages/server # 复制示例配置文件 cp .env.example .env现在用你喜欢的文本编辑器比如VS Code、TextEdit打开这个.env文件。你会看到很多配置项对于初次使用我们最关心的是OPENAI_API_KEY。如果你打算使用OpenAI的模型比如GPT-4你需要去OpenAI官网注册并获取一个API密钥然后在这里填写OPENAI_API_KEY你的_openai_api_key_在这里如果你暂时没有OpenAI的API或者想先试用本地模型可以先不填。Flowise也支持很多其他模型我们后面会讲到。3.4 启动Flowise服务配置好后回到Flowise的根目录启动服务# 确保你在Flowise根目录 cd /path/to/Flowise # 启动服务 pnpm start如果一切顺利你会看到终端开始输出很多日志信息最后会出现类似这样的提示表示服务已经启动Flowise is running on port 3000现在打开你的浏览器访问http://localhost:3000。你应该能看到Flowise的登录界面了第一次使用你需要创建一个账号。点击注册输入邮箱和密码即可。之后就可以用这个账号登录开始你的可视化AI搭建之旅了。4. 连接你的AI模型从云端到本地Flowise本身是一个“工作流引擎”它需要连接真正的AI模型大脑才能工作。好消息是它支持几乎所有主流模型。4.1 使用云端模型最简单对于初学者我强烈建议先从云端模型开始比如OpenAI的GPT系列。原因很简单不用自己准备算力开箱即用效果稳定。在Flowise画布上拖入一个“ChatOpenAI”节点在它的配置面板里填入你的OPENAI_API_KEY选择模型比如gpt-3.5-turbo就可以直接对话了。除了OpenAIFlowise还内置支持Anthropic Claude在安全性和逻辑推理上表现突出。Google Gemini谷歌的最新模型在多模态理解上很强。Azure OpenAI如果你在企业环境可以使用Azure的服务。这些云端服务的配置方式大同小异基本都是申请API Key然后在对应的节点里填写即可。4.2 使用本地模型更经济、更私密如果你有Mac M1/M2其实你手边就有一台不错的AI推理机器。Apple Silicon芯片的神经网络引擎跑一些中小型模型效果很好。要在Flowise里使用本地模型主要有两种方式方式一通过OllamaOllama是目前在Mac上运行本地大模型最流行的工具。它就像是一个本地模型的管理器。先安装Ollamabrew install ollama拉取一个模型ollama pull llama2这里以Llama 2为例在Flowise中使用“ChatOllama”节点将模型名称设置为llama2API路径保持默认的http://localhost:11434即可连接。方式二通过LocalAI / vLLM对于更进阶的用户或者想部署特定格式的模型如GGUF格式可以使用LocalAI或vLLM。它们提供了更丰富的模型支持和配置选项。你需要在本地先启动这些模型服务然后将服务的API地址配置到Flowise对应的节点中。为什么在Mac上推荐本地模型零成本除了电费没有额外的API调用费用。数据隐私所有数据都在本地非常适合处理敏感信息。离线可用没有网络也能用。可玩性高可以尝试各种开源模型找到最适合你任务的那一个。对于M1/M2芯片运行70亿参数7B的模型速度是可以接受的用于知识库问答、文本总结等任务完全够用。5. 快速搭建你的第一个AI工作流理论说了这么多我们来动手做一个实实在在的东西。我们就做一个最简单的“公司知识库问答机器人”。这个场景非常实用你把公司的产品手册、规章制度等文档上传给它员工或客户就可以用自然语言提问它从文档里找到答案回复。第一步准备“材料”在Flowise画布左侧的节点库中找到“Document Loaders”分类拖一个“Text File”节点到画布上。这个节点负责读取你的文本文件支持.txt, .pdf, .docx等格式。上传你的产品说明书PDF。第二步切分“食材”大模型一次能处理的文字有限所以我们需要把长文档切成小块。拖入一个“Recursive Character Text Splitter”节点把它和上一步的文件加载节点连起来。这个节点会把文档按段落或句子切分。第三步存入“记忆库”切好的文本块需要存起来方便以后快速查找。拖入“OpenAI Embeddings”节点如果你用本地模型就选对应的Embedding节点和一个“Vector Store”节点比如“In-Memory Vector Store”。将它们连接起来。这个过程叫做“向量化”简单理解就是把文字变成一串数字存到数据库里。第四步连接“大脑”拖入一个“ChatOpenAI”或“ChatOllama”节点配置好你的模型和API。第五步组装“问答机”这是最关键的一步。拖入一个“Conversational Retrieval QA Chain”节点。这个节点是一个智能组装器把“Vector Store”节点连到它的“Vector Store”输入口。把“Chat Model”节点连到它的“Model”输入口。它内部会帮你处理整个流程把用户问题也向量化去记忆库里找最相关的文本块然后把问题和找到的文本一起发给大模型让模型生成最终答案。第六步创建用户界面最后拖入一个“Chat Input”节点和“Chat Output”节点分别连接到Chain的输入和输出口。好了点击画布右上角的“运行”按钮然后在右下角的聊天框里提问吧。比如“我们产品的高级版有哪些功能” 它会自动从你上传的文档里找到答案并回复。整个过程你没有写一行代码只是拖了6个节点连了6条线。一个功能完整的RAG检索增强生成应用就做好了。你可以点击“导出”按钮把它变成一个API供其他系统调用。6. 可能遇到的问题和解决办法在Mac M1/M2上安装最常见的问题都和ARM架构的兼容性有关。这里列出几个我遇到过的坑和解决方法。问题一pnpm install时卡住或报错可能原因网络问题或者某个原生模块比如sqlite3,sharp编译失败。解决办法换源可以尝试设置pnpm的镜像源来加速pnpm config set registry https://registry.npmmirror.com清理重试删除node_modules文件夹和pnpm-lock.yaml文件然后重新运行pnpm install。针对特定包如果错误信息指向某个特定的包如bcrypt可以尝试单独用npm安装它并指定架构npm install bcrypt --target_archarm64问题二启动后访问localhost:3000报错或白屏可能原因前端资源没有正确构建或者端口被占用。解决办法确保执行了pnpm build。检查端口占用lsof -i :3000如果被占用可以杀掉进程或修改Flowise的启动端口在.env文件中设置PORT其他端口号。查看终端日志是否有明显的错误信息。问题三连接本地Ollama模型失败可能原因Ollama服务没启动或者模型没下载。解决办法确保Ollama服务在运行ollama serve通常安装后会自动运行。检查模型是否已拉取ollama list。在Flowise的Ollama节点配置中确认API URL是http://localhost:11434。问题四内存不足特别是跑本地模型时可能原因大模型和Flowise本身都比较吃内存。解决办法关闭不必要的应用程序。尝试更小参数的模型如7B甚至3B的模型。确保你的Mac有足够的可用内存建议16GB以上。如果遇到其他问题最好的方法是去Flowise的GitHub仓库的Issues页面搜索很可能已经有人遇到并解决了。7. 总结通过上面的步骤你应该已经在你的Mac M1/M2上成功搭建起了Flowise这个强大的可视化AI工作流平台。我们来简单回顾一下它是什么一个让你通过拖拽连线零代码构建AI应用如聊天机器人、智能助手、文档分析工具的平台。为什么选它开源免费、社区活跃、支持模型多、部署简单能极大降低AI应用开发门槛。在Mac上安装的核心利用好nvm管理Node.js用pnpm安装依赖ARM架构的兼容性问题基本已被社区解决。模型选择初学者从云端OpenAI开始最快追求隐私和可控性用本地Ollama跑开源模型是Mac上的绝佳选择。第一个应用从“文档问答机器人”入手理解“加载-切分-向量化-检索-生成”的核心流程这是大多数AI应用的基础。Flowise的真正威力在于其“可组合性”。你今天做的文档问答机器人明天加一个“网页抓取”节点就能自动从网上获取信息再加一个“条件判断”节点就能根据用户问题类型路由到不同的处理流程。它的市场里还有上百个现成模板可以直接拿来用再修改。现在打开localhost:3000开始你的可视化AI创作吧。从模仿一个模板开始慢慢尝试组合不同的节点你会发现构建一个有用的AI工具原来可以像搭积木一样简单有趣。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章