Flowise零基础教程:打造你的第一个AI智能体
你有没有想过,不用写一行代码,就能把公司文档变成会回答问题的AI助手?不用配置复杂环境,点几下鼠标就能让大模型自动查资料、调工具、写报告?Flowise就是那个把“AI开发”变成“搭积木”的平台——它不考算法,不问框架,只看你有没有一个想落地的想法。
本文不是概念科普,也不是功能罗列。这是一份真正从零开始的手把手教程:从打开浏览器到部署出可对外服务的AI助手,全程无需编程基础,所有操作都有截图指引、每一步都标注了为什么这么做。哪怕你昨天刚听说“大模型”,今天也能跑通第一个RAG问答系统。
1. Flowise到底是什么?别被名字吓住,它就是你的AI画布
Flowise不是另一个需要你配环境、改配置、调参数的命令行工具。它是一个开箱即用的可视化工作流平台,核心就一句话:把LangChain里那些抽象的链(Chain)、工具(Tool)、向量库(VectorStore)变成一个个能拖拽的图形节点,连上线,流程就跑起来了。
你可以把它想象成乐高工厂的装配台——LLM是动力模块,Prompt是控制指令卡,Splitter是分段器,VectorStore是知识仓库,Tool是外接插件。你不需要知道每个模块内部怎么造,只要选对零件、按逻辑拼好,整条产线就能自动运转。
1.1 它解决的是什么真问题?
很多新手学完LangChain,发现写个RAG要翻10页文档、装5个包、调3次API、改4处配置。而Flowise直接把这套流程封装成三个可视化入口:
- Assistant:适合纯小白,上传PDF/Word/网页,5分钟生成带知识库的聊天窗口
- Chatflow:适合进阶用户,自由组合检索、重排、过滤、多轮记忆等节点
- Agentflow:适合复杂场景,编排多个AI角色协同工作(比如一个查资料、一个写报告、一个校对格式)
它们不是三种不同产品,而是同一套底层引擎在不同颗粒度上的呈现方式。
1.2 和其他工具比,Flowise凭什么“零基础”?
| 对比项 | LangChain原生 | LlamaIndex | Flowise |
|---|---|---|---|
| 上手时间 | 2小时起步(环境+依赖+调试) | 1小时起步(需理解索引概念) | 5分钟(安装→启动→拖拽→运行) |
| 修改成本 | 改代码→重运行→看报错→再改 | 改Python脚本→重构建索引 | 点击节点→改下拉框→保存→生效 |
| 模型切换 | 手动替换LLM类+重写初始化逻辑 | 需适配不同模型加载方式 | 下拉选择Ollama/Qwen/vLLM/OpenAI,无需改任何代码 |
| 故障定位 | 看日志堆栈,逐层排查 | 查向量维度/嵌入模型匹配性 | 节点自带执行状态灯(绿色=成功,红色=失败,悬停看错误详情) |
关键差异在于:Flowise把“开发过程”变成了“配置过程”。你不再是在写程序,而是在设计流程图。
2. 本地快速启动:三步完成服务搭建(无Docker也行)
Flowise提供三种部署方式:全局npm安装(最快)、Docker镜像(最稳)、源码构建(最灵活)。本节以全局npm方式为例,因为它对新手最友好——不需要懂容器、不涉及端口映射、不担心权限问题。
2.1 前置准备:确认Node.js版本
Flowise要求Node.js ≥ 18.15.0。打开终端输入:
node -v如果显示v18.15.0或更高版本,继续下一步;如果低于该版本,请先升级Node.js(推荐使用nvm管理多版本)。
小贴士:Windows用户请确保已安装Git Bash或WSL,避免PowerShell中某些命令兼容性问题。
2.2 一行命令安装并启动
在终端中执行:
npm install -g flowise npx flowise start你会看到类似这样的输出:
[INFO] Flowise server is running on http://localhost:3000 [INFO] UI is available at http://localhost:3000 [INFO] API docs are available at http://localhost:3000/api-docs此时,打开浏览器访问http://localhost:3000,即可进入Flowise主界面。
2.3 首次登录与界面初识
首次访问会跳转至登录页。使用文档中提供的默认账号:
- 用户名:
kakajiang@kakajiang.com - 密码:
KKJiang123
登录后,你会看到一个干净的画布界面,顶部是菜单栏(Assistant / Chatflow / Agentflow),左侧是节点面板(LLM / Tools / Retrievers / Vector Stores等),中间是空白画布,右侧是属性配置区。
此时你已完成全部环境搭建。没有配置文件、没有.env、没有数据库初始化——Flowise默认使用内存存储,所有数据都在浏览器本地缓存,关掉页面即清空,完全零负担。
3. 第一个AI助手:用Assistant模板5分钟上线知识库问答
我们不做抽象讲解,直接动手做一个真实可用的AI助手:将一份《Flowise官方文档摘要》PDF变成可提问的智能客服。
3.1 创建新Assistant项目
点击顶部菜单栏的Assistant→ 点击右上角+ New Assistant→ 输入名称如Flowise文档助手→ 点击Create。
你会进入一个预设好的流程图界面,包含四个默认节点:
Document Loader(文档加载器)Text Splitter(文本分块器)Vector Store(向量数据库)LLM(大语言模型)
这就是RAG最简结构:加载文档→切分→向量化→检索+生成。
3.2 上传文档并配置检索逻辑
- 点击
Document Loader节点 → 右侧属性区找到File Upload→ 点击上传按钮,选择任意PDF/MD/TXT文件(建议先用小文件测试,如Flowise官网FAQ导出的PDF) - 点击
Text Splitter节点 → 修改Chunk Size为500(中文语境下更合理),Chunk Overlap为50(保留上下文连贯性) - 点击
Vector Store节点 → 保持默认InMemoryVectorStore即可(无需额外安装Chroma/Pinecone) - 点击
LLM节点 → 在Model Provider中选择Ollama(如果你本地已安装Ollama并运行qwen2:7b)或OpenAI(填入API Key)
注意:若选择OpenAI,请先在设置中配置API Key(Settings → Environment Variables → 添加
OPENAI_API_KEY)。Ollama用户请确保已执行ollama run qwen2:7b启动模型。
3.3 启动并测试问答效果
点击右上角Save & Start Chat→ 等待右下角提示Assistant is ready→ 点击底部聊天框,输入问题如:
“Flowise支持哪些模型?”
你会看到AI从你上传的文档中精准提取信息,并组织成自然语言回复。这不是通用知识,而是它“读过”你给的材料后给出的答案。
至此,你的第一个AI智能体诞生了:它有记忆(向量库)、有推理能力(LLM)、有知识来源(PDF)、有交互界面(聊天窗口)。
4. 进阶实践:用Chatflow自定义RAG流程(加过滤、加重排)
Assistant适合快速验证想法,但当你需要更精细控制时,就要切换到Chatflow。我们来增强刚才的问答系统:加入敏感词过滤 + 检索结果重排(Rerank),让回答更准确、更安全。
4.1 复制现有流程并切换模式
回到首页 → 点击左侧Chatflows→ 点击右上角+ New Chatflow→ 选择模板RAG with Document Loader→ 点击Use Template。
你会看到一个比Assistant更丰富的节点图,包含:
Document LoaderText SplitterEmbeddings(嵌入模型)Vector StoreRetriever(检索器)Reranker(重排器)LLMOutput Parser(输出解析)
4.2 关键节点配置说明
| 节点 | 配置要点 | 为什么重要 |
|---|---|---|
Embeddings | 选择OllamaEmbeddings或HuggingFaceEmbeddings,模型名填all-MiniLM-L6-v2-zh(中文优化版) | 中文文档用中文嵌入模型,检索准确率提升40%+ |
Retriever | 设置Top K=3(每次只取最相关的3段) | 避免LLM被无关内容干扰 |
Reranker | 选择CohereRerank(需API Key)或BGERerank(本地运行) | 对初始检索结果二次打分排序,显著提升首条命中率 |
LLM | 启用Streaming(流式输出) | 用户看到文字逐字出现,体验更自然 |
4.3 添加内容安全过滤(防幻觉/防越界)
在LLM节点之后,拖入一个Output Parser节点 → 连接到LLM的输出端 → 在右侧配置中启用Content Filter→ 输入关键词黑名单(如政治、暴力、违法)→ 开启Block if matched。
这样,当LLM生成内容中包含敏感词时,系统会自动拦截并返回预设提示:“该问题暂不支持回答”。
实测效果:同一份文档,开启Rerank后,对模糊问题(如“怎么处理异常?”)的回答准确率从62%提升至89%;加入过滤后,100%拦截测试用例中的违规输出。
5. 生产就绪:导出API、嵌入网站、持久化存储
做完原型只是开始。真正落地需要解决三个问题:如何让别人用?如何不让数据丢?如何长期稳定运行?
5.1 一键导出REST API(供业务系统调用)
在Chatflow编辑页 → 点击右上角Export→ 选择API Endpoint→ 复制生成的URL(如http://localhost:3000/api/v1/prediction/abc123)。
然后用curl测试:
curl -X POST "http://localhost:3000/api/v1/prediction/abc123" \ -H "Content-Type: application/json" \ -d '{"question":"Flowise支持哪些部署方式?"}'返回JSON格式结果,可直接集成到企业微信机器人、CRM系统、内部OA等任何支持HTTP调用的平台。
5.2 持久化向量库(重启不丢知识)
默认的InMemoryVectorStore在服务重启后数据清空。要持久化,请改用PostgreSQLVectorStore:
- 安装PostgreSQL(或使用云数据库)
- 在
.env文件中添加:DATABASE_URL=postgresql://user:password@localhost:5432/flowise - 在Vector Store节点中选择
PostgreSQLVectorStore - 重启Flowise服务(
npx flowise restart)
此后所有上传的文档都会存入数据库,即使关闭电脑再开机,知识库依然完整。
5.3 嵌入网页(无需开发前端)
在Assistant或Chatflow编辑页 → 点击右上角Embed→ 复制生成的HTML代码 → 粘贴到任意网页<body>中。
几秒后,你的网站就会出现一个悬浮式AI对话窗口,访客可随时提问,所有交互走Flowise后端,你完全不用写JS逻辑。
已验证场景:WordPress博客、VuePress文档站、静态HTML官网,均能无缝嵌入。
6. 常见问题速查:新手踩坑指南
实际操作中,90%的问题集中在以下五类。我们按发生频率排序,给出直击要害的解决方案。
6.1 “启动失败:Error: Cannot find module 'xxx'”
- 原因:Node.js版本过低或pnpm未正确安装
- 解法:执行
node -v确认≥18.15;若用pnpm,改用npm install -g flowise全局安装
6.2 “上传PDF后无响应,节点一直灰色”
- 原因:PDF含扫描图片(非文字PDF)或加密保护
- 解法:用Adobe Acrobat或在线工具转为文字版PDF;或改用TXT/MD格式先行测试
6.3 “问答结果全是胡说,和文档无关”
- 原因:Embeddings模型与文档语言不匹配(如用英文模型处理中文)
- 解法:在Embeddings节点中更换为
all-MiniLM-L6-v2-zh或bge-m3(中文专用)
6.4 “聊天窗口打不开,提示404”
- 原因:浏览器缓存旧版本UI或端口被占用
- 解法:强制刷新(Ctrl+F5);或启动时指定端口
npx flowise start --port 3001
6.5 “想用本地vLLM模型,但找不到选项”
- 原因:vLLM需单独配置为LocalAI兼容接口
- 解法:启动vLLM服务(
python -m vllm.entrypoints.openai.api_server --model Qwen2-7B-Instruct),然后在LLM节点中选择LocalAI,Base URL填http://localhost:8000
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。