你是否曾经疑惑,为什么有些AI能准确回答最新事件,而你的AI助手却对近期发生的事情一无所知?或者为什么别人用的AI能提供专业领域的高质量回答,而你的却常常“胡说八道”?
这一切的区别,很可能就在于是否使用了RAG技术。1. RAG是什么?
索增强生成(Retrieval-Augmented Generation,简称RAG)是一种**突破性的人工智能架构**,它创新性地将大型语言模型的生成能力与外部知识库的检索功能相结合。RAG的核心思想是让AI模型在回答问题前,先从一个可更新的知识库中查找相关信息,然后基于这些准确、最新的信息生成答案,从而解决传统大模型的知识滞后和事实虚构问题。 一般用户在使用大模型的时候,其实只需要使用自然语言问问题,大模型就会返回相应的答案。所以只要掌握好提示词工程,大多数场景就已经可以让大模型乖乖给你干活了。但是大模型能回答的仅限于公域知识。如果你有一个私域文档,希望大模型根据文档的内容回答问题。要怎么搞? 也很简单,只要把文档丢给大模型让他参考就可以了。比如,你有一个文档《公司内部学习资料》,只需要把文档的内容全部复制粘贴到提示词中,并要求大模型参考知识回答问题即可。 但是,如果文档非常长,比如是一本书,没办法一次性丢给大模型参考,该怎么办? 这个时候就需要用到我们的 RAG(检索增强生成)技术了。下图展示了RAG技术的完整工作流程,包含了从知识预处理到最终生成的各个环节:
RAG的工作流程可以概括为三个核心环节:**检索(Retrieval)、增强(Augmentation)和生成(Generation)。当用户提出问题时,系统首先从外部知识库中检索与问题相关的信息片段,然后将这些信息与原始问题组合成一个增强的提示词,最后输入到大语言模型中生成准确、可信的回答。这种方法相当于给大模型安装了一个“外接大脑”,使其能够突破训练数据的限制,获取最新、最专业的知识。** 从本质上看,RAG将大语言模型从“封闭的知识容器”转变为“开放的知识处理器”,在**准确性、时效性和可信度**之间实现了更好的平衡,成为当前最受关注的AI技术之一。2. RAG的核心技术流程与步骤解析
RAG系统的完整工作流程包含多个精密衔接的技术环节,通常可划分为三大阶段:**知识预处理阶段、检索优化阶段和增强生成阶段。每个阶段都包含若干关键技术步骤,共同确保了RAG系统能够高效、准确地从海量信息中提取相关知识并生成优质回答。**2.1 知识预处理:向量化存储
知识预处理是RAG系统搭建的基础阶段,主要目标是将原始知识转化为便于检索的结构化格式。这一阶段包含三个关键步骤:**知识分块(Chunking)、生成嵌入(Embedding)和向量存储(Vector Storage)。** 知识分块是将原始文档切割成适当大小文本片段的过程。常用的分块策略包括固定长度分块(如每200字一个块)、语义边界分块(基于句子或段落分隔符)、结构化分块(针对表格和代码等特殊内容)以及重叠分块(相邻块之间有10%-20%重叠,防止关键信息被截断)。 生成嵌入是将文本转化为向量表示的关键步骤。通过预训练的嵌入模型(如BERT等),将每个知识块转化为高维向量。这些嵌入模型能够捕捉文本的深层语义,将语义相似的内容映射到数学空间中距离相近的向量。例如,“抗过拟合技术”与“正则化方法”的向量距离会非常接近,而“苹果(水果)”与“苹果(品牌)”的向量则会明显不同。 向量存储是将生成的向量与原始文本、元数据(如文档名称、页码、更新时间)一同存入向量数据库的过程。它通过构建近似最近邻索引,将线性搜索转化为毫秒级的快速匹配,满足实时交互需求。表:RAG中常用的知识分块策略对比
2.2 检索优化:精准获取相关知识
当用户提出查询时,RAG系统进入检索优化阶段,目标是**精准定位**与查询最相关的知识片段。这一阶段包含查询嵌入、语义检索和重排序三个环节 查询嵌入是指使用与知识块相同的嵌入模型,将用户问题转化为查询向量。这一步的关键是确保查询向量与知识向量处于**同一语义空间**,只有这样后续的相似性比对才有意义。 语义检索是通过查询向量在向量数据库中进行相似度匹配的过程。系统调用向量数据库的检索接口,通过近似最近邻算法召回Top-K个(通常K=5-20)与查询向量最相似的知识块。 重排序是对初步检索结果进行精细化校准的过程。初步检索得到的Top-K知识块中可能包含“语义相似但主题偏离”的噪声。2.3 增强生成:基于知识的可信回答
增强生成是RAG流程的最终阶段,将检索到的可靠信息与大语言模型的**推理能力**相结合,生成准确、可信的回答。这一阶段的核心是提示词构建和生成控制。 提示词构建是将用户原始查询与重排序后的相关知识块组合成增强提示词的过程。一个典型的提示词模板如下:3. RAG在数字政府中的典型应用场景
RAG技术在数字政府建设中具有广泛的应用前景,能够有效提升政府服务的智能化水平和工作效率。通过将政策法规、办事指南、政府文档等海量结构化与非结构化知识融入RAG系统,政府部门可以构建**智能高效**的公共服务平台,为公民和企业提供更准确、及时的服务。3.1 智能政策咨询与公共服务问答
政策咨询是政府服务的高频需求,但政策文件数量庞大、更新频繁,传统咨询方式效率低下。RAG技术可以构建**智能政策咨询系统**,快速准确回应公众的政策查询。 系统将各类政策文件、办事指南、法律法规等知识进行向量化存储,建立专门的政策知识库。当公民或企业咨询政策问题时,系统能够快速检索相关条款和规定,生成简明易懂的解答,并注明政策来源。 在公共服务问答方面,RAG系统可以整合各部门的常见问题解答(FAQ)、办事流程等信息,为公众提供**7×24小时**的智能问答服务。3.2 多模态政务服务与智能审批
RAG技术不仅限于文本处理,多模态RAG架构更能处理图像、表格、音频等多种形式的数据,为数字政府建设开辟更广阔的应用场景。 在智能审批领域,RAG系统可以整合申请材料、审批标准、案例参考等多模态信息,辅助工作人员进行**高效精准**的审批决策。例如,企业提交的申请材料可能包含营业执照扫描件(图像)、财务报表(表格)、项目说明(文本)等不同形式的内容,多模态RAG能够统一处理这些信息,与相关政策法规进行比对,生成审批建议。 在公共服务方面,多模态RAG可以实现**跨模态**的便民服务。例如,市民拍摄一处市政设施损坏的照片并上传,系统可以结合图片信息和地理位置数据,检索相关的维修政策和责任部门,自动生成维修申请或提供处理指引。这种应用极大简化了市民反馈问题的流程,提高了公共服务的响应速度和质量。3.3 智能公文写作与决策支持
政府日常工作中涉及大量公文写作和决策制定,RAG技术在这些场景中也能发挥重要作用。通过整合政策文件、历史案例、行业报告等高质量知识源,RAG系统可以辅助公务员进行**公文撰写**和数据分析。 在决策支持方面,RAG系统可以整合多源信息(包括统计数据、研究报告、成功案例等),为政策制定提供**全面精准**的信息支持。当政府部门需要考虑某项政策调整时,系统可以快速检索类似的历史案例、相关数据统计、专家观点等,生成综合分析报告,帮助决策者全面评估政策影响。3.4 政务热线与市民服务优化
政务热线和市民服务是政府连接群众的重要渠道,RAG技术可以显著提升这些服务的效率和质量。通过构建基于RAG的智能客服系统,能够实现**一站式**解决群众诉求。 在政务热线场景中,RAG系统可以实时检索相关政策法规和办事流程,为话务员提供**标准准确**的答复建议,确保咨询回应的一致性和准确性。同时,系统可以记录和分析高频问题,为政府优化公共服务提供数据支持。4. 普通人如何用好RAG技术?
即使你没有技术背景,也能通过以下几种方式享受RAG技术带来的便利:4.1. 选择已集成RAG的AI工具
现在越来越多的AI应用内置了RAG技术。比如一些智能笔记应用(如Notion AI)、文档助手(如ChatPDF)等,它们本质上就是利用RAG技术,将你的文档作为外部知识库,帮你快速获取文档中的信息。4.2. 利用浏览插件增强AI助手
一些AI助手提供了浏览器插件,这实际上是一种简化版的RAG技术。当AI回答问题时,它可以实时搜索网络上的最新信息,并将其作为生成答案的依据。这使得AI能够回答关于最新事件的问题。4.3. 在工作流中巧妙应用RAG思维
即使不使用专门的RAG工具,你也可以借鉴RAG的思维模式:**先检索,再生成**。具体来说:研究与写作:在让AI帮助写作前,先自己搜集相关资料,然后将这些资料与你的问题一起提交给AI,要求它基于这些资料生成内容。
专业咨询:当需要AI提供专业建议时(如法律、医疗等),先提供相关的专业文献或指南,再询问AI基于这些权威资料的分析。
数据分析:在让AI分析数据前,先提供相关的数据背景和行业报告,使AI的分析更加准确可靠。
最后,希望大家都能在RAG的应用中取得理想的成果,让人工智能真正为我们的生活和工作带来更多的便利和价值!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。