news 2025/12/31 21:24:17

Ollama本地部署大模型全教程:从安装到Dify/Chatbox使用

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Ollama本地部署大模型全教程:从安装到Dify/Chatbox使用

本文详细介绍了使用Ollama本地部署大模型的完整流程,包括软件下载安装、以deepseek为例的模型部署、Dify平台接入配置以及通过Chatbox实现可视化界面使用。文章提供模块化学习路径,适合不同需求的用户,无论是否需要与Dify集成或直接使用Chatbox界面。教程步骤清晰,覆盖从环境配置到实际应用的完整流程,是小白和程序员学习本地大模型部署的实用指南。


上期文章已经介绍了如何本地部署AI开发平台Dify,本期为大家介绍如何通过Ollama部署本地大模型,Dify如何接入Ollama部署的本地大模型,以及脱离Dify如何方便使用大模型。

本期具体内容包括1.Ollama下载安装、2.大模型部署(以deepseek为例)、3.Dify接入本地大模型、4.通过chatbox使用本地大模型(额外内容)。如果只想本地部署大模型可以只看1、2,如果想要通过Dify接入本地大模型可以看1、2、3,如果想脱离Dify直接方便的使用本地大模型可以看1、2、4。

1、Ollama下载安装

大模型的本地部署方式有很多,可以直接部署,也可以借助其他工具进行部署,为了方便使用和管理,通常是借助其他工具进行部署,例如Ollama或者LM Studio,相比于LM Studio,Ollama下载模型方便且兼容性好,但是安装会稍微麻烦一点而且没有界面,不过这些都好解决。

首先进入Ollama的官网https://ollama.com/,然后点击Download即可,这一步可能需要挂vpn,否则会访问不了,不过也不用担心,我已经把安装包放到了网盘,私信回复“1235”可以获取。

下载好后,打开安装包即可安装,对于Windows用户来说一路点击下一步就好了,Ollama默认是安装到C盘,如果想迁移到其他路径可以期待下一期文章。

安装完成之后可以进行一下验证,打开cmd,输入ollama,如果像下面这样显示即表示安装成功了。

安装成功后可以在系统变量设置一下模型的下载路径,在桌面找到“此电脑”,右键“属性”,然后点击“高级系统设置”,找到“环境变量”,在系统变量下点击“新建”,在变量名输入“OLLAMA_MODELS”,在变量值输入自己想放置模型的路径。

重启一下Ollama,注意一定要重启,否则环境配置不生效,下载的模型还是默认在C盘。

2、大模型部署(以deepseek为例)

安装完Ollama后,即可依托Ollama进行大模型的部署,此处有两种办法,一种是在线安装,直接在Ollama的模型库里找,然后通过命令安装,Ollama会自动下载并部署模型;另一种是离线安装,离线安装是指从其他资源网站下载好模型(.gguf文件),例如从hugging face上下载模型,然后通过modlefile文件进行安装。此处以在线安装作为示例。

首先进入Ollama官网,点击Models,进入模型资源库。

随便选择一个模型,此处以deepseek-r1:1.5b为例,注意名称一定要和官网名称一致。

打开cmd,输入ollama run deepseek-r1:1.5b,即开始自动拉取模型,等待完成即可。

完成后即可开始对话,此时由于ollama没有界面,所以只能通过cmd进行对话。

后续可以通过打开cmd,输入ollama run 模型名称 使用,如果不清楚已经安装的模型具体名称,可以输入 ollama list 查看。

第3步将介绍怎么在Dify中接入和使用本地大模型,第4步将介绍通过chatbox在可视化的界面中使用大模型。

3、Dify接入本地大模型

完成大模型的本地部署后,暂时还不能在Dify中使用,还需要进行一些配置。

注:Dify的安装可以查看上一期文章

首先,打开浏览器,输入http://localhost/apps进入Dify,点击页面右上角头像的设置,在模型供应商中找到Ollama并点击安装。

等待安装完成后进行模型配置,此处配置包括两部分,一个是LLM模型配置,所谓LLM即是大语言模型,此处可以是deepseek的模型也可以是chatgpt的模型或者是其他模型,其主要作用就是对话;另一个是Text Embedding模型,也叫文本嵌入模型,它是应用于知识库的模型,其主要功能是把知识库中的文本转换成向量,因为计算机无法直接理解自然语言,但是当把自然语言转换成向量之后,就可以通过数学的方式去进行理解和计算,例如你输入一个问题,从知识库中获得结果,本质就是把问题转换成向量并在知识库中检索和问题相似度最高的向量。此处可以用deepseek-r1模型进行配置,也可以使用其他专门的模型进行配置。

在模型名称中填写上一步下载的模型,如果不知道模型名称可以打开cmd,输入ollama list查看已经安装的模型。基础URL代表的是Ollama 服务地址,Ollama是默认暴露11434端口进行API调用,如果Dify是通过Docker部署的话,在基础URL中填入http://host.docker.internal:11434即可,如果是其他方式部署的Dify,可以参考帮助文档:https://docs.dify.ai/zh-hans/development/models-integration/ollama。剩余参数保持默认即可。最后点击保存

如果保存按钮变成灰色并且迟迟没有保存成功,可以参考一下步骤重新启动Dify的Docker服务以及重新启动大模型。

进入到Dify的工程文件,找到docker文件夹里的.env文件,用记事本打开,并在最后添加以下内容:

#启用自定义模型

CUSTOM_MODEL_ENABLED=true

#指定ollama的API地址

OLLAMA_API_BASE_URL=host.docker.internal:11434

按照下图步骤重启docker服务,并且运行模型

完成配置后可以看到两个模型都处于开启状态,此时即可在Dify中使用本地大模型。

回到Dify的工作空间,在“工作室”中创建空白应用,此处以工作流为例,点击工作流,输入名称和描述创建。

在工作流中添加LLM节点,点击节点可以在右侧进行配置,点击模型可以切换为刚才安装的deepseek-r1:1.5b模型

4、通过chatbox使用本地大模型

仅通过Ollama部署的本地大模型如果不借助其他工具只能在cmd中进行对话使用,如果想在可视化的界面中使用本地大模型,可以考虑使用chatbox这类的AI客户端,chatbox的优点在于轻量化和高性能。

首先进入官网https://chatboxai.app/zh?ref=tian 下载chatbox,下载完成后一路点击下一步即可安装。

安装完成后打开软件,会弹出提示框,选择使用自己的API Key或本地模型,或者可以点击设置进入配置界面。

在模型栏填入API域名和模型名称,点击保存。

注意:配置前需要先启动Ollama并运行模型。

新建一个对话,此时可以看到配置的模型已经成功应用了。

后话

先运行模型:无论是在Dify还是在chatbox中使用本地大模型,都需要先运行模型,运行方法是 ollama run 模型名称。

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/29 15:00:13

网约车服务端线上流量巡检与测试验收技术

网约车服务端承接了网约车核心交易流程整体链路串联工作,其涵盖交易细粒度的场景达百万级别,核心交易链路涉及几百个下游服务。这督促我们的质量保障手段要粗细结合,既能保障核心业务的服务可用性,又要保障海量用户场景的正确运行…

作者头像 李华
网站建设 2025/12/29 7:44:54

公考日记7

乘法:

作者头像 李华
网站建设 2025/12/29 14:10:53

科研实验室温湿度监控新范式:以太网 POE 技术全场景解决方案

科研实验室利用以太网POE供电温湿度传感器进行温湿度监控系统的方案设计需要考虑哪些因素?结合科研实验室的场景特殊性、POE 技术特性及温湿度监控的核心需求,方案设计需重点考虑以下8 大核心因素,覆盖技术选型、场景适配、系统稳定性、合规性…

作者头像 李华
网站建设 2025/12/31 10:25:46

探索SAR ADC:45nm工艺下的高速高精度设计

SAR ADC 10bit 100M采样时钟 转换速率50M/s ENOB 9.8bit gpdk 45nm cadence 管方学习教程电路 两百多页文档 电路包括但不限于:栅压自举开关 CDAC 动态比较器 桥接电容 SAR 逻辑电路 都有testbench安装好就可以直接跑仿真 仿真包含整体电路和子模块电路所有的 …

作者头像 李华