news 2026/2/25 3:04:00

LoRA微调概论

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
LoRA微调概论

🍋🍋AI学习🍋🍋

🔥系列专栏: 👑哲学语录: 用力所能及,改变世界。
💖如果觉得博主的文章还不错的话,请点赞👍+收藏⭐️+留言📝支持一下博主哦🤞


一、LoRA微调

✅ 核心思想

  • 不更新原始大模型的所有参数(7B 参数 ≈ 14GB 显存)
  • 而是在某些层(如 attention 的 Q/V 投影)插入低秩矩阵
  • 只训练 A 和 B(可减少 99%+ 可训练参数)

✅ 优势

项目传统全参数微调LoRA
显存占用极高(需多卡)极低(单卡 24G 可训 70B)
训练速度快 2~5 倍
存储成本每个任务存完整模型只存 ~100MB 的 adapter
多任务切换需加载不同模型动态切换 LoRA 权重

💡适用场景:SFT、DPO、甚至部分 RLHF(策略模型)


二、准备工作

1. 环境安装(推荐使用unsloth加速)

# 基础依赖 pip install torch transformers datasets accelerate peft bitsandbytes # (可选但强烈推荐)Unsloth:加速 LoRA 训练 2~5 倍 pip install "unsloth[colab-new] @ git+https://github.com/unslothai/unsloth.git"

2. 选择基础模型

  • 中文推荐:Qwen/Qwen-1.5-7B-Chat,THUDM/chatglm3-6b
  • 英文推荐:meta-llama/Meta-Llama-3-8B-Instruct,mistralai/Mistral-7B-Instruct-v0.3
  • 注意:不要用 base 模型做对话任务!优先选-Instruct-Chat版本

3. 准备 SFT 数据集(Alpaca 格式)

[ { "instruction": "将以下英文翻译成中文", "input": "The future is already here — it's just not evenly distributed.", "output": "未来已来,只是尚未均匀分布。" }, // ... 更多样本 ]

三、LoRA 微调代码(Hugging Face + PEFT)

使用 Unsloth(更快更省显存)

from unsloth import FastLanguageModel model, tokenizer = FastLanguageModel.from_pretrained( model_name="Qwen/Qwen-1.5-7B-Chat", max_seq_length=2048, dtype=None, # 自动选 float16/bfloat16 load_in_4bit=True, ) model = FastLanguageModel.get_peft_model( model, r=64, target_modules=["q_proj", "k_proj", "v_proj", "o_proj"], lora_alpha=128, lora_dropout=0, bias="none", use_gradient_checkpointing=True, random_state=3407, ) # 后续训练流程类似,但速度提升 2~5 倍

Unsloth 优势:自动融合 kernels、支持梯度检查点、内存优化,单卡 24G 可训 70B 模型


四、关键超参数调优指南

参数推荐值说明
r(rank)32 ~ 128越大拟合能力越强,但过大会过拟合;7B 模型常用 64
lora_alpha2×r控制 LoRA 更新幅度,通常设为 2*r
lora_dropout0.0 ~ 0.1小模型可设 0,大模型可加 0.05 防过拟合
target_modules见下表必须匹配模型架构
learning_rate1e-4 ~ 5e-4比全参数微调高 10 倍
batch_size越大越好通过gradient_accumulation_steps模拟大 batch

🔧 常见模型的target_modules

模型家族target_modules
Llama / Mistral["q_proj", "k_proj", "v_proj", "o_proj"]
Qwen["q_proj", "k_proj", "v_proj", "o_proj"]
ChatGLM["query_key_value"]
Phi-3["q_proj", "k_proj", "v_proj"]

💡 不确定?用print(model)查看模块名,或设target_modules="all-linear"(PEFT ≥ 0.10)


五、微调后如何推理?

方式 1:合并 LoRA 权重(推荐用于部署)

→ 合并后可用vLLM / TGI / Transformers直接加载

方式 2:动态加载 LoRA(适合多 adapter 切换)

from peft import PeftModel model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-1.5-7B-Chat", ...) model = PeftModel.from_pretrained(model, "./qwen-lora") # 推理时自动应用 LoRA

⚠️ 注意:vLLM 从 v0.4.0 开始实验性支持 LoRA 推理,但生产环境仍建议合并。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/24 0:29:59

基于 GEE 使用 Sentinel-2 遥感影像数据反演水体叶绿素 a 质量浓度

目录 一、前言 二、初始化设置 三、影像预处理 四、影像集合加载与预处理 五、波段比计算与叶绿素浓度反演 六、统计分析与结果输出 七、结果可视化 八、核心逻辑与应用场景 九、注意事项 十、运行结果 若觉得代码对您的研究 / 项目有帮助,欢迎点击打赏支…

作者头像 李华
网站建设 2026/2/21 21:18:00

小红书数据采集架构解析与工程实践

小红书数据采集架构解析与工程实践 【免费下载链接】xhs 基于小红书 Web 端进行的请求封装。https://reajason.github.io/xhs/ 项目地址: https://gitcode.com/gh_mirrors/xh/xhs 在内容营销和数据分析需求日益增长的背景下,小红书平台已成为品牌洞察和用户研…

作者头像 李华
网站建设 2026/2/23 19:33:33

长沙对非合作深化 探索新型易货贸易

中新社长沙12月8日电 (记者 唐小晴)“十四五”时期,长沙开放型经济成效显著,进出口总额累计1.4万亿元(人民币,下同),贸易“朋友圈”覆盖全球233个国家和地区,对非贸易实现翻番式跃升,年均增长31.7%。 记者8…

作者头像 李华
网站建设 2026/2/24 20:47:33

OpenCore Legacy Patcher终极教程:让老旧Mac完美运行最新macOS

OpenCore Legacy Patcher终极教程:让老旧Mac完美运行最新macOS 【免费下载链接】OpenCore-Legacy-Patcher 体验与之前一样的macOS 项目地址: https://gitcode.com/GitHub_Trending/op/OpenCore-Legacy-Patcher 还在为您的2012年MacBook Pro无法升级到macOS S…

作者头像 李华
网站建设 2026/2/24 3:40:58

1、开启GIMP图像编辑之旅:从安装到精通

开启GIMP图像编辑之旅:从安装到精通 1. GIMP简介 GIMP,即GNU Image Manipulation Program,是一款为UNIX和X Window环境编写的强大图像编辑程序。它功能类似于Adobe Photoshop、Corel Draw和Paint Shop Pro等流行应用,但具有免费、可在Linux系统上运行的优势。其模块化设计…

作者头像 李华
网站建设 2026/2/24 19:45:51

2、开启 GIMP 图形编辑之旅

开启 GIMP 图形编辑之旅 一、GIMP 入门概述 GIMP 是一款强大的图形应用程序,在完成安装后,就可以开始学习如何高效使用它了。这主要涉及打开、操作和保存图形文件,同时了解各种文件格式和相关选项。虽然它功能强大,使用方式可能与你习惯的有所不同,但实际上很容易上手。…

作者头像 李华