news 2026/4/16 12:44:03

常见的微调的方式有哪些?(Lora...)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
常见的微调的方式有哪些?(Lora...)

1.LoRA(Low-Rank Adaptation)

核心思想: 不修改原始权重,旁路添加低秩矩阵

┌─────────────────────────────────┐
│ 原始Linear层 (W: 4096×4096) │
│ ❄️ 冻结不训练 │
│ ↓ x │
│ W·x (输出) │
└─────────────────────────────────┘
+ (相加)
┌─────────────────────────────────┐
│ LoRA旁路 │
│ x → A(8×4096) → B(4096×8) │
│ 🔥 只训练这两个矩阵 │
│ ↓ │
│ B·A·x (输出) │
└─────────────────────────────────┘

2.Prompt Tuning

核心思想: 在输入序列前添加可学习的"软提示词"

原始输入:
[The, movie, is, great] → Encoder → 输出

Prompt Tuning:
[P1, P2, P3, ..., Pk, The, movie, is, great] → Encoder → 输出
↑____________↑
可学习的soft prompts
(只训练这些)

具体做法:

  • 模型权重全部冻结
  • 只在输入前添加 k 个可学习的embedding向量 (比如20个)
  • 只训练这20个向量
  • 参数量: 极少 (20 × 768维 ≈ 15K参数)

输入层:
┌──────────────────────────────────────┐
│ [🔥P₁] [🔥P₂] [🔥P₃] ... [🔥Pₖ] │ ← 可训练的prompt embeddings
│ [❄️The] [❄️movie] [❄️is] [❄️great] │ ← 真实输入(正常处理)
└──────────────────────────────────────┘

❄️ Transformer层 (冻结)

输出

3.Adapter

核心思想: 在Transformer层之间插入小型瓶颈网络

原始Transformer块: Input → Self-Attention → Add&Norm → FFN → Add&Norm → Output 加入Adapter后: Input → Self-Attention → Add&Norm → [🔥Adapter] → FFN → Add&Norm → [🔥Adapter] → Output ↑ ↑ 新插入的模块 新插入的模块

具体做法:

  • Transformer层冻结
  • 在每层后插入Adapter模块
  • 只训练Adapter参数
  • 参数量: 1-3% (取决于bottleneck大小)

4.IA3(Infused Adapter by Inhibiting and Amplifying Inner Activations)【基本不用】

核心思想: 用可学习的缩放向量调整激活值

原始: h = W·x IA3: h = (W · diag(l)) · x = W · (l ⊙ x) ↑ ↑ 可学习的缩放向量 逐元素相乘

具体做法:

  • 权重矩阵W冻结
  • 只学习一个缩放向量l(长度等于输入维度)
  • 将输入x逐元素乘以l,然后再乘以W
  • 参数量: 极少 (每层只有一个向量, 比如768个参数)

可视化:

对于 K、V、FFN 的投影: 输入 x (768维) ↓ x ⊙ l_k (逐元素相乘) ← 🔥 l_k是768维可训练向量 ↓ ❄️ W_k · (缩放后的x) ← W_k冻结 ↓ 输出

5.Full FT(Full Fine-Tuning / 全量微调)

核心思想: 所有参数都训练

预训练模型的所有参数 → 🔥全部解冻 → 在下游任务上训练

具体做法:

  • 加载预训练权重
  • 所有层的所有参数都设为可训练
  • 在目标数据集上重新训练
  • 参数量: 100%

6.固定Encoder(Feature Extraction)

核心思想: 把预训练模型当特征提取器,只训练新加的分类头

输入 → ❄️Encoder(冻结) → 特征 → 🔥分类头(新建+训练) → 输出

具体做法:

  • Encoder所有层冻结
  • 去掉原来的输出层,加一个新的(比如线性层)
  • 只训练这个新的分类头
  • 参数量: <1% (只有分类头)

https://mp.weixin.qq.com/s/aAIuZ8LH3flnxNLtlP6d0w

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 0:42:42

低成本学AI:云端GPU按需付费,比培训班实战性强

低成本学AI&#xff1a;云端GPU按需付费&#xff0c;比培训班实战性强 1. 为什么选择云端GPU学习AI&#xff1f; 对于想转行AI领域的朋友来说&#xff0c;动辄上万的培训班费用确实让人犹豫。更现实的问题是&#xff1a;即使报了班&#xff0c;家里的普通电脑也跑不动练习项目…

作者头像 李华
网站建设 2026/4/16 12:20:21

AI实体侦测省钱攻略:云端GPU按需付费比买卡省90%

AI实体侦测省钱攻略&#xff1a;云端GPU按需付费比买卡省90% 1. 为什么开发者需要云端GPU方案 接了个异常流量检测的私活&#xff0c;客户预算有限&#xff0c;算了下买显卡回本要接10单&#xff1f;这种情况在自由开发者中很常见。买显卡就像买私家车&#xff0c;看起来拥有…

作者头像 李华
网站建设 2026/4/16 11:57:57

StructBERT轻量版揭秘:为何在CPU上表现优异

StructBERT轻量版揭秘&#xff1a;为何在CPU上表现优异 1. 引言&#xff1a;中文情感分析的现实需求与挑战 随着社交媒体、电商平台和用户评论系统的普及&#xff0c;中文情感分析已成为自然语言处理&#xff08;NLP&#xff09;领域的重要应用方向。企业需要快速识别用户对产…

作者头像 李华
网站建设 2026/4/16 10:41:28

AI智能体自动化测试:持续集成流水线,每日成本<5元

AI智能体自动化测试&#xff1a;持续集成流水线&#xff0c;每日成本<5元 1. 为什么需要AI智能体自动化测试 在AI模型开发过程中&#xff0c;回归测试是确保模型质量的关键环节。传统方式下&#xff0c;DevOps团队通常需要维护一套完整的GPU测试环境&#xff0c;但这种方式…

作者头像 李华
网站建设 2026/4/16 11:05:25

StructBERT部署教程:电商平台情感分析系统

StructBERT部署教程&#xff1a;电商平台情感分析系统 1. 引言 1.1 中文情感分析的业务价值 在电商、社交、客服等场景中&#xff0c;用户评论、反馈和对话文本蕴含着丰富的情感信息。准确识别这些文本的情绪倾向&#xff08;正面或负面&#xff09;&#xff0c;对于品牌监控…

作者头像 李华
网站建设 2026/4/16 11:02:22

实体侦测模型选型困惑?5个预置镜像横向测评报告

实体侦测模型选型困惑&#xff1f;5个预置镜像横向测评报告 引言&#xff1a;为什么需要实体行为分析模型&#xff1f; 想象你是一家公司的安全主管&#xff0c;每天要监控数千个摄像头和网络设备产生的海量数据。传统规则系统就像拿着清单找小偷的保安&#xff0c;只能识别已…

作者头像 李华