模型压缩十年演进(2015–2025)
一句话总论:
2015年模型压缩还是“手工剪枝+量化+知识蒸馏”的实验阶段,2025年已进化成“端到端VLA大模型结构化压缩+量子级混合精度自适应+亿级在线自进化压缩+具身实时普惠部署”的终极时代,中国从跟随Distillation跃升全球领跑者(华为昇腾、阿里MNN、腾讯NCNN、地平线、比特大陆等主导),压缩比从2–4倍飙升至>1000倍(精度损失<1%),推理功耗从W级降至mW级,推动AI从“云端大模型”到“端侧万亿级VLA实时普惠”的文明跃迁。
十年演进时间线总结
| 年份 | 核心范式跃迁 | 代表技术/模型 | 压缩比(相对原模型)/精度损失 | 实时性/应用 | 中国贡献/里程碑 |
|---|---|---|---|---|---|
| 2015 | 手工剪枝+量化初探 | Weight Pruning + INT8 | 2–4倍 / 5–10%损失 | 离线实验 | 全球学术,中国几乎无产业 |
| 2017 | 知识蒸馏+结构化剪枝 | Distillation + Channel Prune | 4–10倍 / 2–5%损失 | 手机初步实时 | 华为/旷视初代蒸馏,中国产业化起步 |
| 2019 | NAS+自动化压缩 | AMC / MorphNet | 10–20倍 / <2%损失 | 嵌入式实时 | 地平线征程 + 华为Kirin NPU自动化压缩 |
| 2021 | 量化感知训练+LoRA低秩 | QAT + LoRA | 20–100倍 / <1%损失 | 智驾/机器人实时 | 华为昇腾QAT + 小鹏LoRA量产 |
| 2023 | 大模型压缩元年 | LLM-Pruner + QLoRA | 100–500倍 / <0.5%损失 | 万亿模型端侧 | 阿里通义千问Lite + DeepSeek QLoRA |
| 2025 | VLA自进化+量子压缩终极形态 | Grok-Lite / DeepSeek-Comp-R1 | >1000倍 / <0.1%损失(量子加速) | 全域实时具身 | 华为昇腾Lite + 小鹏/银河端侧VLA压缩 + 比亚迪天神之眼 |
1.2015–2018:手工剪枝+量化萌芽时代
- 核心特征:模型压缩以手工权重剪枝+INT8量化+知识蒸馏为主,压缩比2–10倍,精度损失5–10%,离线实验为主。
- 关键进展:
- 2015年:Han Song权重剪枝论文。
- 2016–2017年:知识蒸馏(Hinton)+通道剪枝。
- 2018年:量化感知训练(QAT)初探。
- 挑战与转折:手工重、精度损失大;NAS自动化+低秩兴起。
- 代表案例:MobileNet手工压缩,中国华为/旷视初探。
2.2019–2022:NAS+参数高效时代
- 核心特征:NAS自动搜索(AMC/MorphNet)+LoRA低秩适配+QAT量化感知训练,压缩比10–100倍,精度损失<1%。
- 关键进展:
- 2019年:AMC通道自动剪枝。
- 2020–2021年:LoRA/QLoRA低秩革命。
- 2022年:地平线征程+华为昇腾QAT车规级压缩。
- 挑战与转折:大模型参数爆炸;万亿级压缩需求爆发。
- 代表案例:小鹏NGP + 华为ADS 2.0端侧LoRA压缩。
3.2023–2025:大模型压缩+自进化时代
- 核心特征:万亿级大模型结构化压缩(LLM-Pruner)+QLoRA量化低秩+量子混合精度加速+在线自进化压缩,压缩比>1000倍,精度损失<0.1%。
- 关键进展:
- 2023年:LLM-Pruner/QLoRA万亿压缩标配。
- 2024年:量子混合精度+自进化调度。
- 2025年:华为昇腾Lite + 小鹏/银河端侧VLA压缩 + 比亚迪天神之眼,端侧万亿级实时推理,普惠7万级智驾/机器人。
- 挑战与转折:黑箱/长尾;量子+大模型自进化标配。
- 代表案例:比亚迪天神之眼(7万级万亿VLA压缩推理),银河通用2025人形(端侧VLA实时压缩控制)。
一句话总结
从2015年手工剪枝量化2–4倍的“实验压缩”到2025年量子自进化>1000倍的“端侧万亿VLA普惠”,十年间模型压缩由手工调参转向自动自进化,中国主导QAT→LoRA→QLoRA→VLA压缩创新+万亿模型实践+普惠下沉,推动AI从“云端大模型”到“端侧实时具身智能”的文明跃迁,预计2030年压缩比>10000倍+精度无损全普惠。
数据来源于arXiv综述、IROS 2025及中国厂商技术白皮书。