从0开始学习大模型(LLM),直接阅读原始论文是建立深刻理解的最佳捷径。因为大模型领域发展极快,但核心思想都浓缩在几十篇经典论文中。下面的9篇,每一篇都是该阶段的里程碑。
第一阶段:万物起源(架构基础)
这一阶段你需要搞懂大模型的“骨架”是什么。
1. Attention Is All You Need (2017)
作者:Google Brain
核心贡献:提出了Transformer架构,抛弃了传统的循环神经网络(RNN/LSTM)。
学习重点:彻底搞懂Self-Attention(自注意力机制)、Multi-head Attention 和 Positional Encoding。这是现代所有大模型(GPT, Claude, Llama)的基石。
一句话评价:没有它,就没有现在的生成式AI。
第二阶段:分道扬镳(BERT与GPT)
Transformer 诞生后,技术路线分为了“理解流”和“生成流”。
2. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (2018)
作者:Google
核心贡献:Encoder-only架构。引入了“完形填空”(Masked LM)的训练方式。
学习重点:理解双向上下文(Bidirectional)对于“理解任务”(如分类、实体识别)的重要性。
一句话评价:自然语言处理(NLP)领域的ImageNet时刻。
3. Improving Language Understanding by Generative Pre-Training (GPT-1) (2018)
作者:OpenAI
核心贡献:Decoder-only架构。坚持“预测下一个词”(Next Token Prediction)。
学习重点:为什么要用单向Transformer?为什么OpenAI赌注押在“生成”而不是“理解”上?
一句话评价:通往AGI(通用人工智能)的“那条少有人走的路”的开端。
第三阶段:规模法则与涌现(大就是好)
这一阶段,人们发现模型变大后,能力会出现质的飞跃。
4. Language Models are Few-Shot Learners (GPT-3) (2020)
作者:OpenAI
核心贡献:证明了模型大到一定程度(175B参数),不需要微调权重,仅通过**In-Context Learning(上下文学习/提示词)**就能完成任务。
学习重点:理解 Few-shot prompting(少样本提示)的概念,这是Prompt Engineering的起源。
一句话评价:暴力美学的胜利,开启了“大”模型时代。
5. Training Compute-Optimal Large Language Models (Chinchilla) (2022)
作者:DeepMind
核心贡献:修正了关于模型扩大的Scaling Laws(缩放定律)。
学习重点:数据量和参数量的最佳比例。它告诉我们大多数模型其实“训练不足”(Undertrained),数据质量和数量比单纯堆参数更重要。
一句话评价:教会了大家如何“省钱且高效”地训练大模型。
第四阶段:听懂人话(对齐与指令微调)
GPT-3虽然强,但它只会续写,不懂人类指令。这一阶段解决了“好用”的问题。
6. Training language models to follow instructions with human feedback (InstructGPT) (2022)
作者:OpenAI
核心贡献:引入RLHF(基于人类反馈的强化学习)。
学习重点:SFT(监督微调)、Reward Model(奖励模型)和 PPO 算法的三个步骤。这是ChatGPT背后的核心技术。
一句话评价:驯服野兽,让大模型从“复读机”变成了“助手”。
第五阶段:开源与平民化(微调技术)
如果你想自己动手玩模型,这篇论文必读。
7. LoRA: Low-Rank Adaptation of Large Language Models (2021)
作者:Microsoft
核心贡献:发明了一种只训练极少量参数(<1%)就能达到全量微调效果的方法。
学习重点:低秩矩阵分解的原理。
一句话评价:现在的个人开发者和中小公司微调模型,99%都在用LoRA。
第六阶段:推理与高级能力(当前前沿)
如何让模型解决数学题和复杂逻辑?
8. Chain-of-Thought Prompting Elicits Reasoning in Large Language Models (CoT) (2022)
作者:Google Brain
核心贡献:发现只要让模型“Let's think step by step”(一步步思考),它的逻辑推理能力就会暴涨。
学习重点:思维链(Chain-of-Thought)的原理。
一句话评价:提示词工程(Prompt Engineering)中最具魔力的一篇。
9. Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks (RAG) (2020)
作者:Facebook AI Research
核心贡献:解决了大模型“幻觉”和“知识过时”的问题,通过外挂知识库来生成答案。
一句话评价:企业级大模型应用落地的标准范式。
学习建议:如何阅读?
不要试图读懂每一个公式:尤其是Transformer那篇,先看图和文字描述,理解数据怎么流动的。
按顺序读:必须先读Attention Is All You Need,否则后面的都看不懂。
结合代码:读完架构篇,去GitHub找一个简单的Transformer实现(如Karpathy的
minGPT),对照代码看论文,效率最高。