news 2026/4/16 13:46:29

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 层归一化(Layer Normalization)详解以及算法实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 层归一化(Layer Normalization)详解以及算法实现

锋哥原创的Transformer 大语言模型(LLM)基石视频教程:

https://www.bilibili.com/video/BV1X92pBqEhV

课程介绍

本课程主要讲解Transformer简介,Transformer架构介绍,Transformer架构详解,包括输入层,位置编码,多头注意力机制,前馈神经网络,编码器层,解码器层,输出层,以及Transformer Pytorch2内置实现,Transformer基于PyTorch2手写实现等知识。

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 层归一化(Layer Normalization)详解以及算法实现

层归一化(LayerNorm)是对输入的每一维特征进行归一化,使得网络在训练过程中保持稳定。

公式:

优点:

  1. 稳定性:层归一化可以防止输入值的范围过大或过小,使得训练过程更加稳定。

  2. 与批大小无关:不像批归一化依赖于批量大小,层归一化是针对每个样本单独进行归一化,非常适合序列模型。

代码实现:

# 层归一化 class LayerNorm(nn.Module): # features 512 词嵌入维度 eps 极小值常数,防止零分母 def __init__(self, features, eps=1e-6): super().__init__() self.gamma = nn.Parameter(torch.ones(features)) # 可学习的缩放参数 self.beta = nn.Parameter(torch.zeros(features)) # 可学习的平移参数 self.eps = eps def forward(self, x): """ 前向传播 参数: x: 输入张量 [batch_size, seq_len, d_model] [3,5,512] 来自多头自注意力机制,或者来自前馈神经网络 返回: 归一化后的张量 """ mean = x.mean(-1, keepdim=True) # 计算均值 [3,5,512] variance = x.var(-1, keepdim=True) # 计算方差 [3,5,512] x = (x - mean) / torch.sqrt(variance + self.eps) # 归一化 [3,5,512] return self.gamma * x + self.beta if __name__ == '__main__': vocab_size = 2000 # 词表大小 embedding_dim = 512 # 词嵌入维度的大小 embeddings = Embeddings(vocab_size, embedding_dim) embed_result = embeddings( torch.tensor([[1999, 2, 99, 4, 5], [66, 2, 3, 22, 5], [66, 2, 3, 4, 5]])) print("embed_result.shape:", embed_result.shape) print("embed_result", embed_result) positional_encoding = PositionalEncoding(embedding_dim) result = positional_encoding(embed_result) print("result:", result) print("result.shape:", result.shape) # 测试自注意力机制 # query = key = value = result # mask = create_sequence_mask(5) # dropout = nn.Dropout(0.1) # attention_output, attention_weights = self_attention(query, key, value, mask, dropout) # print("attention_output.shape:", attention_output.shape) # [3, 5, 512] # print("attention_weights.shape:", attention_weights.shape) # [3, 5, 5] mha = MultiHeadAttention(d_model=512, num_heads=8) print(mha) mask = create_sequence_mask(5) result = mha(result, result, result, mask) print("result.shape:", result.shape) # [3, 5, 512] # 测试前馈神经网络 # ffn = FeedForward(d_model=512, d_ff=2048) # ffn_result = ffn(result) # print('ffn_result:', ffn_result.shape) # 测试层归一化 ln = LayerNorm(features=512) ln_result = ln(result) print("ln_result:", ln_result.shape)

运行结果:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/13 14:00:53

算法备案材料:明晰材料逻辑,构建安全合规的算法体系

最近,一家从事AI 内容生成的创业团队负责人找到我,满面愁容。他们拿出按照网上模板精心填写的全套备案材料,却屡次被驳回。“我们明明照着清单都填满了,问题究竟出在哪儿?” 查看了一下他们准备的材料,我发…

作者头像 李华
网站建设 2026/4/16 12:16:51

YOLOv5模型压缩终极指南:剪枝、量化、蒸馏三合一实战

YOLOv5模型压缩终极指南:剪枝、量化、蒸馏三合一实战 【免费下载链接】yolov5 yolov5 - Ultralytics YOLOv8的前身,是一个用于目标检测、图像分割和图像分类任务的先进模型。 项目地址: https://gitcode.com/GitHub_Trending/yo/yolov5 你是否正在…

作者头像 李华
网站建设 2026/4/16 12:29:16

Phar反序列化-NSSCTF-prize_z1

一、环境描述1、打开环境&#xff0c;是一段PHP代码。<META http-equiv"Content-Type" content"text/html; charsetutf-8" /> <?php highlight_file(__FILE__); class getflag {function __destruct() {echo getenv("FLAG");} }class …

作者头像 李华
网站建设 2026/4/8 20:12:11

运放新手全流程教学:从添加工艺库到后仿真的实战指南

运放新手教程&#xff0c;全流程教学&#xff0c;从添加工艺库到原理图&#xff0c;前仿真&#xff0c;版图步骤&#xff0c;后仿真 GPDK45nm&#xff0c;二级弥勒补偿运放 文档141页电路版图testbench 第一步&#xff0c;教初始环境怎么配置&#xff0c;怎么添加工艺库 第二步…

作者头像 李华
网站建设 2026/4/16 12:42:03

08章 向量内存操作 - “Vega“ 7nm Instruction Set ArchitectureReference Guide

向量内存&#xff08;VMEM&#xff09;指令将每个工作项的数据分别读取或写入VGPR中。这与标量内存指令形成对比&#xff0c;标量内存指令移动的是波前中所有线程共享的单个数据块。所有向量内存&#xff08;VM&#xff09;操作都由纹理缓存系统&#xff08;一级和二级缓存&…

作者头像 李华