news 2026/4/16 20:19:53

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 解码器(Decoder)详解以及算法实现

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 解码器(Decoder)详解以及算法实现

锋哥原创的Transformer 大语言模型(LLM)基石视频教程:

https://www.bilibili.com/video/BV1X92pBqEhV

课程介绍

本课程主要讲解Transformer简介,Transformer架构介绍,Transformer架构详解,包括输入层,位置编码,多头注意力机制,前馈神经网络,编码器层,解码器层,输出层,以及Transformer Pytorch2内置实现,Transformer基于PyTorch2手写实现等知识。

Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 解码器(Decoder)详解以及算法实现

Transformer 解码器是 Transformer 模型的重要组成部分,主要用于生成序列,提取特征。

核心特点:

  1. 自注意力机制(Self-Attention):允许解码器关注输入序列的不同部分,但在解码器中,为了防止信息泄露,通常使用掩码自注意力(masked self-attention),确保当前位置只能关注之前的位置。

  2. 编码器-解码器注意力机制(Encoder-Decoder Attention):允许解码器关注编码器的输出。

  3. 前馈神经网络(Feed-Forward Network):每个注意力层后都有一个前馈网络。

解码器层通常由以下子层组成: a. 掩码自注意力层(Masked Multi-Head Self-Attention) b. 编码器-解码器注意力层(Multi-Head Cross-Attention) c. 前馈神经网络层(Feed-Forward Network)

每个子层后面都有残差连接(Residual Connection)和层归一化(Layer Normalization)。

代码实现:

# 解码器层 class DecoderLayer(nn.Module): def __init__(self, d_model, self_attention, cross_attention, d_ff, dropout=0.1): super().__init__() self.d_model = d_model # 词嵌入维度大小 self.self_attention = self_attention # 多头自注意力机制 self.cross_attention = cross_attention # 多头交叉注意力机制 self.feed_forward = d_ff # 前馈神经网络 self.residual_connection1 = ResidualConnection(d_model, dropout) # 残差连接 self.residual_connection2 = ResidualConnection(d_model, dropout) # 残差连接 self.residual_connection3 = ResidualConnection(d_model, dropout) # 残差连接 def forward(self, x, encoder_output, mask): """ 前向传播 :param x: 解码器输入 :param encoder_output: 编码器输出结果 [3,5,512] :param mask: 掩码 :return: """ # 多头自注意力机制 x1 = self.residual_connection1(x, lambda x: self.self_attention(x, x, x, mask)) # 多头交叉注意力机制 x2 = self.residual_connection2(x1, lambda x: self.cross_attention(x, encoder_output, encoder_output)) # 前馈神经网络 x3 = self.residual_connection3(x2, lambda x: self.feed_forward(x)) return x3 # 解码器(由多个解码器层堆叠) class Decoder(nn.Module): def __init__(self, num_layers, layer): super().__init__() self.layers = nn.ModuleList([copy.deepcopy(layer) for _ in range(num_layers)]) self.norm = LayerNorm(layer.d_model) def forward(self, x, encoder_output, mask): """ 前向传播 :param x: 解码器输入 :param encoder_output: 编码器的输出结果 [3,5,512] :param mask: 掩码 :return: """ for layer in self.layers: x = layer(x, encoder_output, mask) return self.norm(x) # 测试解码器 def test_decoder(): vocab_size = 2000 # 词表大小 embedding_dim = 512 # 词嵌入维度大小 embeddings = Embeddings(vocab_size, embedding_dim) embed_result = embeddings(torch.tensor([[23, 5, 77, 3, 55], [166, 12, 13, 122, 15], [166, 21, 13, 14, 15]])) positional_encoding = PositionalEncoding(embedding_dim) positional_result = positional_encoding(embed_result) mha = MultiHeadAttention(d_model=512, num_heads=8) # 多头自注意力机制 ffn = FeedForward(d_model=512, d_ff=2048) # 前馈神经网络 # 实例化解码器对象 decoder_layer = DecoderLayer(d_model=512, self_attention=mha, cross_attention=mha, d_ff=ffn) # 编码器输入 encoder_output = test_encoder() mask = create_sequence_mask(5) # 实例化解码器对象 decoder = Decoder(num_layers=6, layer=decoder_layer) decoder_result = decoder(positional_result, encoder_output, mask) print('decoder_result.shape:', decoder_result.shape) if __name__ == '__main__': # test_encoder() test_decoder()

运行输出:

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 14:50:26

从缺陷到智慧:软件测试中的关键教训与成长路径

在软件测试领域,每一次缺陷的漏测、每一次沟通的断裂,不仅是项目中的挫折,更是团队成长的催化剂。本文通过总结测试实践中常见的教训,提炼出可操作的改进策略,帮助测试从业者在复杂项目中构建更稳健的质量防线。 一、…

作者头像 李华
网站建设 2026/4/16 12:22:26

如何在30分钟内修复Open-AutoGLM SSL证书错误?一线工程师亲授秘技

第一章:Open-AutoGLM SSL证书错误的根源解析在部署 Open-AutoGLM 服务过程中,SSL 证书错误是常见且影响服务可用性的关键问题。此类错误通常表现为客户端无法建立安全连接,提示“证书无效”、“主机名不匹配”或“颁发机构不受信任”。深入分…

作者头像 李华
网站建设 2026/4/16 13:07:27

Open-AutoGLM TLS版本升级指南:3步完成安全协议平滑迁移,避免服务中断

第一章:Open-AutoGLM TLS 版本适配优化在部署 Open-AutoGLM 服务过程中,TLS 协议版本的兼容性直接影响到通信安全与客户端连接成功率。随着主流浏览器和操作系统逐步弃用 TLS 1.0 和 1.1,服务端必须升级至 TLS 1.2 或更高版本以确保安全合规。…

作者头像 李华
网站建设 2026/4/16 12:23:14

证书即将失效?教你如何为Open-AutoGLM部署实时过期监控提醒,防患未然

第一章:Open-AutoGLM 证书过期提醒设置在使用 Open-AutoGLM 服务过程中,TLS 证书的有效性对系统安全与服务连续性至关重要。为避免因证书过期导致的服务中断,建议配置自动化监控与提醒机制。配置监控脚本 可通过编写 Shell 脚本定期检查证书剩…

作者头像 李华
网站建设 2026/4/15 16:21:17

LangFlow监控GPU利用率的方法与工具

LangFlow监控GPU利用率的方法与工具 在本地部署大语言模型(LLM)的实践中,你是否曾遇到过这样的场景:点击“运行”按钮后界面卡顿、响应延迟飙升,甚至直接报出 CUDA out of memory 错误?而此时CPU使用率却不…

作者头像 李华
网站建设 2026/4/16 2:09:32

【新】基于SSM的学习辅助系统【包括源码+文档+调试】

💕💕发布人: 星河码客 💕💕个人简介:混迹java圈十余年,精通Java、小程序、数据库等。 💕💕各类成品Java毕设 。javaweb,ssm,springboot等项目&…

作者头像 李华