news 2026/4/16 6:14:24

Transformer彻底剖析(5):带掩码的多头自注意力与多头编解码注意力、三个注意力模块有什么区别,作用分别是什么

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Transformer彻底剖析(5):带掩码的多头自注意力与多头编解码注意力、三个注意力模块有什么区别,作用分别是什么

目录

1 transformer原始架构

2 三个注意力模块的区别和翻译过程中的作用

2.1 编码器中的多头自注意力(无掩码)

2.2 解码器中的多头掩码自注意力(有掩码)

2.3 解码器中的多头编解码注意力(无掩码)

2.4 我的通俗理解


abstract:

Masked Multi-Head Self-Attention(带掩码的多头自注意力)

Multi-Head Encoder-Decoder Attention(多头编码器-解码器注意力)

1 transformer原始架构

然后在Transformer彻底剖析(0): Transformer的Decoder的输入输出都是什么

已经写了自回归的问题,接下来整理一下这里面三个注意力模块有什么区别,以及作用分别是什么。

2 三个注意力模块的区别和翻译过程中的作用

从前面图中可以看到,这三个注意力模块分别是

  • 编码器中的多头自注意力模块,不带掩码
  • 解码器中:带掩码的多头自注意力,
  • 解码器中:多头编解码注意力,不带掩码

2.1 编码器中的多头自注意力(无掩码)

  • 作用:完整理解中文句子"我爱你"的内部关系
  • 过程:当处理"爱"这个词时,模型能同时看到"我"和"你",理解这是一个"我→爱→你"的关系结构
  • 结果:创建了包含整个句子语义的"信息库",就像把这句话的完整含义打包存好
  • 关键:这里没有掩码,所以每个词都能看到句子中所有其他词

2.2 解码器中的多头掩码自注意力(有掩码)

  • 作用:理解已经生成的英文部分
  • 过程:假设正在生成第三个词(you),模型只能看到前面已生成的"I love",看不到未来要生成的内容
  • 为什么需要掩码:防止模型"作弊",保证翻译是按顺序一个词一个词生成的
  • 比喻:就像翻译员用手盖住还没翻译的部分,只看已经写下的英文

2.3 解码器中的多头编解码注意力(无掩码)

  • 作用:连接源语言和目标语言的"桥梁"
  • 过程:当决定下一个英文词时,模型会:
    1. 先看已生成的"I love"
    2. 再对照中文"数据库"(编码器输出)
    3. 发现"I love"对应了"我爱",接下来应该关注"你"
  • 关键:没有掩码,可以查看整个中文句子的编码表示

2.4 我的通俗理解

编码器相当于解析原文我爱你的中文内部语义信息,相当于创建了一个数据库,等待后面编解码注意力查询, 然后解码器中第一个注意力是相当于理解我现在已经翻译出来的英文原始句子信息,这两个目前为止就是相当于一个理解中文全文自身,一个相当于理解已经翻译出来的英文自身,然后编解码注意力相当于在理解了目前已经翻译出来的英文自身的基础上,然后去看看中文里面我接下来该翻译什么了,然后就相当于中英文状态结合去翻译,其实这就相当于翻译的时候,一边看看原文,一遍看看已经翻译出来的几个单词,综合决定接下来翻译成什么

【Encoder】 我 爱 你 ↓ “中文整体语义数据库” 【Decoder 每一步】 1. 看看我已经翻译了什么(英文自己) 2. 带着这个状态去查中文语义 3. 把中英文信息融合 4. 决定下一个英文词
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/14 12:59:28

Open-AutoGLM vs 传统爬虫:智能聚合时代的终极对决

第一章:Open-AutoGLM 新闻资讯聚合Open-AutoGLM 是一个基于开源大语言模型技术构建的智能新闻聚合系统,专注于自动化采集、语义理解与个性化推荐。该系统融合了多源数据抓取、自然语言处理与用户行为分析能力,为用户提供高效、精准的资讯服务…

作者头像 李华
网站建设 2026/4/13 15:49:43

【稀缺首发】Open-AutoGLM定制硬件即将上线?提前锁定这4款替代神品

第一章:Open-AutoGLM 礼物选购推荐在人工智能快速发展的背景下,Open-AutoGLM 作为一款基于开源大模型的智能推荐系统,正逐步应用于个性化场景中,其中“礼物选购推荐”是其典型应用之一。该系统结合用户画像、语义理解与上下文推理…

作者头像 李华
网站建设 2026/4/13 15:01:24

Excalidraw对象分组与锁定功能实用场景

Excalidraw对象分组与锁定功能实用场景 在分布式团队协作日益成为常态的今天,一张清晰、可维护且不易被误操作破坏的架构图,往往比十页冗长的文字说明更有效。Excalidraw 作为一款以“手绘感”著称的开源白板工具,早已超越了简单的涂鸦范畴—…

作者头像 李华
网站建设 2026/4/16 12:51:03

张量的运算函数

张量的基本运算函数张量运算在深度学习和科学计算中至关重要。常见的张量运算函数包括加法、减法、乘法和除法。这些运算通常按元素进行,要求参与运算的张量具有相同的形状。加法运算:import torch a torch.tensor([1, 2, 3]) b torch.tensor([4, 5, 6…

作者头像 李华
网站建设 2026/4/16 14:33:33

NeurIPS 2025 Best Paper 一作邱子涵在线开讲!

点击蓝字关注我们AI TIME欢迎每一位AI爱好者的加入!AITIME01NeurIPS 2025 Best Paper AwardAITIME02观看地址A微信视频号直播点击预约AI TIME 视频号直播BBilibili直播进入Bilibili直播间观看,提问有可能会被选中由讲者回答!欢迎关注AITIME论…

作者头像 李华