news 2026/4/30 6:03:09

YOLO26优化:Transformer创新 | 卷积化自注意力,共享大卷积核和动态卷积核,引入Flash Attention高效涨点| ICCV2025

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
YOLO26优化:Transformer创新 | 卷积化自注意力,共享大卷积核和动态卷积核,引入Flash Attention高效涨点| ICCV2025

💡💡💡问题点:针对 Transformer 在图像超分辨率(SR)任务中的高计算开销问题,提出了一系列高效解决方案。①我们观察到自注意力在不同层之间存在重复性

💡💡💡我们提出了一种设计策略:仅在每个 Transformer 块的第一层保留自注意力,其余层则替换为我们提出的高效替代模块——卷积注意力(Convolutional Attention,ConvAttn)。为了有效模拟自注意力的长距离建模能力和输入依赖的动态加权机制,ConvAttn 采用了双重机制:

  1. 长距离交互简化:通过在整个网络中共享一个 13×13 的大卷积核,仅作用于部分通道,从而简化自注意力的全局交互过程;

  2. 动态卷积核生成:根据输入特征动态生成卷积核,模拟自注意力的自适应加权特性。

本文贡献总结如下:
• 证明经过精心设计的卷积可以部分替代自注意力,在显著提升效率的同时不牺牲 Transformer 的核心优势。
• 首次将 Flash Attention 成功引入轻量级 SR 任务,通过避免显式存储注意力矩阵,将窗口尺寸扩大至 32×32 而几乎不增加显存。
• 以更简单、

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 13:54:25

YOLO26原创自研 | 自研独家创新BSAM注意力 ,基于CBAM升级

💡💡💡本文原创自研改进:提出新颖的注意力BSAM(BiLevel Spatial Attention Module),创新度极佳,适合科研创新,效果秒杀CBAM,Channel Attention+Spartial Attention升级为新颖的 BiLevel Attention+Spartial Attention 💡💡💡本文改进:1)作为注意力机制…

作者头像 李华
网站建设 2026/4/26 16:22:54

选型不盲目,部署更高效!企业智能预入职软件一体化解决方案

在企业人力资源管理数字化转型过程中,入职环节的效率与体验直接影响人才留存与企业口碑。一体化智能预入职软件通过整合信息采集、流程审批、员工引导等功能,成为优化入职管理的核心工具。但不少企业在选择与部署时,常面临功能匹配度低、流程…

作者头像 李华
网站建设 2026/4/20 12:21:47

fnOS 飞牛云 NAS 本地部署私人影视库 MoonTV 并实现外部访问

MoonTV 是一款影视聚合播放器。这款播放器集成了数十个免费站点资源,让你随时随地都能找到最新的热门电影、美剧、韩剧、动漫等等,更重要的是没有广告,不需要开通会员。本文将详细的介绍如何在 fnOS 飞牛云本地部署 MoonTV 并结合路由侠实现外…

作者头像 李华
网站建设 2026/4/29 16:44:03

【无人机辅助覆盖】搭载无人机的空中基站在19个六边形蜂窝网络的部署方案动态优化,实现信干噪比、吞吐量、用户提升蜂窝网络性能附matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长毕业设计辅导、数学建模、数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室👇 关注我领取海量matlab电子书和…

作者头像 李华