news 2026/4/16 14:47:28

<span class=“js_title_inner“>实验室4篇论文被ICLR 2026录用</span>

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
<span class=“js_title_inner“>实验室4篇论文被ICLR 2026录用</span>

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【顶会/顶刊】投稿交流群

添加微信号:CVer2233,小助手拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料及应用!发论文/搞科研/涨薪,强烈推荐!

来源:香港城市大学应用机器学习实验室

近日,机器学习与深度学习领域的顶级会议国际学习表征会议ICLR 2026(International Conference on Learning Representations)公布了论文接收结果。今年ICLR 2026收到大量投稿,录用率约为28%。AML Lab师生共有4篇论文成功入选。ICLR是聚焦表示学习、深度学习、强化学习、生成模型、大语言模型等前沿方向的高水平国际学术会议,强调理论创新与实际应用的结合。2026年ICLR将于4月23日至4月27日在巴西里约热内卢举办。

论文介绍

论文题目:From Single to Multi-Granularity: Toward Long-Term Memory Association and Selection of Conversational Agents

作者:Derong Xu, Yi Wen, Pengyue Jia, Yingyi Zhang, Wenlin Zhang, Yichao Wang, Huifeng Guo, Ruiming Tang, Xiangyu Zhao, Enhong Chen, Tong Xu

论文概述:大模型近年来被广泛应用于对话智能体。然而,用户与智能体之间日益增长的交互积累了大量对话记录,使得上下文窗口有限的LLMs难以维持连贯的长期对话记忆并提供个性化响应。尽管检索增强的记忆系统已经出现以解决这一问题,但现有方法往往依赖于单一粒度的记忆分割和检索。这种方法难以捕捉深层次的记忆关联,导致有用信息检索不完整或引入大量噪声,从而性能欠佳。为解决这些局限性,我们提出了MemGAS,一个通过构建多粒度关联、自适应选择和检索来增强记忆整合的框架。MemGAS基于多粒度记忆单元,采用高斯混合模型对新记忆与历史记忆进行聚类和关联。基于熵的路由器通过评估查询相关性分布,在信息完整性与噪声之间进行权衡,自适应地选择最优粒度。检索到的记忆通过基于LLM的过滤进一步精炼。在四个长期记忆基准上的实验表明,MemGAS在问答和检索任务上均优于现有最先进方法。

论文链接:https://arxiv.org/pdf/2505.19549

代码链接:https://github.com/Applied-Machine-Learning-Lab/ICLR2026_MemGAS

论文题目:Evoking User Memory: Personalizing LLM via Recollection-Familiarity Adaptive Retrieval

作者:Yingyi Zhang, Junyi Li, Wenlin Zhang, Pengyue Jia, Xianneng Li, Yichao Wang, Derong Xu, Yi Wen, Huifeng Guo, Yong Liu, Xiangyu Zhao

论文概述:个性化LLM的关键在于“调动用户记忆”。但现有记忆检索大多停留在一次性向量Top-K的快检索,它像大模型的“快思考”,反应迅速、成本可控,却天然偏向表层相似性:面对含糊提问、长尾细节或需要串联经历的场景时,容易召回不全或把不相关片段一起捞上来,造成“记忆噪声”与回答漂移。我们借鉴认知科学的双过程理论指出,人类并非只靠快判断,还会在熟悉度不足时启动慢思考式的回忆(Recollection),通过链式重建逐步找回时间、地点、因果等情境细节,而当前系统正缺少这种“慢回忆”能力与在两条路径间自适应切换的机制。为解决上述问题,本文提出RF-Mem:一种由“熟悉度不确定性”驱动的快检索与慢回忆双通道记忆检索框架。RF-Mem 先做一次探测式检索,用候选列表的平均相似度与熵来刻画熟悉度信号。熟悉度高则走“熟悉性路径”,直接 top-K 返回,实现低开销的快思考检索。熟悉度低则触发“回忆路径”,对候选记忆做 KMeans 聚类,并通过 α-mix 将查询向量与簇中心混合生成一组“回忆查询”,再进行多轮迭代扩展与证据链重建。整个回忆过程受分叉数、扇出与最大轮数约束,确保慢思考可控而非无限发散。实验结论:在三个基准与不同语料规模设置下,RF-Mem 在固定预算与延迟约束下持续优于单次 Top-K 的快检索方案与“全上下文堆叠”的重推理方案,体现出“该快则快,该慢则慢”的优势。换句话说,它把大模型的“快思考与慢思考”从生成侧前移到了检索侧,让个性化不再依赖粗暴加长上下文,而是依赖可切换的记忆唤起策略来提升覆盖与可靠性。

论文链接:https://openreview.net/forum?id=f7p0F2X6XN

代码链接:https://github.com/Applied-Machine-Learning-Lab/ICLR2026_RF-Mem

论文题目:SONATA: Synergistic Coreset Informed Adaptive Temporal Tensor Factorization

作者:Maolin Wang, Zhiqi Li, Binhao Wang, Xuhui Chen, Tianshuo Wei, Wanyu Wang, Shikai Fang, Ruocheng Guo, Zenglin Xu, Xiangyu Zhao

论文概述:针对动态张量流分析中长期存在的两大挑战,即如何精准捕捉复杂的多尺度时间动态以及如何在海量数据流中保持高效的计算性能,一种名为 SONATA 的创新框架应运而生。现有的静态或流式张量分解方法往往难以兼顾这两点,常常导致对演变模式的建模不够精细,或者处理速度无法跟上数据生成的步伐。为了突破这些局限,SONATA 创造性地结合了基于线性动力系统(LDS)和时间核的细粒度连续时间建模。这种结合使得该方法能够平滑且准确地描述数据随时间的连续变化,而不再受限于离散的时间片。更关键的是,该框架引入了一套自适应核心集(Coreset)选择机制,这是一种高度智能的样本筛选策略。不同于传统的随机采样,该机制通过联合评估数据样本的不确定性、影响力、新颖性和信息增益这四个维度,并利用贝尔曼方程来优化长期的学习效用。这一过程能够从庞大的数据流中精准识别并保留最具价值的“核心”样本,进而用于流式贝叶斯更新,极大地提升了数据利用效率。大量的实验结果有力地证明了 SONATA 的优越性:在多个真实世界的数据集上,该方法不仅能够比现有技术更敏锐地捕捉到潜在的演变模式,而且在预测精度和计算效率上均实现了显著提升,从而为处理大规模动态张量数据提供了一种强有力的新工具。

论文链接:https://openreview.net/pdf?id=P1PZBR6a4S

代码链接:https://github.com/Applied-Machine-Learning-Lab/ICLR2026_SONATA

论文题目:Fair Decision Utility in Human-AI Collaboration: Interpretable Confidence Adjustment for Humans with Cognitive Disparities

作者:Jiashi Gao, Kexin Liu, Xinwei Guo, Junlei Zhou, Jiaxin Zhang, Xiangyu Zhao, Guanhua Chen, Xin Yao, Xuetao Wei

论文概述:在人工智能辅助决策场景中,人类决策者通常会结合自身判断信心与AI提供的置信度共同做出最终决定。然而,现实中人类决策者因教育背景、经验等差异而表现出异质性的认知能力,导致其主观信心与真实标签概率之间存在不同程度的偏差。现有AI置信度调整方法(如校准和人机对齐)虽能提升整体决策效用,却无法保障不同认知能力群体之间的效用公平性,甚至可能加剧弱势群体的劣势,引发信任危机。为解决这一问题,本文提出了“群体间对齐”(inter-group-alignment)这一新概念,并理论证明:只有同时满足人机对齐(human-alignment)与群体间对齐,才能有效控制不同人类决策者群体间的效用差距。基于此,作者进一步提出了一种面向认知差异的多校准(cognition-aware multicalibration)方法,通过在人类信心与敏感属性(如教育水平)定义的细粒度子群体上进行联合校准,同时实现人机对齐与群体间对齐。该方法在理论上被证明是达成双重对齐目标的充分条件,并可通过离散化策略高效实现。在四个真实人机协作任务上的大量实验表明,该方法在不牺牲整体决策效用的前提下,显著提升了不同认知能力群体间的效用公平性,有效缓解了由认知差异带来的决策不平等现象。

论文链接:https://openreview.net/forum?id=hqq6GyYISN

代码链接:https://anonymous.4open.science/r/FairHAI

END

本文系学术转载,如有侵权,请联系CVer小助手删文

何恺明在MIT授课的课件PPT下载

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ICCV 2025 论文和代码下载

在CVer公众号后台回复:ICCV2025,即可下载ICCV 2025论文和代码开源的论文合

CVPR 2025 论文和代码下载

在CVer公众号后台回复:CVPR2025,即可下载CVPR 2025论文和代码开源的论文合集

CV垂直方向和论文投稿交流群成立

扫描下方二维码,或者添加微信号:CVer2233,即可添加CVer小助手微信,便可申请加入CVer-垂直方向和论文投稿微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。 一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者论文投稿+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer2233,进交流群 CVer计算机视觉(知识星球)人数破万!如果你想要了解最新最快最好的CV/DL/AI论文、实战项目、行业前沿、从入门到精通学习教程等资料,一定要扫描下方二维码,加入CVer知识星球!最强助力你的科研和工作! ▲扫码加入星球学习

▲点击上方卡片,关注CVer公众号 整理不易,请点赞和在看
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/15 22:46:39

NNG通信框架:现代分布式系统的通信解决方案与应用场景深度分析

在当今高速发展的数字化时代,分布式系统已成为企业级应用的基础架构,而高效可靠的通信机制则是分布式系统的核心支柱。根据国际数据公司(IDC)发布的《2024年全球云计算与边缘计算趋势报告》,到2025年,超过7…

作者头像 李华
网站建设 2026/4/16 9:44:56

核心解构:Cluster LOD 与 DAG 架构深度剖析

在 vk_lod_clusters 和 Nanite 的设计哲学中,Cluster LOD 和 DAG 是支撑起“无限几何细节”的两根支柱。前者重新定义了渲染的原子单位,后者重新定义了多级细节的组织形式。 https://github.com/nvpro-samples/vk_lod_clusters Cluster:渲染…

作者头像 李华
网站建设 2026/4/16 10:14:49

从零开始参与开源:把本地脚本升级为工业级开源项目

文章目录前言一、 工程目录重构:从“能跑就行”到“标准结构”二、 明确法律边界:许可证的选择策略三、 打造门面担当:README 与 Topic 流量四、 建立协作契约:规范与自动化检查五、 部署持续集成:GitHub Actions 流水…

作者头像 李华
网站建设 2026/4/16 10:17:17

Spark大数据治理:元数据管理与数据血缘追踪

Spark大数据治理:元数据管理与数据血缘追踪——构建数据世界的"身份证"与"家谱" 1. 引入与连接:当数据分析师遇到"数据迷雾" 小张是某互联网公司的资深数据分析师,上周接到一个紧急任务:基于用户…

作者头像 李华
网站建设 2026/4/16 10:21:47

大数据领域数据仓库的数据集成方案

大数据领域数据仓库的数据集成方案:从散落珍珠到璀璨项链的魔法 关键词:数据集成、ETL、ELT、数据仓库、多源整合、数据清洗、元数据管理 摘要:在大数据时代,企业的数据像散落的珍珠——分布在业务系统、日志文件、第三方平台等各…

作者头像 李华
网站建设 2026/4/16 12:05:28

cursor里面使用agent skills

node版本要求大于20 打开终端: 全局安装一个中间件openskills工具 npm install -g openskills 在当前项目安装,会有一个这样的目录 # 安装到当前项目 openskills install anthropics/skills 让ai看见: 根目录运行,创建一个AGENTS…

作者头像 李华