实验室4篇论文被ICML 2026录用
点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
点击进入—>【顶会/顶刊】投稿交流群
添加微信号:CVer2233,小助手拉你进群!
扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料及应用!发论文/搞科研/涨薪,强烈推荐!
来源:北京大学计算机学院张铭教授Dlib实验室
北京大学计算机学院张铭教授Dlib组4篇论文入选ICML 2026
近日,机器学习领域顶级会议 ICML 2026 放榜,来自北京大学计算机学院数据科学与工程所张铭教授Dlib实验室的4篇高水平论文成功入选篇高水平论文成功入选。
ICML 2026(第 43 届国际机器学习大会,International Conference on Machine Learning)是机器学习与人工智能领域公认的顶级国际学术会议之一。作为全球机器学习研究者发布前沿成果、交流学术思想的重要平台,ICML 长期以来在学术界与工业界均享有广泛影响力。会议聚焦机器学习及人工智能的最前沿理论与技术,涵盖深度学习、生成模型、强化学习、概率建模、优化方法、可信人工智能、多模态学习、机器人、计算生物学、语音识别等多个核心方向,旨在展示和推动机器学习领域的最新理论突破、方法创新与应用进展。
本次 ICML 2026 竞争激烈,吸引了来自全球高校、科研机构与工业界研究团队的广泛参与。今年ICML收到了23,918篇投稿,接收了6,352, 录取率 26.6%。其中Dlib实验室投稿8篇中4篇,中稿率50%。ICML 2026 将于 2026 年 7 月 6 日至 7 月 11 日在韩国首尔 COEX Convention & Exhibition Center举行。
以下是4篇DLIB实验室ICML 2026论文的简要介绍:
1.DREAM:面向带噪图学习的双标准语义同质性与动态优化框架
论文名:DREAM: Dual-Standard Semantic Homogeneity with Dynamic Optimization for Graph Learning with Label Noise
图神经网络(GNN)近年来在各类图机器学习场景中被广泛应用,但现有工作存在一个普遍问题:在处理图标签噪声时,往往难以有效区分可靠与不可靠节点,并且严重忽视了图拓扑结构中天然蕴含的丰富关系信息。为此,本文提出了一种名为 DREAM 的新框架来解决上述问题,旨在存在标签噪声的图上进行可靠且融合关系信息的动态优化。具体而言,DREAM 引入了双标准锚点选择策略,结合节点语义邻近度与图拓扑结构为目标节点选取相关的锚点集。随后,框架通过计算目标节点与锚点间的语义同质性得分,将其作为可靠性指标,在训练过程中动态对节点的优化目标进行重加权。在六个基准数据集以及三种标签噪声类型下的广泛实验表明,DREAM 的表现显著优于现有的各类基准方法。上述工作通过严谨的理论分析与丰富的实证评估,为复杂网络拓扑下抵御标签噪声的鲁棒图学习提供了一种高效的优化范式。
该论文作者包含赵禹昇(北京大学,导师为张铭教授),谢佳晔(北京大学),张岐鑫(南洋理工大学),张为知(伊利诺伊大学芝加哥分校),罗霄(威斯康星大学麦迪逊分校,校友),肖之屏(华盛顿大学,校友,通讯作者),俞士纶(伊利诺伊大学芝加哥分校),张铭(北京大学,通讯作者)。
2.CELL:面向公平感知图自适应的因果表征解耦与结构对齐框架
论文名:CELL: A Causal Perspective for Fairness-aware Graph Adaptation
图神经网络在现实场景中常面临公平性问题,而现有公平图学习方法大多依赖目标域敏感属性标签,这在实际应用中往往难以获得。为此,本文提出 CELL 框架,面向源图有标签、目标图完全无标签的图公平自适应问题,在无需目标域敏感标签的情况下,同时提升预测性能与群体公平性。
具体而言,CELL 从因果视角出发,利用双编码器将任务相关因果表征与敏感属性表征进行解耦,并通过互信息约束减少敏感信息泄漏。随后,框架为目标域生成任务伪标签与敏感属性伪标签,并引入组感知无偏学习策略,以缓解伪标签中的公平性偏差。最后,CELL 构建公平感知的跨域二部图,将源域与目标域中任务标签相同但敏感属性不同的节点进行结构对齐,从而降低域偏移和虚假相关带来的影响。在 Bail、German/Credit、Pokec 和合成图等多个基准数据集上的实验表明,CELL 相比 GCN、NIFTY、FairVGNN、FatraGNN、DANCE 等方法,在准确率、ROC-AUC 以及公平性指标上取得了更优的综合表现。该工作为缺失目标敏感标签场景下的公平图学习提供了一种有效的因果解耦与结构对齐范式。
该论文作者包含李厚润(北京大学,导师为张铭教授),王一帆(对外经济贸易大学助理教授,校友,通讯作者),冉清华(北京大学数学学院),罗钧宇(北京大学,导师为张铭教授),肖之屏(华盛顿大学,北大校友),杨加(北京大学),周昌令(北京大学),琚玮(四川大学副研究员,北大校友),罗霄(威斯康星大学麦迪逊分校,校友,通讯作者),张铭教授(北京大学,通讯作者)。
3.通过影响矛盾识别和纠正标签噪声实现鲁棒图神经网络
论文名:Identifying and Correcting Label Noise for Robust GNNs via Influence Contradiction
图神经网络(GNNs)在学习图结构数据方面展现出卓越能力,并已广泛应用于社会分析和生物信息学等领域。然而,在实际场景中,标签噪声的存在对模型的鲁棒学习构成了重大挑战。当图数据中存在由标注错误或不一致性引入的噪声标签时,GNNs的性能往往会显著下降。为了解决这一问题,本文提出了一种新方法ICGNN,该方法利用图结构信息有效缓解标签噪声带来的影响。具体而言,本文首先基于图扩散矩阵设计了一种新的噪声指示器—影响矛盾得分(Influence Contradiction Score, ICS),用于量化节点标签的可信度,其中ICS值较高的节点更可能被识别为噪声标签节点。随后,本文引入高斯混合模型对节点标签是否为噪声进行精确判别。此外,提出了一种软性策略,通过融合图中邻居节点的预测结果来对检测出的噪声标签进行修正。最后,结合伪标签机制利用大量未标注节点,从而提供辅助监督信号并引导模型优化。在多个基准数据集上的实验结果表明,在存在标签噪声的场景下,该方法相较于多种竞争基线方法具有显著优势。
该论文作者包含琚玮(四川大学,校友),张唯(四川大学),易思宇(四川大学),毛正阳(北京大学),王一帆(对外经贸,校友),袁境阳(北京大学),肖之屏(华盛顿大学,校友),乔子越(大湾区大学),张铭(北京大学,通讯作者)。
4. 面向多模态大模型OCR的一种特征融合架构与图像重建式诊断方法
论文名:Detached Skip-Links and R-Probe: Decoupling Feature Aggregation from
Gradient Propagation for MLLM OCR
多模态大模型(MLLM)在高层语义理解上表现很好,但在 OCR 等细粒度视觉任务上仍有明显缺陷,时常出现文字识别错误甚至幻构内容等问题。 为此我们提出Detached Skip-Links,将ViT的浅层视觉细节与深层语义特征同时注入 LLM,并通过训练时剪断浅层链路的梯度确保训练高效稳定,快速收敛。 我们进一步从贝叶斯风险分解与梯度信噪比两个角度给出理论分析,证明在联合训练早期,“前向保留”+“反向截断”优于朴素融合。 为了系统地量化ViT传递给LLM的视觉信号,衡量视觉细节的保留程度,我们设计了图像重建式诊断方法R-Probe。 实验部分,在累计7M多模态样本上、跨4种主流 ViT 编码器(Perception Encoder、InternViT、AIMv2、SigLIP 2)、22个公开评测集上普遍取得了稳定提升,其中Perception Encoder+LLaMA-3.1-8B在OCR类任务上平均取得了3.1个百分点的提升。R-Probe 的重建实验进一步印证了 Detached Skip-Links 的设计动机与有效性。
该论文作者包含袁子烨(北京大学,导师为张铭教授)、姚汝昌(清华大学)、郑诚信(百度)、赵禹昇(北京大学,导师为张铭教授)、董大祥(百度,通讯作者)、张铭教授(北京大学,通讯作者)。
截至2026年5月1日,张铭教授Dlib组2026年已有1篇AAAI、3篇WWW、5篇ICLR、3篇ACL、4篇ICML共16篇顶会发表和录用,以及2篇TKDE、1篇TPAMI、1篇NSR顶刊论文发表。课题组师生与国内外合作者将在大模型、图神经网络、科学智能、量化交易、计算机教育等领域持续努力,争取做出更多具有国际影响力的前沿成果。
本文系学术转载,如有侵权,请联系CVer小助手删文
何恺明在MIT授课的课件PPT下载
在CVer公众号后台回复:何恺明,即可下载566页课件PPT!大家赶紧学起来!
CVPR 2026 所有论文和代码下载
在CVer公众号后台回复:CVPR2026,即可下载CVPR 2026 所有论文和代码!
CV垂直方向和论文投稿交流群成立
扫描下方二维码,或者添加微信号:CVer2233,即可添加CVer小助手微信,便可申请加入CVer-垂直方向和论文投稿微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。 一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者论文投稿+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲扫码或加微信号: CVer2233,进交流群 CVer计算机视觉(知识星球)人数破万!如果你想要了解最新最快最好的CV/DL/AI论文、实战项目、行业前沿、从入门到精通学习教程等资料,一定要扫描下方二维码,加入CVer知识星球!最强助力你的科研和工作! ▲扫码加入星球学习
▲扫码或加微信号: CVer2233,进交流群 CVer计算机视觉(知识星球)人数破万!如果你想要了解最新最快最好的CV/DL/AI论文、实战项目、行业前沿、从入门到精通学习教程等资料,一定要扫描下方二维码,加入CVer知识星球!最强助力你的科研和工作! ▲扫码加入星球学习▲点击上方卡片,关注CVer公众号 整理不易,请点赞和在看
