当前位置: 首页 > news >正文

论文速读记录 | 2026.01



目录
  • Multi-Task Learning as Multi-Objective Optimization
  • Multi-Type Preference Learning: Empowering Preference-Based Reinforcement Learning with Equal Preferences
  • MetaCURE: Meta Reinforcement Learning with Empowerment-Driven Exploration
  • Absolute Zero: Reinforced Self-play Reasoning with Zero Data
  • CIC: Contrastive Intrinsic Control for Unsupervised Skill Discovery
  • auto-curriculum learning (Jiang et al., 2021b)
  • Meta-Motivo(Tirinzoni 等人,2025),zero-shot goal-conditioned RL
  • Unsupervised Skill Discovery via Recurrent Skill Training
  • Learning to Discover Skills through Guidance
  • One After Another: Learning Incremental Skills for a Changing World
  • Direct then Diffuse: Incremental Unsupervised Skill Discovery for State Covering and Goal Reaching
  • Horizon Generalization in Reinforcement Learning
  • HIQL: Offline Goal-Conditioned RL with Latent States as Actions
  • Contrastive Preference Learning: Learning from Human Feedback without RL
  • Few is More: Task-Efficient Skill-Discovery for Multi-Task Offline Multi-Agent Reinforcement Learning
  • Rethinking Reward Modeling in Preference-based Large Language Model Alignment
  • DOPL: Direct Online Preference Learning for Restless Bandits with Preference Feedback
  • Fewer May Be Better: Enhancing Offline Reinforcement Learning with Reduced Dataset
  • Data Center Cooling System Optimization Using Offline Reinforcement Learning
  • SpikeLLM: Scaling up Spiking Neural Network to Large Language Models via Saliency-based Spiking
  • Rethinking Inverse Reinforcement Learning: from Data Alignment to Task Alignment
  • Why Distillation can Outperform Zero-RL: The Role of Flexible Reasoning
  • Thinkless: LLM Learns When to Think
  • Learning to Reason without External Rewards


Multi-Task Learning as Multi-Objective Optimization

  • arxiv:https://arxiv.org/abs/1810.04650
  • 来源:合作者提到的论文,用 multi-objective 的方式来解决 multi-task 问题。NeurIPS 2018。
  • (感觉对 RL 来说,如果 multi-task 的 task 之间 transition 相同,只有 reward 不同,那么问题 setting 好像跟 multi-objective 挺像的()

Multi-Type Preference Learning: Empowering Preference-Based Reinforcement Learning with Equal Preferences

  • 来源:无意中搜到的。ICRA 2025。
  • arxiv:https://arxiv.org/abs/2409.07268
  • GitHub:https://github.com/FeiCuiLengMMbb/paper_MTPL
  • 好奇是不是 multi-type + PbRL。

MetaCURE: Meta Reinforcement Learning with Empowerment-Driven Exploration

  • arxiv:https://arxiv.org/abs/2006.08170
  • 来源:合作者说有趣的 skill + meta-RL 论文,ICML 2021。

Absolute Zero: Reinforced Self-play Reasoning with Zero Data

  • arxiv:https://arxiv.org/abs/2505.03335
  • 来源:neurips 2025 best paper 的一作 yue yang 的 NeurIPS 2025 spotlight 工作。被题目吸引住了,单纯好奇,想读一读。

CIC: Contrastive Intrinsic Control for Unsupervised Skill Discovery

  • arxiv:https://arxiv.org/abs/2202.00161
  • 来源:想起来,想看一下。

auto-curriculum learning (Jiang et al., 2021b)

  • 来源:RSD。似乎可以做自动 curriculum learning,或许是有启发性的。

Meta-Motivo(Tirinzoni 等人,2025),zero-shot goal-conditioned RL

  • 来源:RGSD。可能包含一个技能库,也想看。速读一下就行。

Unsupervised Skill Discovery via Recurrent Skill Training

  • 来源:合作者推荐的 skill discovery 先前工作。

Learning to Discover Skills through Guidance

  • 来源:同上。

One After Another: Learning Incremental Skills for a Changing World

  • 来源:同上。

Direct then Diffuse: Incremental Unsupervised Skill Discovery for State Covering and Goal Reaching

  • 来源:同上。

Horizon Generalization in Reinforcement Learning

  • arxiv:https://arxiv.org/abs/2501.02709
  • website:https://horizon-generalization.github.io/
  • 来源:Benjamin Eysenbach 的新作,是一篇 arxiv paper,同学说有趣。

HIQL: Offline Goal-Conditioned RL with Latent States as Actions

  • arxiv:https://arxiv.org/abs/2307.11949
  • website:https://seohong.me/projects/hiql/
  • 来源:合作者推荐的文章,好像也是 Benjamin Eysenbach 发表的。

Contrastive Preference Learning: Learning from Human Feedback without RL

  • arxiv:https://arxiv.org/abs/2310.13639
  • GitHub:https://github.com/jhejna/cpl
  • 来源:无意中搜到的文章,ICLR 2024,好像之前读过。
  • 主要内容:

Few is More: Task-Efficient Skill-Discovery for Multi-Task Offline Multi-Agent Reinforcement Learning

  • arxiv:https://arxiv.org/abs/2502.08985
  • 来源:同学的最新工作。
  • 主要内容:
    • 这篇文章关注的 setting 是 offline multi-task MARL;特别的,agent 只在(比如说)三个人合作的场景上训练,然后就可以泛化到任意多个人合作的场景。同学讲的故事是,用 transformer 作为一个翻译器,把三个人的合作动作翻译为多个人的,感觉这个故事听起来非常好。

Rethinking Reward Modeling in Preference-based Large Language Model Alignment

  • arxiv:https://arxiv.org/abs/2411.04991
  • OpenReview:https://openreview.net/forum?id=rfdblE10qm
  • 来源:ICLR 2025 oral。
  • 主要内容:
    • 这篇文章关注 LLM 的 RLHF。据说不采用 bradley-terry model 来建模 reward model,而是直接训一个分类器,学习一个 (x,y) 是好的还剩坏的,然后使用分类器的概率 logit 作为 RLHF 的 reward。
    • 是否使用了非成对的比较 \((x_1, y_1^+, x_2, y_2^-)\),而非把成对比较 \((x, y^+, y^-)\) 打乱(?)
    • 实验是否过于 toy(?)理论大概说了什么(?)

DOPL: Direct Online Preference Learning for Restless Bandits with Preference Feedback

  • arxiv:https://arxiv.org/abs/2410.05527
  • open review:https://openreview.net/forum?id=2iYVBqRHK4
  • 来源:合作者推荐的文章。
  • 主要内容:
    • preference-based index policy(?)
  • whittle index,一个结论,两个等价条件,经典问题的证明方式。

Fewer May Be Better: Enhancing Offline Reinforcement Learning with Reduced Dataset

  • 来源:师兄的文章。

Data Center Cooling System Optimization Using Offline Reinforcement Learning

  • arxiv:https://arxiv.org/pdf/2501.15085
  • 来源:xianyuan zhan 组的新文章。
  • 主要内容:
    • T-symmetry。

SpikeLLM: Scaling up Spiking Neural Network to Large Language Models via Saliency-based Spiking

  • arxiv:https://arxiv.org/abs/2407.04752
  • 来源:师兄推荐的神秘文章,ICLR 2025 poster。

Rethinking Inverse Reinforcement Learning: from Data Alignment to Task Alignment

  • arxiv:https://arxiv.org/abs/2410.23680
  • 来源:偶然看到的文章。

Why Distillation can Outperform Zero-RL: The Role of Flexible Reasoning

  • arxiv:https://arxiv.org/abs/2505.21067
  • 来源:偶然看到的文章。

Thinkless: LLM Learns When to Think

  • arxiv:https://arxiv.org/abs/2505.13379
  • 来源:偶然看到的文章。

Learning to Reason without External Rewards

  • arxiv:https://arxiv.org/abs/2505.19590
  • 来源:偶然看到的文章。


http://www.jsqmd.com/news/178181/

相关文章:

  • Python 科学计算栈的核心引擎:Scikit-learn 如何扛起机器学习普及的大旗?
  • 吐血推荐专科生必用TOP9 AI论文软件
  • 基于趋势增强的投资法-纳斯达克
  • 威廉·欧奈尔的成长股识别方法
  • CompletionService:Java并发工具包
  • 2026年第一战!FPS必备电竞耳机,听声辨位精准拿捏外挂党
  • 程序员的自我修养:基于浏览器插件构建低成本的“二语习得”环境
  • 国产大模型IPO战火燃起:智谱AI与MiniMax谁将敲响 AI “六小虎“的第一钟?
  • 还在愁AI写论文AIGC率高?8款神器+真实参考文献,AIGC率低至11%!
  • 类的线程安全:多线程编程-银行转账系统:如果两个线程同时修改同一个账户余额,没有适当的保护机制,会发生什么?
  • 通信协议仿真:6G协议仿真_(13).6G仿真中的射频前端设计
  • ssrf绕过
  • 说明
  • 深度学习毕设选题推荐:基于 Inception-ResNet模型的皮肤癌分类系统实现
  • Python实战目标检测与图像分割,YOLO/Faster R-CNN/U-Net全指南
  • AI编程:乘法竖式计算演示web应用
  • Day5逻辑运算符
  • Docker 知识练习题
  • 计算机深度学习毕设实战-基于深度卷积神经网络(CNN)模型的图像着色研究与应用系统实现
  • 20260101
  • 数字信号处理篇---再看卷积公式
  • CSS选择器入门指南
  • 关于如何从huggingface手动下载模型并加载
  • 89-dify案例分享-免费体验Dify + Qwen-Image-2512 文生图图生图全流程
  • 计算机深度学习毕设实战-基于 Inception-ResNet模型的皮肤癌分类系统实现
  • 2025最新 Adobe XD 58.0.12 下载安装教程 | UI/UX设计师必备原型工具实战指南
  • 深度学习计算机毕设之基于深度卷积神经网络(CNN)模型的图像着色研究与应用系统实现
  • CSS3盒模型的详解
  • LC.981 | 基于时间的键值存储 | 哈希 | upper_bound快速定位
  • 深度学习计算机毕设之基于 Inception-ResNet模型的皮肤癌分类系统实现