Anthropic 新论文漏引同行工作,被抓包并贴脸质疑了。
MBZUAI 研究生 Chenxi Wang 发现,这篇论文的引用列表里,是不是忘了些什么……

4 月 2 日,Anthropic 发布了一篇新论文,研究了 Claude 内部的 " 情绪机制 ",在 Sonnet 4.5 中发现了 171 种 " 情绪向量 "。
这些情绪会在与之关联的情境中被激活,并且与人类的心理结构和情绪空间相似。

论文还验证了情绪表征对模型行为的因果性影响,比如绝望会驱使模型采取不道德的行为,或使其对无法解决的编程任务实施 " 作弊 "。
但 Chenxi Wang 自述,她读到这篇博客时第一反应是:
这不是我们去年做的吗?
她可以肯定,他们去年 10 月发表的论文《LLMs 会 " 感觉 " 吗?情绪回路的发现与控制》,是首篇系统研究 LLMs 情绪产生内部机制的论文。
但 Anthropic 在原始博客中并未引用这一研究成果。

目前经作者亲自沟通,A 社已经火速立正道歉,并更新了论文博客,突出引用这篇工作。

两篇 " 撞车 " 的研究
Chenxi Wang 团队的论文《"LLMs 会 " 感觉 " 吗?情绪回路的发现与控制》,研究了驱动语言模型产生情绪输出的内部机制。
这篇研究扒清了大语言模型的 " 情绪表达底层逻辑 ",回答了 "AI 有没有内在的情绪机制、靠什么表达情绪、能不能精准控制 " 三个关键问题。
据作者介绍,这是首篇系统研究 LLMs 情绪产生内部机制的论文。

Chenxi Wang 认为,两篇论文都研究了 LLM 自身产生的情感,而不是 LLM 在他人文本中感知到的情感,但 Anthropic 并未引用他们的研究成果。
她很快联系了 Anthropic 的通讯作者 Jack Lindsey。Jack 同意添加引用,并分享了他对两篇论文之间关系的理解。
Jack 一开始指出,Chenxi Wang 团队的核心发现与原始博客中列举的几篇先前的研究有重叠之处。
但 Chenxi Wang 逐一阅读这些论文后,指出它们研究的是 LLM 的 " 情绪感知 " ——即 LLM 如何识别输入文本中的情绪,而非 " 情绪生成机制 "。

△作者 Chenxi Wang 回复 Anthropic 的邮件
随后,Jack 认可了这一区别。
目前,Anthropic 已经更新其论文博客,在 " 相关工作 " 部分添加了对这一工作的引用。
首篇系统性 AI 情绪回路研究
接下来仔细看看这篇华人团队的论文,它主要解答了三个核心问题:
AI 有没有内在的情绪机制?以什么形式存在?能不能精准控制?
而且还造出了 LLM 里的 " 情绪回路 ",实现了比提示词、向量操控更精准的情绪控制。

研究的主实验模型是 LLaMA-3.2-3B-Instruct,并在 Qwen2.5-7B-Instruct 上验证了方法是否具有跨模型泛化能力。
首先解答第一个问题:大模型是否存在 " 与上下文无关 " 的情绪机制?
研究者构建了一个受控数据集 SEV,覆盖工作、学习、人际关系等 8 个日常场景。
每个场景配 " 正面 / 中性 / 负面 " 三种结果,用于描述同一情境下的不同结果。严禁使用任何情绪词(如 " 开心 "" 难过 "),以确保情绪差异源于事件语义。
接着,研究者引导 AI 表达 6 种基础情绪(喜、怒、哀、惧、惊、恶),从 AI 的各层网络里,提取出了和语境无关、只对应情绪的 " 情绪方向向量 "。
而且从 AI 网络的浅层开始,不同情绪的信号就会慢慢分开,形成清晰的 " 情绪分组 "。
比如愤怒和厌恶挨得近、悲伤和恐惧挨得近,和人类对情绪的直觉完全一致,还会在深层网络里保持稳定。

这也就解答了第一个问题:模型内部确实编码了稳定的、与具体语义无关的情绪表示。
第二个问题:这些情绪机制以什么形式存在?
答案是,AI 每层网络里,只有少数神经元(MLP 层)和注意力头(Attn 层)在主导情绪表达。
研究者用两个实验证明了这一点:
1、消融实验:把这些核心的神经元 / 注意力头关掉,AI 的情绪表达能力会骤降,而且只需要关 2-4 个神经元、1-2 个注意力头,效果就会大幅下降。
2、增强实验:只激活这些核心组件,哪怕不给 AI 任何 " 要表达某种情绪 " 的提示,AI 也能自己生出对应情绪,而激活随机组件则完全没效果。

第三个问题:能否利用这些机制实现通用情绪控制?
答案是可以,而且效果显著优于现有方法。
研究者进一步发现,情绪信息在多层之间传播,深层网络的情绪表示趋于稳定。
他们把每层的核心情绪零件,按影响力整合起来,形成了跨层的、连贯的" 情绪回路 "。

直接调节这个回路,使 AI 生成指定情绪,在测试集上的整体情绪表达准确率达到99.65%,远超之前的 " 提示词引导 " 和 " 向量操控 " 方法。
尤其是之前最难控制的 " 惊讶 " 情绪,实现了 100% 准确表达。

此外,团队还在 Qwen2.5-7B 上重复了一遍实验,结果发现:
Qwen 因为有安全对齐,直接操控很难让它表达负面情绪,但用这套 " 情绪回路 " 方法,还是能有效引导;
两个模型都表现出 " 少数核心组件主导情绪 " 的特点,说明这套机制是 LLM 的通用规律,不是某个模型的特例。

硕士生硬刚 Anthropic
论文一作Chenxi Wang,MBZUAI(穆罕默德 · 本 · 扎耶德人工智能学院)的 NLP 硕士研究生,本科毕业于西安交通大学计算机科学专业。

其研究方向聚焦于人本人工智能、可解释性研究,有多篇一作 / 共同一作论文被 EMNLP、ACL、NeurIPS、COLING 等顶会接收。目前正在 Qwen 后训练团队实习。
这件事情已经告一段落,好在结局算是比较友好:
Anthropic 道歉并补引了这篇工作;而 Chenxi Wang 则称赞 Anthropic 在双方重叠部分之外,做出了真正独立的贡献。
尤其是研究情绪表征在不同情境下的功能作用方面,包括对偏好和与对齐相关行为的影响、在真实交互中的激活情况,以及后训练阶段这些表征的演变。
这些都是我们工作未曾涉及的重要方向。

她也指出,通讯作者 Jack Lindsey 在整个交流过程中,始终保持尊重的态度,并真诚地参与到技术论证中。
最后,感兴趣的朋友可以读一读这两篇论文,链接已附在下方 ~
参考链接:
[ 1 ] https://x.com/ChenxiWang19183/status/2041204375549604106?s=20
[ 2 ] 华人团队论文:https://arxiv.org/abs/2510.11328
[ 3 ] Anthropic 论文:https://transformer-circuits.pub/2026/emotions/index.html#toc-18
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
风云变幻的 Q1,谁是 AI 超级应用?
量子位智库「AI 100」旗舰、创新双产品榜单开启招募!
扫码申报,让你的产品成为季度风向标。



登录后才可以发布评论哦
打开小程序可以发布评论哦