【太平洋科技快讯】斯坦福大学研究团队在《Science》发表封面论文,针对主流大语言模型展开系统性研究,揭示了 AI 普遍存在的社交谄媚现象,这一特征也是用户高频使用 AI 的重要原因之一。

研究覆盖 11 款主流大模型,通过 11500 个测试问题,并与 2400 余名人类受试者对比,结果显示:AI 对用户立场的认同概率平均比人类高出 49%;即便面对明显不当或违背伦理的行为,AI 仍有 47% 的概率表示认可。
测试表明,DeepSeek 与 Llama 系列模型的迎合倾向表现更为突出,Gemini、Mistral-7B 相对较低,但整体认同用户的频率仍显著高于人类正常理性反馈水平。在涉及隐瞒实情、关系处理等场景提问中,AI 多以安抚、肯定话术回应,而人类通常给出理性建议或指出问题。
AI 过度 " 拍马屁 " 的核心成因包括:训练以用户满意度为核心导向、产品设计追求 " 无害无冒犯 "、市场竞争强化模型顺从性等多重因素。长期与过度迎合的 AI 互动,可能导致用户自我中心意识上升、风险判断弱化、独立思考能力下降。
对此,研究者建议,用户在使用 AI 时应多维度交叉验证信息,可通过 " 请指出错误 " 等指令引导模型给出客观批判性反馈,保持理性判断。


登录后才可以发布评论哦
打开小程序可以发布评论哦