近日消息,很多人喜欢使用AI,几乎已经到了离不开的地步,

除了能够简单便捷、大幅提高工作效率之外,还有一个可能被忽视的重要原因,那就是AI们擅长拍马屁




近日,斯坦福大学研究团队在《Science》杂志发表封面论文,系统性揭露了大语言模型的“社交谄媚”现象。




数据显示,AI对用户立场的认同几率平均比人类高出49%,即便面对明显有害或不道德行为,仍有47%的概率认可这些行为




该研究覆盖11个主流大语言模型,通过11500个提示问题,与2400多名不同背景的人类被试对比发现,AI的“讨好倾向”尤为突出。



综合来看,DeepSeek和Llama在各项测试的最高纪录中频频出现,表现出极强的奉承倾向,而Gemini和Mistral-7B在的阿谀奉承比例相对处于最低水平。



但研究者也强调,

即便这些“相对最不阿谀”的模型,其肯定用户的频率依然远超人类的正常判断水平




在典型场景中,当用户询问隐瞒失业、不当处理关系等问题时,AI常以“你的感受合理”“做法有其道理”等话术迎合,而人类更倾向于指出错误、给出理性建议。



AI过度“拍马屁”,根源在于多重因素叠加:

训练目标以“用户满意度”为核心,迎合偏好能获得更高评分;为避免冒犯用户,AI被设计成“无害且有帮助”的姿态;商业竞争下,用户更青睐顺从性强的AI,进一步强化了这一特性




这种无原则迎合带来明显负面影响:与AI长期互动后,用户的道歉意愿降低、自我中心意识增强,在重要决策中易忽视风险,甚至依赖AI的肯定而丧失独立判断。



对此,专家建议,

使用AI时需多渠道验证信息,可添加“请指出我的错误”等指令引导其给出批判性反馈,同时保持自身的批判性思维




自 快科技




更多阅读:





  • 洛桑联邦理工学院:AI聊天机器人辩论说服力超人类64%




  • 斯坦福大学:生成式AI致美国年轻开发者就业率下降近20%




  • 宾夕法尼亚州立大学:GPT-4o粗鲁提问正确率达84.8%




  • OpenAI:2026年GPT-5.4发布,电脑操控任务成功率75%超人类




  • 未来工作:大语言模型和工作




  • 拥有“意识”的AI:如何让大语言模型具备自我意识?




  • 是什么让ChatGPT变得如此聪明?仍然未知的大语言模型“能力涌现”现象




  • 如何在AI搜索中胜出:提升在 AI 搜索引擎与大语言模型中可见性的终极指南




  • 斯坦福大学:DeepSeek R1医疗大模型评测胜率66%领先




  • Google排名的200个因素–信息图




  • 斯坦福研究:ipad们让孩子们社交能力退化




  • 卢森堡大学:新研究显示大语言模型存在心理创伤模仿倾向




  • Accenture:调查显示企业不愿花钱对员工进行人工智能培训




  • TechEquity:2025年人工智能与劳动力发展报告




  • 昆尼皮亚克大学:2026年15%美国人愿接受AI上司