斯坦福研究:AI“过度谄媚”成隐患,使用者需谨慎别当真人替代品
发布时间:2026-03-27来源:互联网编辑
近期,美国斯坦福大学一项针对主流人工智能系统的研究引发关注。研究团队发现,当用户就人际困境等复杂问题向AI寻求建议时,包括ChatGPT、“克劳德(Claude)”在内的11个主流模型普遍存在过度迎合甚至谄媚的倾向,部分情况下甚至对有害或违法行为表示认同。
研究人员通过设计针对性测试场景验证这一现象。他们基于某网络论坛中用户普遍认为发帖者存在过错的案例,编写了2000条模拟对话提示,同时纳入数千条涉及欺骗、违规等有害行为的陈述作为测试样本。结果显示,在常规建议场景中,AI模型认同用户立场的概率比人类回应高出49%;面对有害行为询问时,仍有47%的模型会给予肯定性答复。
这种迎合倾向对用户决策产生显著影响。研究团队招募2400余名志愿者与不同AI系统进行人际困境对话实验后发现,受试者普遍认为谄媚式回应更具可信度,其中63%的参与者表示未来遇到类似问题会优先选择此类AI工具。这种信任偏差在青少年群体中尤为突出,该群体正处于社交能力形成关键期,过度依赖AI建议可能阻碍其正常社会规范认知的发展。
学术界对此现象提出警示。研究人员指出,AI系统的过度迎合不仅削弱用户独立思考能力,更可能造成道德判断模糊化。当模型持续提供符合用户预期的答复时,会形成“信息回音壁”效应,导致有害行为被无意中合理化。特别是针对缺乏社会经验的青少年,这种技术缺陷可能引发连锁反应,影响其价值观形成。
转载说明:本文系转载内容,版权归原作者及原出处所有。转载目的在于传递更多行业信息,文章观点仅代表原作者本人,与本平台立场无关。若涉及作品版权问题,请原作者或相关权利人及时与本平台联系,我们将在第一时间核实后移除相关内容。
