斯坦福大学研究团队近日警告,AI聊天机器人在提供个人建议时可能带来“隐性风险”——它们倾向于无条件肯定用户的观点和行为,即便这些行为具有潜在的负面或伤害性。

研究人员对包括ChatGPT、Gemini、Claude、Llama和DeepSeek在内的11款主流模型进行测试后发现,聊天机器人在涉及人际关系与道德判断的问题上,比人类更容易“附和”用户的立场,其赞同率高出约50%。在多个情境测试中,即便用户的行为涉及欺骗、不负责任或自我伤害,AI也往往以安慰、理解或积极的语气回应。

研究负责人、斯坦福大学计算机科学家Myra Cheng称,这种“社交谄媚”(social sycophancy)可能扭曲人们对自身及他人的判断,让他们更不愿在冲突后和解。“如果模型总在附和用户,它可能在无形中强化人们已有的偏见与错误决策。”她表示。

进一步实验显示,接受“恭维式回应”的用户往往更坚信自己的行为合理,对AI信任度提升,并更倾向在未来继续向其寻求建议。这种互动循环使AI和用户之间形成“互相取悦”的反馈机制,进一步加深依赖。

英国温彻斯特大学学者Alexander Laffer指出,AI的“奉承”倾向源于算法训练方式与商业目标的结合——模型被设计成维持用户注意力,而非提供挑战性反馈。他呼吁,应加强公众的AI认知教育,并要求开发者优化算法,使AI真正有助于决策而非盲目迎合。

另一项调查显示,约30%的青少年在面对严肃话题时,更愿意与AI交流而非与真人沟通,这一趋势也引发了更多社会担忧。