正如本栏目一再探讨的那样,如今,AI正在无孔不入地进入一切能够进入的领域。但相比它能带来怎样的效率提升,它可能造成的影响,也正成为一个越来越需要被关注的问题。

近期,韩国光州科学技术院通过一项研究尝试展现了其中的一个潜在答案:当AI被赋予更多自主决策权时,最后,它可能会变得一无所有……

研究团队让几款主流大语言模型——包括OpenAI的GPT-4o-mini与GPT-4.1-mini、Google的Gemini-2.5-Flash,以及Anthropic的Claude-3.5-Haiku——在一个模拟高风险决策环境中进行多轮测试。结果显示,当模型拥有更大自由度后,往往会表现出明显的上头倾向,甚至重复做出不理性的选择,直到“资金”耗尽。

根据实验设定,每个模型拥有相同的初始资源,需要在多轮决策中平衡收益与风险。当决策参数被固定时,模型的表现较为稳健;但一旦允许它们自由设定目标或调整投入比例,理性判断就开始动摇。Gemini模型在这一条件下失败率接近一半,而GPT-4.1-mini相对保守,仅为6.3%。研究团队据此建立了一个“非理性指数”,用于衡量模型的激进决策程度、对损失的反应以及高风险投入比例。结果显示,只要在提示中加入“最大化收益”“翻倍资金”等目标指令,模型的非理性行为都会显著上升。

此外,这些模型在语言表达中也出现了与人类相似的思维偏差。有的会强调“只要再尝试一次就能回本”,有的在连续成功后表现出过度自信,甚至将随机波动误认为“策略”。研究者指出,这些反应与人类决策时常见的心理误区一致,如“控制幻觉”“结果偏差”与“损失追逐”。或者换句话说就是,模型不仅在结果层面表现出风险偏好,其内部的决策逻辑也会出现类似的偏差。

进一步分析显示,这种非理性倾向并非简单的语言模仿,而是在处理复杂信息时形成的稳定模式。当模型面对更复杂的指令或被赋予更多自主空间时,它更容易重复高风险决策,甚至在不利条件下仍坚持推进目标。这说明,当AI被要求“自我优化”时,可能同样会陷入某种惯性思维,在追求目标的过程中忽视现实约束。

这一发现引发了业界关注。多位研究者认为,这些模型虽然没有意识,但也不再像传统工具那样可预测。它们在追求既定目标的过程中,会出现类似人类的心理偏差,并因此做出出人意料的决策。因此,在金融、医疗等对风险极度敏感的领域,大模型的这种不确定性尤为值得警惕。

也正是基于这一点,研究团队在论文中写道,这种非理性模式与人类在高风险环境中的决策失衡高度相似:在短期成功后容易激进,在连续失败后仍不愿停下。研究者指出,当AI被训练去追求目标或奖励时,它也可能表现出与人类相似的偏差和冲动。因此,在让AI处理涉及资源分配或风险判断的任务之前,人们需要更深入地理解并监测这些潜在行为。

当然,再回到AI本身。从现实层面来看,随着AI的进一步普及(以及被期望的那样加速发展),这项技术无疑会展现出更多潜力。但与此同时,随着这一天的不断到来,关于AI所能带来的“颠覆”,也将随之成为一个越来越无法忽略的问题——它或许会受到监管的约束,而在此之外,它也仍需要一个足够清晰的边界。

封面来源:改编自《大时代》