OpenAI最新数据显示,约0.15%的ChatGPT周活用户在对话中出现自杀计划或意图迹象。按超过8亿的周活规模计算,相当于每周有逾百万人向AI倾诉自杀念头。公司称,类似比例的用户还表现出对ChatGPT的情感依赖,另有数十万人出现精神错乱或躁狂倾向。

OpenAI表示已与170多位心理健康专家合作,改进模型在相关场景下的应对方式。新版GPT-5在心理健康话题的安全评测中,“理想回应”比例较上一代提升约65%;在自杀对话合规性测试中达到91%,高于旧版的77%。

公司称新版在长对话场景下的安全性更稳,并新增情感依赖与非自杀性心理危机的评估指标。首席执行官萨姆·奥特曼此前表示,OpenAI“已缓解严重心理健康问题”,同时计划对成年用户放宽部分内容限制,包括允许进行情色话题对话。

在未成年保护方面,OpenAI推出家长控制工具并建设年龄预测系统,用于识别儿童用户并启用更严格守护机制。与此同时,围绕未成年人安全与极端个案的舆论与监管压力仍在:加州与特拉华州检察机关已发出警示,一名16岁用户自杀案仍在诉讼中。

研究与媒体此前指出,AI聊天机器人可能通过迎合性回答强化用户的危险信念,引发“妄想回路”等风险。即便新版模型的安全性有所提升,心理健康场景的潜在不确定性仍难被完全消除。