在社交媒体已经深度嵌入日常生活的今天,人们对它的争议往往集中在几个熟悉的症结——政治极化(抱团)、注意力不平等(话语垄断)、极端声音放大(标题党)。不少批评都指向平台背后的推荐算法,但如果把算法完全拿掉,这些现象还会出现吗?
荷兰阿姆斯特丹大学的一组研究人员试着用实验给出答案。他们搭建了一个极简版的社交平台,没有广告,没有复杂的个性化推荐,也没有隐藏的权重机制,只保留发帖、转帖和关注三种最基础的功能。随后,他们放入了500个带有“人格设定”的聊天机器人,这些机器人基于OpenAI的GPT-4o mini运行,拥有固定的人口学属性,比如年龄、政治立场等。发帖时,它们会参考当天的新闻标题;转帖和关注,则完全凭自身判断。平台的时间线很简单:一半内容来自已关注的账号,另一半则是全网转发量最高的“热门贴”。
在五轮实验(每轮都包含1万次互动)后,结果显现出熟悉的轨迹。机器人们迅速分成了阵营:立场接近的互相关注,不同立场几乎没有交集,中间派被孤立在边缘。随后,一小部分“大V”账号获得了大部分粉丝和转帖,注意力分布极不均衡。与此同时,立场鲜明甚至偏极端的内容传播得更快更广,越极端的观点越容易扩散。
研究团队接着测试了六种常见的“平台改良”方案:按时间顺序显示内容、降低热门账号的权重、推送更多对立阵营的内容、提升理性和桥接型内容的权重、隐藏粉丝/转帖数、隐藏账号身份信息。在此前的一些模拟中,“推送异见”曾被证明可以在模拟平台里兼顾高互动与低毒性(即有害、攻击性或恶意挑衅内容比例较低),但在这次实验里,包括这一方式在内的全部干预措施,都未能带来显著改变——抱团账号的互动份额最高只减少了6%。更意外的是,在隐藏用户简介的情境下,阵营分化反而加剧,极端内容获得了更多关注。
这些结果表明,即便没有推荐算法,平台的基本结构也足以催生类似的问题。只要存在“发帖—转帖—关注—再曝光”的循环,网络就会自然演化出阵营化(抱团)、注意力集中(话语垄断)和极端化(标题党)的格局,其背后是互动反应与网络增长之间的反馈回路。
事实也大抵如此。在现实世界中,类似的模式早有迹象:Facebook与多所高校合作的研究显示,即便不动算法,用户在选择关注对象时也会让信息环境迅速向单一立场倾斜;MIT对Twitter的分析则发现,情绪化和极端化的信息更容易引发转发,这种放大效应主要来自用户的反应,而非后台推送。
需要注意的是,这些聊天机器人并非完全“免疫”于算法的长期影响——它们的语言和决策模式,本就建立在一个由算法主导的网络环境的海量语料之上。这意味着,它们在实验中的行为,很可能在某种程度上继承了我们自己在社交平台上的习惯和偏见。某种意义上,这场实验不仅揭示了社交网络的内在结构问题,也像一面镜子,把我们在数字世界里已经变形的互动方式反射了出来。
实验结束后,虚拟平台归于平静,但在真实世界中,这套机制每天都在运转,并持续塑造着我们的网络空间。至于有没有一种方式让这面扭曲的镜子重新映照出真实的自己,这个问题可能暂时还没有谁能够回答。
研究实验所涉及的论文链接:https://arxiv.org/abs/2508.03385
封面来源:由Sora生成自《V for Vendetta》