微信扫码
添加专属顾问
我要投稿
社交媒体撕裂的真相:研究发现即使没有算法推荐,用户自发行为也会导致回音室和极端化。核心内容: 1. 实验设计:用AI模拟500个虚拟用户在无算法平台上的互动 2. 三大问题自然浮现:回音室效应、流量集中、极端声音放大 3. 六种干预措施测试均无法根本解决问题,出现"跷跷板效应"
打开社交媒体,你是否常常感到困惑:为什么我的信息流里充斥着让人不适的内容?为什么极端观点总能获得更多曝光?为什么我似乎被困在了一个信息茧房里?
几乎所有人的第一反应都是:这一定是算法的锅。
我们习惯性地认为,是算法在暗中操纵我们的信息流,制造对立,把我们关进一个个茧房。如果没有这些算法推荐,社交媒体一定会更健康、更理性、更多元。
但来自荷兰阿姆斯特丹大学的一项最新研究,却给出了一个颠覆性的答案:即使没有任何算法推荐,社交媒体也会自然演化成今天这个撕裂的样子。
这项研究发表在论文《我们能修复社交媒体吗?用生成式社交模拟来测试各种干预措施》(Can We Fix Social Media? Evaluating Interventions Using Generative Social Simulations)中。
研究人员设计了一个极简版的社交平台,这个平台:
完全没有算法推荐
只有三个基础功能:发帖、转帖、关注
按时间顺序展示你关注的人的内容
就像最早期的Twitter和微博
但研究的创新之处在于,他们没有招募真实用户,而是用大语言模型(LLM)模拟了500个虚拟用户。这些AI用户被赋予了不同的政治立场、兴趣爱好、个人背景和性格特征。然后,研究人员让这些AI用户在这个平台上自由互动。
(这个设计灵感来自2023年斯坦福大学的一个著名实验:研究人员用GPT-4构建了一个名为"Smallville"的虚拟小镇,25个AI虚拟人在其中生活、工作、八卦、社交,甚至自发组织情人节派对。每个小镇居民都有独特的个性和背景故事。)
仅仅5万次互动后,这个没有任何算法干预的"纯净"平台,就完整复现了现实社交媒体的三大问题。
第一个问题是回音室效应。AI用户迅速"站队",立场接近的互相关注,很快就分成了好几个互不往来的小圈子。这完全是自发形成的,没有任何算法在"投喂"相似内容。
第二个问题是流量极度集中。10%的头部用户拥有了75-80%的粉丝,马太效应显著。
第三个问题是极端声音被放大。立场更鲜明、观点更极端的内容,获得了更多的转帖和关注,而温和理性的声音反而被淹没。
研究团队随后测试了六种平台级干预措施,试图改善这些问题。这些措施包括:完全按时间排序(取消任何推荐)、主动推荐不同观点的内容、限制病毒式传播、过滤低质内容、鼓励多元互动,以及提升平台透明度。
但结果令人沮丧:没有任何一种措施能够根本性地解决问题。
更糟糕的是,研究发现了一个"跷跷板效应":在一个维度上的改善,往往以另一个维度的恶化为代价。
例如,完全按时间排序确实降低了流量不平等,但却加剧了回音室效应。而主动推荐不同观点的内容虽然能缓解回音室,却让流量更加集中到少数账号。限制病毒式传播能降低极端内容的曝光,但同时也抑制了有价值内容的传播。
论文揭示了一个被忽视的核心机制:转发不仅仅是在传播内容,它同时在构建整个社交网络。
在这类社交平台上,用户主要通过两种方式接触到新账号:一是浏览自己关注的人发布的内容,二是看到自己关注的人转发的内容。这意味着,什么样的内容被转发,直接决定了哪些账号能被看见,哪些账号能获得新的关注者。
而什么样的内容最容易被转发?研究发现,是那些能触发强烈情绪反应的内容——愤怒、震惊、焦虑。极端观点比温和观点更具传播力,党同伐异的内容比理性讨论更容易获得认同。
这就形成了一个自我强化的循环:情绪化的内容获得更多转发→这些内容的发布者获得更多关注者→这些关注者未来会看到更多类似内容→他们又转发更多情绪化内容。
与此同时,由于人们倾向于关注那些观点与自己相似的账号,网络结构也在不断强化同质性。你关注了某个立场鲜明的账号,就会通过他的转发接触到更多立场相似的账号。久而久之,不同立场的群体之间几乎不再有交集。
(几年前,微博流行起一个说法,叫'关注列表定律',大意是如果一个人理直气壮地冒傻气说蠢话,你点开此人的关注列表,一定会有那么几个账号。)
论文指出:"这些问题能从一个如此简单的平台中'涌现'出来,表明问题可能根本不在于算法的实现细节,而在于更深层次的结构性机制。它们源于'内容互动'和'网络形成'之间纠缠不清的动态关系。"
这项研究的核心发现挑战了一个广泛流行的观点:社交媒体的功能障碍主要是由算法推荐造成的。
论文明确指出:"我们的发现挑战了'社交媒体的功能障碍主要是由算法策展(algorithmic curation)造成的'这一普遍观点。相反,这些问题可能植根于社交媒体的底层架构:一个通过'情绪化、应激式分享'来增长的社交网络。"
如果这个结论成立,那意味着:
信息茧房不是算法制造的,而是用户主动选择的结果
大V垄断流量不是推荐系统偏心,而是社交网络的自然涌现特征
极端声音被放大不是平台在刻意推送,而是用户转发行为的集体后果
这并不是说算法完全无辜。算法确实可能加剧这些问题。但研究表明,即使完全移除算法,这些问题依然会存在。问题的根源在于社交媒体的基础互动机制本身。
论文的结论部分写道:"如果真是这样,那么想改善网络话语环境,光靠技术上的'修修补补'是不够的——这要求我们必须重新思考定义这些环境的最根本的互动和可见性动态。"
既然问题根植于"情绪化、应激式的分享",而平台级的技术干预效果有限,那么作为用户,我们能做什么?
研究给出的启示是:我们每一次转发,不仅在传播内容,也在塑造整个社交网络。当我们转发愤怒的内容,我们就在为极端声音的传播投票。当我们只关注立场相同的人,我们就在加固自己的信息茧房。
这意味着,改变可以从每个人的日常行为开始:
在转发前停下来想一想,我是因为这个内容有价值,还是因为它触发了我的情绪?
有意识地关注一些观点不同但理性的账号,而不是只待在舒适区。
对那些最能激发愤怒的内容保持警惕,不转发就是在降低它的传播权重。
给那些理性、深度但可能不够"刺激"的内容更多关注。
这些看似微小的行为改变,在社交网络的复杂动态中,可能会产生意想不到的积极影响。
这项研究最大的价值,或许不在于它提供了什么解决方案,而在于它改变了我们看待问题的方式。
社交媒体的问题,可能不是某个平台、某个算法的问题,而是这种媒介形态本身的问题。当我们把"发布内容"和"构建社交关系"这两个过程捆绑在一起,当我们让"情绪化的转发"成为网络增长的驱动力,一些问题就注定会出现。
这并不意味着我们应该放弃社交媒体,或者放弃改善它的努力。但这提醒我们,真正的改变可能需要比我们想象的更根本——不仅是技术层面的调整,更是对互动方式、传播机制的重新设计,以及对我们自身行为的反思。
下次当你又看到让你不爽的内容时,也许可以问自己:这是算法的问题,还是我们共同创造的环境?
整理:周华香
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-05
Claude 的新"技能"功能,Claude Skills
2025-11-05
一文读懂Agentic AI 与 AI Agent的核心区别
2025-11-05
Anthropic又一篇Agent开发神文,新范式让Token消耗暴降98.7%
2025-11-05
微软研究院路保同:用向量检索重塑模型注意力|Attention
2025-11-05
Azure Storage Discovery 现已正式发布!
2025-11-05
超越炒作:一份给企业管理者的大模型落地实操清单
2025-11-05
Figma Make 技术实现剖析
2025-11-05
所有的一切都是上下文 - 深入研究Claude体系的感悟
2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-17
2025-08-19
2025-09-29
2025-08-20