就算没有算法,社交平台也会让人变极端|Landing AI

在交际媒体现已深度嵌入日常日子的今日,人们对它的争议往往会集在几个了解的症结——政治极化(抱团)、留意力不平等(言语独占)、极点声响扩大(标题党)。不少批判都指向渠道背面的引荐算法,但如果把算法彻底拿掉,这些现象还会呈现吗?

荷兰阿姆斯特丹大学的一组研讨人员试着用试验给出

答案

。他们搭建了一个极简版的交际渠道,没有广告,没有杂乱的个性化引荐,也没有躲藏的权重机制,只保存发帖、转帖和重视三种最根底的功用。随后,他们放入了500个带有“品格设定”的谈天机器人,这些机器人根据OpenAI的GPT-4o mini工作,具有固定的人口学特点,比方年纪、政治态度等。发帖时,它们会参阅当天的新闻标题;转帖和重视,则彻底凭本身判别。渠道的时刻线很简单:一半内容来自已重视的账号,另一半则是全网转发量最高的“抢手贴”。

在五轮试验(每轮都包含1万次互动)后,成果显现出了解的轨道。机器人们敏捷分成了阵营:态度挨近的相互重视,不同态度几乎没有交集,中间派被孤立在边际。随后,一小部分“大V”账号获得了大部分粉丝和转帖,留意力散布极不均衡。与此同时,态度明显乃至偏极点的内容传播得更快更广,越极点的观念越简单分散。

研讨团队接着测试了六种常见的“渠道改进”计划:按时刻次序显现内容、下降抢手账号的权重、推送更多敌对阵营的内容、提高理性和桥接型内容的权重、躲藏粉丝/转帖数、躲藏账号身份信息。在此前的一些模仿中,“推送异见”曾被证明可以在模仿渠道里统筹高互动与低毒性(即有害、攻击性或歹意寻衅内容比例较低),但在这次试验里,包含这一方法在内的悉数干涉办法,都未能带来明显改动——抱团账号的互动比例最高只减少了6%。更意外的是,在躲藏用户简介的情境下,阵营分解反而加重,极点内容获得了更多重视。

这些成果表明,即使没有引荐算法,渠道的根本结构也足以催生相似的问题。只需存在“发帖—转帖—重视—再曝光”的循环,网络就会天然演化出阵营化(抱团)、留意力会集(言语独占)和极点化(标题党)的格式,其背面是互动反响与网络增加之间的反响回路。

实际也大略如此。在实际国际中,相似的形式早有痕迹:Facebook与多所高校协作的研讨显现,即使不动算法,用户在挑选重视目标时也会让信息环境敏捷向单一态度歪斜;MIT对Twitter的剖析则发现,情绪化和极点化的信息更简单引发转发,这种扩大效应首要来自用户的反响,而非后台推送。

需求留意的是,这些谈天机器人并非彻底“免疫”于算法的长时间影响——它们的语言和决议计划形式,本就建立在一个由算法主导的网络环境的海量语料之上。这意味着,它们在试验中的行为,很或许在某种程度上承继了咱们自己在交际渠道上的习气和成见。某种意义上,这场试验不只提醒了交际网络的内涵结构问题,也像一面镜子,把咱们在数字国际里现已变形的互动方法反射了出来。

试验完毕后,虚拟渠道归于安静,但在实在国际中,这套机制每天都在工作,并继续刻画着咱们的网络空间。至于有没有一种方法让这面歪曲的镜子从头映照出实在的自己,这个问题或许暂时还没有谁可以答复。

研讨试验所触及的论文链接:

https://arxiv.org/abs/2508.03385

封面来历:由Sora生成自《V for Vendetta》

返回资讯列表