发布时间:2024-12-23 10:16:12 来源: sp20241223
“信息茧房”这个说法,正在从学术研究快速走向日常生活。比如有年轻人吐槽“你们看过爸妈的手机吗?他们刷到的内容和我完全不一样,这简直就是信息茧房”时,这类说法其实混淆了“信息茧房”和“个性化推荐”概念。当人们使用个性化推荐,因个人兴趣、场景等因素而得到不同的推荐结果,其实是很正常的,但将千人千面的推荐效果等同于信息茧房,有失偏颇,容易导致信息茧房概念的泛化与滥用。
这种近乎直觉式的推断,让人喜忧参半。喜的是,人们对新技术的社会影响保持了认知上的敏感和反思。忧的是,信息茧房概念被逐渐泛化,陷入了过于简单化的归因,对算法技术的评判有失公允,并且有可能滑向不利于社会创新的技术悲观论调。
信息茧房这个术语有两层含义。
首先,这个词语描述了个人所感知的同质化信息环境。早在2006年,美国政治学家、法学家卡斯·桑斯坦在《信息乌托邦》(Infotopia: How Many Minds Produce Knowledge)一书中,用“茧房”来比喻这样一个环境:因为个性化的信息过滤,个体只能接受到符合自己观点的信息,因此陷入到了一个同质化的信息环境中。
其次,在学术研究中,过滤泡、回声室是比信息茧房更常用的概念。人们上网时都有类似的体验,立场不同的双方就某个争议话题展开论战,结果不仅谁也说服不了谁、谁也不愿意理解谁,甚至还会加强自己原先的立场。回声室就描述了这样一种状况:人们生活在一个封闭的社交圈中,同质化的信息不断重复、放大,导致回声室内的成员对外界的信息接触越来越少,而只能听到和自己一致观点的声音。
不过,算法和茧房的因果关系也未经证实。《打破社交媒体棱镜》一书中,美国杜克大学政治学与公共政策教授克里斯·贝尔做了一个实验,当给用户提供了对立的观点时,人们反而更极端、更捍卫自己原来的立场了。这个实验说明,哪怕我们接触的是多样化的信息,仍然会拥护自己的立场,甚至变得极端,这个过程并不一定需要经过“过滤泡”或“信息茧房”的中介。
信息茧房、过滤泡、回声室等概念都描述了一个共同的担忧:在选择性的信息接触中,人们可能会陷入一种自我强化的反馈循环,从而失去了接触多种信息、不同观点的机会。这个复杂的社会问题有很多成因,受到包括个体、技术、场景与社会等多种因素的共同影响。但是在人们的日常认知中经常把这个多因——多果的问题,简化为“算法导致信息茧房”形式的单因——单果的说法。
要弄清楚这个问题,我们需要全面地认识算法。
首先,在技术上,算法就是计算方法,我们对数学中的鸡兔同笼问题的求解,就是最简单的计算方法。推荐算法要解决的问题是随互联网而来的海量信息的分发难题。“猜你想看”也是一道算法题,信息平台根据人们的地理位置数据、已有浏览记录、朋友的兴趣等,完成信息的高效分发。
推荐算法在用户和内容之间建立起有效的、符合偏好和需求的桥梁。如果没有推荐算法,我们可能会淹没在无边无际的信息海洋中,感到迷茫和不知所措,我们无法有效地获取所需的信息,甚至可能引发更严重的问题,比如信息瘫痪和信息回避。因此,从全局上看,算法是服务民众需求、有利社会发展的,这一基本判断应是主流共识。
其次,从市场经济角度看,提供这项服务的平台公司需要盈利,因此推荐算法还要解决留住用户,然后将用户注意力有效售卖给广告商的问题。正如纪录片《监视资本主义:智能陷阱》(The Social Dilemma)中指出的,社交媒体平台和搜索引擎使用的推荐算法,根据用户的历史行为和偏好,个性化地推送信息。平台就像商场,如果商场总提供某一类或某几类商品,无法提供更多品类的商品,消费者可能会减少使用甚至抛弃它。从商业角度,平台也会通过分发多样性信息,来留存用户,而不是刻意制造茧房。
也有研究显示,用户仍然有主观能动性,也并非一味被动接受算法的投喂。宾夕法尼亚大学的杨天、黄圣淳等研究发现,喜欢用今日头条看娱乐信息的人,也顺便看了新闻。也就是说,人们使用算法驱动的信息分发平台之后,并没有陷入娱乐的茧房中不可自拔,而是随着娱乐信息消费增加,新闻信息的消费也增加。从传播的角度上讲,这个研究的结果很有意义,因为它提出了一个反常识的发现:算法平台上的消费者不仅没有娱乐至死,而是也履行着“好公民”的职责。
此外,从技术哲学的视角,技术与社会相互建构。推荐算法并不是一个完全独立的存在,而是与多种社会因素相互交织、共同发展的结果。它根据我们的个人兴趣来推荐信息,但也受到政府、公司、用户等多种社会因素共同影响,进而产生了“千人千面”的推荐效果。
而当我们搞清楚了何为算法、何为茧房,我们也就可以理解为什么算法成了信息茧房的替罪羊。
第一,这个替罪羊现象是大众认知仓促简化的结果。算法技术深度嵌入日常生活后,和各样社会问题产生了复杂的勾连。但人们并没有时间、或没有心力去进行条分理析的明辨,就想要寻求一个易懂的、易交流的说法,来描述这种“千人千面”的信息体验,却找不到除茧房、过滤泡这类比喻之外的词汇。于是,在大众讨论中,信息茧房的概念被挪用和滥用,相应地,概念语义也出现了泛化。把对信息茧房、沟通困难等的担忧,都仓促挪用到了推荐算法上。如果人们不愿意充分全面地去认知算法的原理,信息茧房的含义,就匆匆地将信息茧房完全归咎于算法,也是有失公允的。
第二,正如社会心理学的“替罪羊理论”所说,人们往往会把负面体验归因于外群体。在这里,人们把社会问题归因于技术。人们如果在现实生活中意义感缺失,更倾向在信息流中花费更多时间,放下手机后,人们就容易将自己的空虚感归因到算法身上。心理学家戈登·W·阿尔波特的“替罪羊理论”(scapegoat theory)提出,当人们经受负面的情绪时,会倾向于把这种感受去归咎于另一个群体或个人。
如果让算法作为信息茧房的背锅侠,蕴含了一个前提:用户是被动的,没有主动性的,技术为刀俎,网民为鱼肉。但实际上,推荐算法在技术上也给用户的兴趣赋予了很多能动性。如果用户对京剧感兴趣,在京剧类型内容上停留时间长,就会得到更多的推送。
其实,就算是没有算法的时代里,人们也会不同程度地生活在自己构建的同质化信息圈中。报刊时代,也有人只看社会新闻;电视时代,也有人只看体育频道。但人们并没有把这种单一化、同质化的信息消费归咎于报刊和电视。真正能打破信息茧房的,并不是对一个传播技术的讨伐和绞杀,而是对受众或用户的信息素养、社会公共信息生态治理等等多方面能力的考验。
可见,面对复杂的社会问题时,人们总会想寻找一个简化易懂的说法。这个替罪羊可能是另一群人,也可能是技术,而“信息茧房”就成为了信息同质化、娱乐至死、意义虚无等复杂社会症候的简化替罪羊。
第三,纵观媒介发展史,算法既不是第一只为负面情绪赎罪的替罪羊,也不会是最后一位替社会问题挡枪的背锅侠。新兴的传播技术带来的变革如果超出了人们能够驾驭的范围,就很容易成为更广泛问题归咎对象。
例如,柏拉图在《菲德罗篇》中猛烈批评“文字”这种当时的新技术,认为它破坏了口头交流增长智慧的方式。清朝末年,被喻为“顺风耳”的电报技术传入当时面对内忧外患的清朝,电报本可以用于提高军事情报的传递效率,但也遭到了很多大臣的反对。其中一位名叫崇厚的大臣认为,这种新技术“贻害无穷”,因为电报杆插地太深,可能破坏风水,吸走大清的地气。21世纪初,网络游戏一度成了“网瘾”的替罪羊。当网络上的喷子太多,我们又武断地抓出社交媒体来做祸首。如今,人们又捉住了算法和大数据,作为信息同质化和观点极化的替罪羊。
认识到这个算法替罪羊现象,克制地使用简化归因,对个人和社会都是有益的。对个人而言,我们应该有意识地培养自己的自控力,为自己设计更加健康的信息套餐,运用科学和积极的思维来使用算法。例如,通过算法推荐,用户找到了独特品味的图书、小众出版商也觅得了投缘的小众读者群。对社会来说,我们保持开放包容的心态,才能在社会认知上为新技术创新做好准备,助力孵化更多的创意产品来方便我们的生活。而代际沟通困难、意义虚无、错失焦虑、意见极化等结构性的社会问题,也不能把责任简单推到用户或技术身上,还需要通过系统设计思维,推动全社会一起来改善。
来源:红网 作者:仇筠茜 【编辑:李润泽】