让“算法”给文化生活更多的正能量
浏览短视频,把它推到各地,不知不觉地打开一个新闻链接,相关信息接踵而至。在算法推荐的帮助下,信息的传播效率和准确性得到了极大的提高,每个人都可以拥有独家的 "个人日报"。获取信息已经从 "大海捞针" 进入了 "私人定制" 的时代。
毫无疑问,算法推荐依赖于对用户浏览数据的准确分析,从而满足个性化的阅读需求,并降低了获取信息的成本。但不可否认的是,这种推荐不仅 "使用越来越多的理解你",而且同时也把一些人推向了自封的 "舒适圈"。例如,一些算法是面向兴趣的,推荐用户喜欢看和读的内容,但屏蔽其他信息。人们似乎已经浏览了很多内容,但事实上,他们只是不断地重复强化他们固有的偏好和对事物的感知。一旦沉浸其中,探索世界多样性的动机和愿望就不可避免地减少,这最终加剧了 "信息茧屋" 的影响,束缚了自己在 "茧屋" 中的生活。
每个人都有自己对信息的需求是人性的;通过技术手段满足人们对某些类型信息的偏好也是无可指责的。然而,一些不负责任的算法设计不再是简单的 "量身定制",而是刻意满足和取悦用户的喜好、网络信息的淤泥、无穷无尽的推荐,甚至是放纵虚假信息、粗俗内容肆意传播,导致受众,尤其是一些歧视、自我控制的青少年越来越 "偏见"。
所有这些,表面上,都是以算法推荐为核心的技术问题,但根本上是技术设计、相关平台业务导向的问题。一些互联网平台认为,流量越大,收入期望值越高,也更容易得到资金的青睐和支持。然而,当流量是第一个向前看的时候,算法主宰了一切,信息平台也被异化为一个纯粹的兴趣平台。业内有一句谚语:"把用户想象成猪,不管喂什么,线上多肥。" 可以看出,在一些经营者看来,算法的价值取向也应该让位给流量,这是有偏见的。
规范运用算法推荐技术打破 "信息茧屋" 的束缚,不仅需要一些企业 "纠正" 价值取向,而且离不开各方的共同力量。例如,消费者是否可以更方便、更自由地 "关闭算法"?针对算法推荐的漏洞和盲区,监管机构如何更仔细地管理它?为了促进企业承担公共价值的责任,如何将价值评价纳入产品设计作为一个关键指标。总之,只有在生产、发行、监督等内容环节的同时,我们才有望离开 "信息孤岛",拥抱一个更广阔、更理性的世界。
人类学家尼克·西弗(Nick Seaver) 曾指出,算法是文化生活的一部分,不能仅仅从数学逻辑的角度来理解。这意味着算法在实践中不应片面追求效率,还必须考虑到公共价值、社会道德和其他价值内容。这部分内容的社会影响并不是直接计算出来的。