【话媒观澜】算法“塑造世界”客观吗?(4图)

发布时间:2018-04-19 10:17 | 来源:党媒平台 2018-04-17 19:00 | 查看:1067次

  4月初,快手和清华大学宣布成立未来媒体数据联合研究院,快手CEO表示,如果没有很好的对社会的认知、对人文的思考,仅靠技术本身会很容易走偏,要用哲学的智慧将算法、技术力量放大,从而避免表达幸福感的种种障碍。确实,算法在我们的生活中扮演着越来越重要的角色,关于算法伦理的讨论也日益引起关注:算法作为信息和用户之间的“黑色通道”不可见,它是客观的吗?会限制思维吗?

  凯文•斯拉文在TED演讲中说,算法“提炼自这个世界,来源于这个世界”,而现在则“开始塑造这个世界”。在算法“塑造世界”的时代,值得我们思考的是:该如何突破功利主义瓶颈,赋予科技以正向的价值?

  算法没有价值观吗?

  算法最大的优势是能够根据用户的“数字自我”而实现智能化、精准化推荐。从某种意义上说,算法是人们在信息的汪洋大海中快速找到自己所需的“捷径”。人们信任算法,是基于其“客观性”。谷歌公司坚信“我们的用户信任我们的客观性”。谷歌的人—机算法模式,试图强调“技术理性”,即“没有人为因素干预的客观性”。但是纯粹的客观性真的存在吗? 

  算法的背后是人,算法作为人类智慧的产物,无疑是需要承载一定价值的。算法的来源涉及诸多因素,人类的需求、利益和社会环境、现有技术等都会对算法产生影响,算法设计者的认知能力、知识水平、设计意图、价值观念同样也会影响算法。“代码即法律”(code is law),美国学者劳伦斯•莱斯格认为,“尽管代码可以实现去管制化,但代码本身不是固定的,而是可以被商业、政治等非技术力量操控和改变的,人们在网络上的行为认知是受到管制的,只不过这种管制是通过更改代码而实现的”。

  每个公司的算法不尽相同,而这背后体现的都是他们的目的和价值观。我们认为自己拥有很大的权利去选择信息,但实际上所有的选项都是算法给出的既定选项,算法在某种程度上决定了我们可以看见什么、我们以为什么是真实。在占领华尔街运动高涨的时期,Facebook并没有在显著位置予以推荐,那些将Facebook作为主要信息来源的人很可能因此认为这件事情并没有那么重要。社会学家威廉•托马斯与多萝西•托马斯说过:“如果人们把某种情境定义为真实的,这种情境就会造成真实的影响。” 

  虽然聚合类新闻资讯客户端本身并不从事内容生产,依靠的是渠道优势换取媒体和自媒体内容供应,但是,所有的推送内容其实都会承载一定的价值观。社会科学研究中所谓的“价值无涉”,并不是没有价值,而是指对不同价值内容予以同样的尊重,以及给予不符合你的价值观的信息以修正你价值观的权利。因此,认为算法没有价值观的观点本身就值得商榷。

  算法限制我们的思维吗?

  算法在某种意义上是极简文化的产物。人们渴望确定性的标准答案,来简化信息时代因信息洪流而带来的焦虑和迷茫。亚历山大•加洛韦在《界面效应》一书中表示,算法文化有向简单主义发展的趋势,这是“无法根据眼前的情况考虑全局的问题,以及无法像解读历史那样解读现在所导致的必然后果”。

  算法是一种选择,选择就意味着舍弃。信息的个性化推荐本质上并不是用户在主动选择信息,而是信息的主动呈现。用户所接触到的信息要么是夺人眼球的10万+,要么局限在他们感兴趣的狭小领域,要么就是与他们观点和意见相一致的“溺爱式”信息。人们沉浸在算法制造的信息茧房里,失去了对不同领域、不同观点的接触机会,精神世界也会因此变得狭窄。在算法的世界里,人只是一个个数据点的集合,而不会被当作一个个体来被理解和对待。人性的幽微、需求的多样、情感的复杂,远非代码可以呈现。

  算法预测、影响并进而控制用户行为。算法对人思维的限制也可以从自动补全算法窥见。自动补全算法最初设计的目的是为了帮助残疾人提升打字的速度,但是后来谷歌将它纳入服务功能,在用户完成搜索内容输入之前猜测他们想要搜索的内容,以节省时间。然而自动补全算法却给谷歌带来了官司。

  2012年,德国前总统克里斯蒂安•武尔夫的妻子贝蒂娜•武尔夫指控谷歌的自动补全算法对她进行诽谤和中伤。输入她的名字,自动补全会出现指向妓女及陪侍行业的搜索项。法院判决,谷歌必须保证自动补全算法生成的搜索项不含有任何攻击性或中伤性的内容。武尔夫打赢了官司。谷歌宣称对这个判决结果极为“失望”,认为判决结果是对谷歌客观性的公开质疑。公司发言人说:“谷歌不应当对自动补全算法生成的搜索项负责,因为这些预测不是谷歌自我完成的,而是计算机算法基于之前的搜索记录自动完成的。”实际上,对于那些本来并不了解武尔夫的用户,在看到搜索信息提示以后,确实很可能会被引导到某个方向。算法不仅可以预测用户的行为,还会对用户的行为产生影响并实现控制。

  算法技术使用户很多信息行为并非以需求为导向。算法将特定的选项放在用户面前,导致用户只能在所提供的选项中做出选择。人们在信息获取过程中的主动性被极大削弱。在很大程度上,用户被算法所提供的信息“喂养”,这些信息并不都是用户真正的需求。有时候,信息“偶遇”也成了预谋已久的信息“碰瓷”。

  算法时代的 “自救”

  对算法的质疑从算法诞生起就一直存在,这种质疑其实也反映了人类的科学理性。在对算法的设计提出继续完善的同时,我们当然要学会“自救”,也就是面对算法要做到自我保护。

  对算法可能存在限制有所觉察。对于用户而言,算法最大的问题在于不透明。算法的复杂性即便是技术人员也未必能搞清,更不用说普通的“技术小白”。虽然我们看到的只是算法给出的结果,而对其中的设计理念、运行逻辑都一无所知,但是,我们应该知道算法其实并不是完全客观的存在,它有可能被歪曲并存有偏见。我们要始终对算法可能存在限制有所觉察,知晓那些不符合我们价值观的内容很可能已经被屏蔽在视野之外。

  保持提问的良好习惯,而不要指望答案唾手可得。在所有问题都可以轻松解决的世界里,人们需要一种更加激进的思维模式。提问时,试着去了解算法正在发挥哪些作用,它们最初设计的目的是什么,以及所谓的“相关性”和“新闻价值”究竟是对谁而言。现在已经有人开始从事算法数据干扰的研究,以便在算法试图了解他们、并将他们分类时采取干扰或规避措施。有人平时买报纸,用传统网页方式浏览新闻,尽量不依靠智能搜索,为的就是用自己的逻辑对抗算法可能带来的信息窄化,不被算法限制。

  揭开算法“黑箱”,更要能够驾驭它。纵观历史的发展,每每有新技术降临,人们最终都很难不参与其中。我们当然不能放弃算法,尽管目前来看算法应用还会带来很多问题。我们需要做的,不仅是要去了解算法以及它可能带给我们的影响和改变,更是能够驾驭它,用智慧趋利避害,让算法更加科学理性。(人民日报中央厨房•煮酒话媒工作室  李康乐)

用户名:验证码:点击我更换图片                *如果看不清验证码,请点击验证码更新。