2016-09-19 16:45
宇治编译
它多次因为网站内容存在偏见而被推向风口浪尖,作为世界领先的科技公司,似乎仍没有找到避免偏见的方法。
挪威最大的报纸《晚邮报》在其首页发表了一封给Facebook首席执行官马克·扎克伯格的公开信,信中痛斥Facebook屏蔽了一张有关越南战争的历史性的照片,要求扎克伯格承认以及履行他“世界上最强大的编辑”的职责。
其实,在Facebook的网站上,什么内容该展示、什么内容该屏蔽一直都存在争议。为了让网站上的内容既客观又丰富,Facebook一直在改变,就拿Facebook上的“热门话题”板块来说吧。
8月初,Facebook表示,他们已经调整了其网站在“热门话题”板块的运作方式——内容的挑选和编辑几乎不再用人工完成,而是通过计算机算法实现自动化编辑。
而在7月份的时候,Facebook似乎有回归人工的趋势,它宣布放弃利用计算机算法自动排序“信息流(News Feed)”。这种做法会让Facebook的用户看到好友们感兴趣的新闻,而不是新闻媒体推送的内容。此外,Facebook也放弃了通过用户的位置推荐好友和热点活动,而是选择通过人工来决定你是否认识某人或是否想要参见某个活动。
但是最终,从8月Facebook再次启用计算机算法来自动完成对热门话题的内容编辑来看,Facebook似乎放弃了人工编辑。
可惜的是,从成效来看,计算机算法并没有像预期的那样给用户推送高质量的内容。
为了实现自动化,Facebook解雇了其编辑团队里的大多数人。这些人大多是新闻写稿、校稿的记者们。Facebook把编辑大权交到了计算机算法的手里。
但很可惜,这种做法只让Facebook意识到了计算机算法是如何的漏洞百出。
福克斯主持人梅根·凯利
热门话题排行榜的一个关键词Dropbox的介绍,一条是关于其用户的个人信息被盗的新闻,一条是关于夏威夷big island上的两座火山爆发了,还有一条——据这位编辑猜测——是关于Instagram终于增加了图片的缩放功能,毕竟这条新闻近期很热门啊。
但是当点进去的时候,才发现是一条关于贾斯汀 比伯在他的Instagram上发了一条有关他的狗狗的帖子。尽管这条新闻在热门上只存在了一会儿,但是这是Facebook的算法把这样的新闻推上了热门、自动生成了新闻描述和图片、还给出了指向这条新闻的链接。是有“人”发现这条新闻并不热门,还是算法发现的?
Facebook之所以撤换编辑团队,用算法编辑热门话题可能还与今年年初的一条新闻有关。
改变热门话题的编辑程序后,Facebook也在声明中提到:“虽然很重视报道中的指控,但是我们并没有发现任何存在偏见的证据。我们用算法编辑热门话题就是为了避免人为的偏见。”
声明中提及了“人为的偏见”,但并没有说明编辑们是如何操作才产生偏见的。当然,利用算法确实会减少人为偏见,但还是不可避免地产生偏见,毕竟算法是由人做出来的。此外,编辑仍会剔除他们认为的不适合展示的话题。
政治偏见:共和党?民主党?
总之,最后仍由人来决定Facebook用户能看到什么样的新闻,Facebook也不会明说人到底起着什么样的作用。
用户真正应该担忧的是,是Facebook在决定着什么是热门话题,什么应该是热门话题。美国有很多用户会通过Facebook的热门话题了解新闻,但是Facebook并没有向用户明确表明决定热门话题的方式。Facebook说他们会“保持中立”,但他们并没有意识到自己在传播新闻和观点方面的强大影响力。