从一张照片说说Facebook的傲慢与偏见

2016-09-19 16:45

宇治编译

它多次因为网站内容存在偏见而被推向风口浪尖,作为世界领先的科技公司,似乎仍没有找到避免偏见的方法。

挪威最大的报纸《晚邮报》在其首页发表了一封给Facebook首席执行官马克·扎克伯格的公开信,信中痛斥Facebook屏蔽了一张有关越南战争的历史性的照片,要求扎克伯格承认以及履行他“世界上最强大的编辑”的职责。

内1.png

战火中的女孩

这篇照片名为《战火中的女孩》是越战期间9岁女童潘金福赤身逃离遭汽油弹袭击村落的照片,该照片间接推动了越战的提前结束,成为历史经典。

实际上,Facebook之所以屏蔽这张历史性的图片是因为图上的女孩裸露着身子,而在Facebook上,这样的图片都会被屏蔽掉,不管有没有历史价值。

但最终Facebook没能用上面的说词说服用户,毕竟Facebook没有区分开战争照片和色情照片,已经引来轩然大波。为了平息众怒,Facebook上再次恢复显示了这张照片。

其实,在Facebook的网站上,什么内容该展示、什么内容该屏蔽一直都存在争议。为了让网站上的内容既客观又丰富,Facebook一直在改变,就拿Facebook上的“热门话题”板块来说吧。

内2.png

Facebook的“热门话题”板块

(深蓝色字体是话题,后面的灰色字体是话题简介)

8月初,Facebook表示,他们已经调整了其网站在“热门话题”板块的运作方式——内容的挑选和编辑几乎不再用人工完成,而是通过计算机算法实现自动化编辑。

而在7月份的时候,Facebook似乎有回归人工的趋势,它宣布放弃利用计算机算法自动排序“信息流(News Feed)”。这种做法会让Facebook的用户看到好友们感兴趣的新闻,而不是新闻媒体推送的内容。此外,Facebook也放弃了通过用户的位置推荐好友和热点活动,而是选择通过人工来决定你是否认识某人或是否想要参见某个活动。

但是最终,从8月Facebook再次启用计算机算法来自动完成对热门话题的内容编辑来看,Facebook似乎放弃了人工编辑。

内3.jpg

可惜的是,从成效来看,计算机算法并没有像预期的那样给用户推送高质量的内容。

计算机算法的不足

在声明里,Facebook解释了为什么再次利用算法来编辑其信息流板块:这样可以在不同的语言圈里推送信息流,从而迎合各国的用户。

基本上来说,Facebook想让来自各国的用户把信息流当做他们获取新闻的渠道,而想要向庞大的用户推送新闻(非常烧钱)的方法只有一个:用计算机算法进行自动编辑。

为了实现自动化,Facebook解雇了其编辑团队里的大多数人。这些人大多是新闻写稿、校稿的记者们。Facebook把编辑大权交到了计算机算法的手里。

内4.jpg

但很可惜,这种做法只让Facebook意识到了计算机算法是如何的漏洞百出。

案例一:

来自狗狗网站 iHeartdogs.com的一个视频里,一只宠物狗在两年后与主人重逢,狗狗的反应特别可爱。这个视频的描述是:你一定要看看这只狗狗的反应。但通过Facebook的计算机算法自动编辑之后,这个视频的标题变成了“看门狗2”——一个即将要发布的游戏。

案例二:

还有更严重的。计算机算法运行没几天,Facebook的热门话题上居然出现了假新闻,宣称福克斯新闻网炒掉了知名主持人梅根·凯利并称其为“叛徒”。好几个小时后,热门话题的团队才发现这个错误,已经被转发了数千次,可能有数百万用户看到了这条新闻。44%的美国Facebook用户会通过热门话题获取新闻,但却出现假新闻,这回可尴尬了。

内5.jpg

福克斯主持人梅根·凯利

案例三:

Pastemagazine网站的编辑在他的Facebook的热门话题上发现了一个“小错误”。

热门话题排行榜的一个关键词Dropbox的介绍,一条是关于其用户的个人信息被盗的新闻,一条是关于夏威夷big island上的两座火山爆发了,还有一条——据这位编辑猜测——是关于Instagram终于增加了图片的缩放功能,毕竟这条新闻近期很热门啊。

但是当点进去的时候,才发现是一条关于贾斯汀 比伯在他的Instagram上发了一条有关他的狗狗的帖子。尽管这条新闻在热门上只存在了一会儿,但是这是Facebook的算法把这样的新闻推上了热门、自动生成了新闻描述和图片、还给出了指向这条新闻的链接。是有“人”发现这条新闻并不热门,还是算法发现的?

人还是有用的

Facebook的算法决定哪些话题热门,但人决定哪些新闻能上热门。Facebook的编辑们会撤换不合适的或假的新闻。

真心希望编辑们的速度够快。

内6.jpg

Facebook之所以撤换编辑团队,用算法编辑热门话题可能还与今年年初的一条新闻有关。

今年初,负责Facebook“热门话题”的几名编辑说有人鼓励他们把保守派新闻网站的内容排除在“热门话题”的排行榜之外。尽管Facebook矢口否认,但是仍引起了轩然大波。

改变热门话题的编辑程序后,Facebook也在声明中提到:“虽然很重视报道中的指控,但是我们并没有发现任何存在偏见的证据。我们用算法编辑热门话题就是为了避免人为的偏见。”

声明中提及了“人为的偏见”,但并没有说明编辑们是如何操作才产生偏见的。当然,利用算法确实会减少人为偏见,但还是不可避免地产生偏见,毕竟算法是由人做出来的。此外,编辑仍会剔除他们认为的不适合展示的话题。

内7.jpg

政治偏见:共和党?民主党?

总之,最后仍由人来决定Facebook用户能看到什么样的新闻,Facebook也不会明说人到底起着什么样的作用。

什么是真正的热门

之前,Facebook的热门话题上还充满了标题党,但最近Facebook终于出手整治,通过分享量决定热门程度。可问题又出现了。很多分享量很大的文章都无关痛痒,大部分是些娱乐化的内容。

如今,Facebook利用人和计算机算法双重保障决定热门,但却分不清哪些是权威新闻,哪些是假新闻。

人和计算机算法似乎配合还不够默契,还没有完美地给Facebook用户展示有新闻价值的热门话题。

用户真正应该担忧的是,是Facebook在决定着什么是热门话题,什么应该是热门话题。美国有很多用户会通过Facebook的热门话题了解新闻,但是Facebook并没有向用户明确表明决定热门话题的方式。Facebook说他们会“保持中立”,但他们并没有意识到自己在传播新闻和观点方面的强大影响力。

内8.jpg

Facebook的热门话题上经常充斥着娱乐新闻,这不禁让人担心是大众真的在关心这类新闻,还是Facebook只想让用户看这类新闻?为什么有些热门新闻偏偏来自不知名的网站?Facebook真的清楚他们的热门是怎么得来的吗?

这可能是由于人和算法共同决定了热门内容,这其中不免出现偏见,而且不会区分什么是真正的热门。

从以上方面来看,美国的Facebook用户不应该通过Facebook的热门话题了解新闻。可是话又说回来,Facebook这样强大的科技公司都不能提供没有偏见的新闻热门,用户还能指望谁?

总之,只要有人的行为,Facebook有再先进的科技也不可避免地让热门话题上存在着偏见。退一步来说,即使Facebook能够提供一种算法,自动形成没有偏见的内容,但谁又能保证记者们写的文章不带有偏见呢?所以,Facebook上的信息只是提供了一种获得新闻的渠道,不能过分依赖。用户如果不想让人为的偏见左右自己,那只能靠自己多听多看了。

观后感

已有5人参与

4票 1票 0票 0票
棒呆 深奥 枯燥 什么
给小编个吻 和小编聊聊 按在地上揍 这也叫文章
棒呆 深奥 枯燥 什么
给小编个吻 和小编聊聊 按在地上揍 这也叫文章
分享给小伙伴们
        

扫描二维码下载GET资讯

上瘾全世界的好新闻

反馈