迎合我们、极化我们,最后分裂我们:请对社交媒体之恶保持警惕

在中国,「人工智能」和「移动互联网」一样,受到了大众的普遍欢迎。然而在美国,以 Twitter 和 Facebook 为首的社交网络正在因其算法「纵容俄罗斯散布虚假新闻并操纵选举」而受到大规模的讨伐。本文作者 Natasha Lomas 就以饱含愤怒的口吻描述了「社交网络如何作恶」,并呼吁全体公众保持警惕。

编译 | 陈韵竹 王宇欣 邱陆陆

作者 | Natasha Lomas

来源 | TechCrunch

在科技领域,有些东西已经烂到骨子里了。

不过,在种种针对虚假新闻的绝望情绪中,在对于克里姆林宫用虚假消息扭曲了美国大选结果的控诉中、在各政治联盟呼吁科技巨头保有社会良知的呼声里,我们逐渐形成了一个更加复杂的认知。

虚假新闻和虚假情报只是那些错误和腐烂的一小部分。平台巨头们存在的问题其实要更为本质。

关键问题在于,这些功能强大的算法引擎都是黑箱。而且,当你从用户的角度注视这些算法时,每个用户只能看到自己被分发的内容。

社交媒体制造了一个巨大的谎言,宣称它们向我们展示了整个世界。并且接着谎称:它们技术产品拉近了我们的距离。

但是,社交媒体和电话不一样,它不是「望远镜」这样单纯帮助我们获得更多事实的工具。实际上,它是一个导致意见分裂的「棱镜」,它用越来越浓的过滤器泡沫砌成墙,取代了原来由全社会共享的公共领域及不断交叠的领域间披露,并借此破坏社会凝聚力。

社交媒体并非连接社会的结缔组织,而是类基因工程中的细胞分裂机制,将每个人视作独立单位,然后与他人剥离开。

请仔细想一想吧。这简直是密集恐惧症的噩梦。

或者,社交媒体可以被比作一个环形监狱——每个人都被关在一个小房间里,而平台的控制者通过单向玻璃塔监视着所有人的一举一动。

因此,消息能够通过社交平台迅速地扩散、膨胀也就不足为奇了——社交网络不仅急剧加快了信息传播的速度,还蓄意引导用户沉浸在其自我的偏见中。

它迎合我们、极化我们,最后分裂我们。

当我们登录 Facebook,或者在 Google 上查看个性化的搜索结果时,就好像被推进了一间黑漆漆的独座电影院,房间里没有窗户,没有门,我们被戴上定制化调频的耳机,观看一部不断循环的定制电影。

是不是有幽闭恐惧症的感觉?

算法引擎坚信你会喜欢这部电影。因为它知道你最喜欢的演员是谁,你最爱的电影类型是什么,闭起双眼你最挂念谁,眼睛张开身边竟是谁。

它了解你的政治观点、你的朋友,知道你要去哪儿。它一刻不停地监视着你,然后把全部的观察打包成这部量身定制的、不断迭代的、情绪操控的电影,只为你一人放映。

它的秘诀就是从互联网的每一个角落里刮取你不经意留下的有关自身好恶的碎片,然后将其混合在一起。(你在线下表露出的习惯也逃不过它们的魔爪——它会雇佣数据中介去偷取这些信息的。)

其他人根本看不到这部电影,他们甚至都不知道它的存在。没有广告为它的上映做宣传——为一部只属于你的电影投放广告有什么意义呢?但无论如何,个性化内容几乎能保证把你牢牢绑在座位上。

如果社交媒体平台是火腿肠工厂,我们至少可以在运输车驶出工厂大门的时候拦住它们,探测那些塑料包装里有着肉的颜色的物质到底有什么化学成分,以及它是否真的像广告里声称的那样美味。

虽然我们仍然需要上千次的测试才能获得有关每袋火腿肠的有意义的数据。但是这至少是一项有可能完成的任务。

可是这些社交网络平台根本不生产实体产品,也不会给我们留下任何可追踪的实体证据。

烟雾与镜子

如果你试图了解平台的「信息是怎样炼成的」,你需要拿到访问平台的算法黑箱的权限。但是算法都是被锁在企业总部大楼里的——门外竖着醒目的大牌子,上书「私人所有!游客止步!商业机密!」

只有工程师和平台所有者才有权访问。而且即使是他们,也不一定总能理解机器正在做出的决定。

但是我们怎么能容忍这种信息不对称呢?如果我们,公众——平台指望着我们做它的数据来源、内容来源、收入来源,换句话说我们就是它们的商业模型——不知道我们是如何被它们通过涓滴细流的推送区分开的,那么我们如何判断这项科技如何影响一个人、影响一个群体,如何了解它如何将系统化并重塑这个社会?

直到我们切实地受到了伤害,我们都无法衡量其影响。

如果我们无法获得有意义的统计数据,我们怎么能判断,我们花在这样那样的迎合我们偏见的广告平台上的时间是有价值的?

当一个火车站甚至不得不挂起标志牌,警告父母们「别再看手机了,看好自己的孩子吧」时,我们应该作何感想?

是这个社会上突然出现了一群白痴吗?还是我们的注意力被以一种不正当的形式剥夺了?

当科技公司的 CEO 们公开承认,他们不希望自己的孩子去碰他们开发并极力推销给其他人的产品时,我们应该作何感想?

听上去,就连他们自己也承认,社交网络,可能就是新型毒品。

外部研究者一直试图绘制互联网上的观点及其影响力的流动图,试图以此量化平台巨头们的社会影响力。

然而,举个例子,Twitter 就又当又立地仗着自己信息分发渠道的身份,对这些研究成果挑三拣四,把它们不喜欢的结论批评得一文不值,给出的理由居然是,这些研究者的信息是不完整的,因此结论是有缺陷的。

为什么信息不完整?因为外部研究人员无法获得 Twitter 的全部信息流。为什么无法获得全部信息流?因为研究者看不到 Twitter 的算法影响数据的过程,也看不到每个推特用户如何反过来影响 Twitter 生产「香肠」并决定给谁吃的方式过程。

为什么研究人员看不到这个过程来着?哦,因为 Twitter 不会给任何外部人士访问权限。抱歉,你没看到大大的「游客止步」标志竖在那儿吗?

而且,如果政治家对公司施压,让他们交出那些只有 Twitter 内部才能看到的数据的时候,得到的只是另一些 Twitter 出于公司利益考量而筛选过的数据垃圾罢了。

我们如何能指望 Facebook 去建立起有力的、严格的政治营销披露系统呢?他们连公司现有的广告标准都维持不了。

扎克伯格希望我们能相信他会做出正确的选项。可是他是这样一家科技巨头的 CEO,是一个蓄意无视人们对 Facebook 上猖獗的恶意虚假信息的担忧的人,是一个对那些相当有见地的政治家发出的「虚假新闻会影响国家的民主性」警告充耳不闻的人。

偏见的黑箱

在假新闻成为危及 Facebook 经营的生死存亡的危机之前,Zuckerberg 对那些关于 Facebook 上内容的担忧总是一副轻描淡写的态度——他有一套极为无耻的说辞:「我们不是一家媒体公司;我们是一家科技公司」。

事实证明,他或许没说错。因为媒体监管规则可能并不适用于科技平台。大型科技平台确实需要一种针对它们量身定制的监管规则。这种监管规则要针对出他们生产出的——密集恐惧症请闭眼——40 亿款定制化产品的超级指向性特征作出限制。

近年来,我们听到一些呼声,呼吁「监管人员应该持有算法黑箱的访问权限,并对其进行监管」。

随着人工智能愈发广泛的应用,这种呼声会越来越强烈。如果科技公司可以不受监管地将对其有利的偏见信息放入他们的算法黑箱里,那么这种偏见将会随着平台的扩张而飞速蔓延。

难么,让平台自曝其短就是公平正义的吗?或者起码要求平台接到一定规模的投诉之前、在一些具有足够影响力的大人物注意到这件事并为此发声之前,就这么做?

建立算法追责制度不是说,出现了一个小技术故障,需要我们要投入大量人力物力来做逆向工程。我们必须建立适当的流程和有意义的追责制度,不惜任何代价。

如果人们发现,巨头平台每次回答那些影响范围远超自身商业利益的问题时,都在有意推诿并且捏造事实——而这些问题的答案,让我再强调一遍,只有他们拥有——那么打破黑箱的呼吁将会愈演愈烈,因为这将会得到全体民众的支持。

立法者已经开始留意算法追责一词了。我们听到这个概念被频繁提及。相应的风险逐渐获得清晰的解读。而现有的危害也正在被评估。在这些超级平台耗时十余年在公众身上进行这场大型超级个性化实验之后,算法黑箱正在失去公众的信赖。

如今,没有人会怀疑这些平台会影响乃至重塑公共讨论的走向了。但是,最可怕的是,近年来,算法通过奖励那些影响恶劣的煽动者,已经让我们的公共空间愈发粗俗、愤怒、充斥着暴行,而缺少见建设性的意见。

所以只要有足够多的人——足够多的「用户」——终于串联起了蛛丝马迹,明白了究竟是什么让他们在使用互联网的时候变得如此不安与反胃,这些产品会慢慢退出历史舞台。

因为这个问题没有工程上的解决方案。即使生成式人工智能可以很好地凭代替人类完成想象类工作,但是人工智能毕竟不是人,而科技巨头所依赖的广告需要「人」的关注。(『平台内容由用户生成』这个概念应该与并未获得广泛提及但是显著相关的『内容由用户消费』放在一起。)

本周,英国首相特蕾莎·梅在达沃斯世界经济论坛上抨击了社交媒体平台丧失社会良知的行径。

在强烈谴责了 Facebook、Twitter 和谷歌等巨头的行为之后——如她所言,这些平台推动了虐待儿童、现代奴隶制以及恐怖主义和极端主义内容的传播——她进一步指出,根据 Edelman 公司的调查显示,全球对社交媒体的信任正逐步削弱(同时,人们对新闻业的信任正在逐步攀升。)

她的潜台词很明确:如这些科技巨头担心的一样,世界领导者现在有强烈的动机,也有相应的能力,去磨刀霍霍宰向他们了。

她也不是唯一一个在达沃斯论坛上将社交媒体放在火上烤的人。

「Facebook 和谷歌已经成长为更加强大的垄断者,它们已经成为了创新的障碍并且引发了各种问题,而这些问题我们刚刚才开始意识到,」美国慈善家,亿万富翁 George Soros 如是说道。他呼吁进行相应监管行动,以打破平台对我们的控制。

虽然政治家(和记者——也许还包括 Soros)已经习惯了公众的仇视态度,但是引起公愤对于科技公司来说,还是全新的体验。这些科技公司多年来一直被「创新」这个词汇所保护着,「全民抵制」从来不曾出现在它们的字典里。就像「社会责任」一样,那是另一个近期才受到它们关注的概念。

你只需要看看 Zuckerberg 脸上那一条接一条出现的烦恼纹,就能知道这位少年得志的硅谷王者对于席卷而来的公愤,准备是多么不足。

猜谜游戏

大型科技平台的不透明性造成的糟糕、非人性化的影响不仅仅针对对其用户——连他们的内容创作者也不能幸免。

像 Youtube 这样的平台,依赖于创作者志愿大军来保证永远有源源不断的内容流向其用户。数十亿的流量从平台流向用户(同时数十亿的广告收入流入谷歌的口袋),但是平台本身和其内容创作者之间仍隔着一面不透明的屏幕。

YouTube 有一些内容政策,它要求其内容上传者必须遵守这些规则。但是谷歌一直没有严格执行这些政策。只有媒体丑闻或广告商的抵制可能会触发内容政策的强制执行,徒留创作者想尽办法应对这些「飞来横祸」。

一位创作者与 TechCrunch 联系是因为,她发布的讽刺「吃汰渍洗衣球挑战(Tide Pod Challenge)」的视频居然让她收到了安全警告。这个警告是由 YouTube 高度自动化的系统发出的,她将这个系统称为「发布者心中永远的痛」和「毫无人性的猜谜游戏」。

Aimee Davison 告诉我们,「我在 YouTube 上遇到的大部分问题都是那些自动评级,匿名标记(一项被滥用的功能),和那些指示模糊的、没什么修正权限的系统邮件支持造成的。」她还表示,「平台与内容创造者之间的合作伙伴关系需要人类与人类的直接互动、协商。YouTube 应该有一个一以贯之的审查指导方针,并且向内容创造者作出明确的说明。」

她补充说,「YouTube 需要对其内容进行充分的分级,而不是进行过度的艺术审查——他们需要人性化地管理我们的账号。」

然而 YouTube 甚至无法妥善管理那些水平最高的内容创作者,也就是那些所谓的「YouTube 明星」。

当 YouTube 的创作明星 Logan Paul(谷歌广告平台上的一位首选合作伙伴)上传了一段自己在自杀者遗体旁边开玩笑的视频时,我们究竟应该批评谁?

Paul 确实要管理自己的良知。但是对于这种行为的谴责必须要超越个人层面,因为这些个人是被平台的奖励系统所诱导,才去创作了这些「极大丰富了谷歌内容」的视频的。

在 Paul 的例子中,不止有自动系统对他发布的内容进行了审查,YouTube 工作人员手工审查并通过了他的视频。因此,即使 YouTube 声称其内容会经过人工审查,这些审查人员似乎也没有足够的时间和足够强大的工具来支持他们做好这项工作。

考虑到这项任务的难度,这也不足为奇。

谷歌表示,今年将会把执行评分审核和担任其它审查执行任务的人员增加至 10000 人。

然而,这个数字比起上传到 YouTube 上的视频数量来说,简直是九牛一毛。(据 Statista 统计,2015 年 7 月,每分钟就会有 400 小时时长的视频被上传到 YouTube 上;现在这一数据轻易达到了每分钟 600/700 小时。)

YouTube 这一免费上传内容平台的庞大规模,也使得它不可能「控制」自己的影响力。

当平台的巨大规模、普遍存在的记录机制和个性化精准定向技术同时赋予其影响和塑造整个社会的力量时,这个问题就天然存在了。

YouTube 表示,其平台覆盖了超过 10 亿用户,占整个互联网用户的三分之一。

另外,谷歌对其算法进行的内容管理以及产生的社会影响持有的「不干涉」态度,说得好听点儿,也是值得怀疑的。

事实上,连 YouTube 自己的员工都认为其算法具有极端主义倾向。

同时,YouTube 还被指控「从根本上自动化了网络的极端化过程」,将观众推向越来越极端和仇恨的观点。点击一个民粹主义右翼评论家的视频,然后看几个算法推荐的相关视频,不久你就会被推向新纳粹仇恨组织。

公司声称会修复这个人工智能极端主义的问题?然而他们还是在创造更多的人工智能 ...

呵,这就是人工智能支持的平台,看看它都做了什么,抓取并放大假新闻,加速憎恨、激励社会走向病态。

而所谓的人工智能支持的评级系统,它太笨了,根本做不到像人类那样判断语境并理解其中细微的差别。(或者说,只有给了足够的时间思考,它们才能做到这一点。)

Zuckerberg 本人在一年前,也就是 Facebook 面临的危机规模开始变得明朗的时候曾经说过,「值得注意的是,人工智能首先需要对文本、照片和视频等进行理解,才能判断这些信息否含有憎恨言论、图片暴力或是色情内容。」以及「依照我们目前的研究进度来看,我们希望能在 2017 年开始着手处理一些案例,但是对于其他案例,我们在很多年之内是无能为力的。」

当他说「很多年」,这位科技公司 CEO 的真正意思就是,「我们可能永远无法在工程上实现这一点。」

如果你参与过讨论内容审核这种非常难、非常社论化的问题,你会知道,相比之下,确定什么是恐怖主义简直是小菜一碟。

别说理解讽刺性作品了——仅仅了解某内容究竟是存在某种内在价值,还是一段仅仅是由算法剪辑而成的垃圾都十分困难。实话说,我根本不指望可以做到这一点的机器人出现。

特别是在各个领域的人们都还在呼吁科技公司展现更多的人性的时候,我更加不会报这种希望了。要知道,现在科技公司还在试图强加给我们更多的人工智能呢。

相关推荐