担心AI统治人类?如何克服人工智能的“瘆人因素”?

本文转载自公众号“读芯术”(ID:AI_Discovery)

人工智能的应用越来越广泛,在我们日常生活中所发挥的作用也越来越大了。但是也正因为此,一些人对它很难接受,至少在有意识的情况下会望而却步。你可能喜欢手机自动标记照片,但却常常忘记这技术源于人工智能的驱动。人们不愿意相信他们不太了解的技术,尤其是当技术听起来有点毛骨悚然时。

担心AI统治人类?如何克服人工智能的“瘆人因素”?

2017年,埃隆·马斯克在全国州长协会上说道:“我接触过最前沿的人工智能,我认为人们应该关注这项技术,人工智能是人类文明存在的根本风险。”

人工智能有时比专家更能准确地预测人类的行为。人们不喜欢无法掌控数据收集和使用方式的感觉,尤其当人工智能使用这些数据让人采取特定行动时。众所周知,用户体验(UX)是创建模型时重要的考量因素,但许多数据科学家并没有忘记积极的用户体验中一个重要部分:最小化人工智能的“}人”因素。

“手机正在监视我们”及人工智能的其他阴谋

技术的进步和数据不断增长的可用性使人工智能变得愈发强大,也更加精确。这对热爱技术的人来说是值得兴奋的,但其可怕之处所在。如今的算法可以用更少的信息(至少是已知提供的信息)预测更多的个人信息,有时候人工智能似乎能读懂我们的想法——或者至少是在偷听我们说话。

手机出于营销目的一直秘密记录和监视着我们,这是近些年来互联网上甚嚣尘上的顶级阴谋论——甚至一些备受尊重的技术专家和记者也持相同看法。从英国广播公司BBC、《时尚先生》到《Vox》,关于这一话题的讨论处处可见。早在2017年,播客栏目“/reply-all/”就做过一档关于手机监听的节目。如今,越来越多的人开始担心,手机在未获得广告定位许可的情况下记录他们的私人对话。

我们无法准确知道手机记录了多少音频,不过多数专家已经确定,大多数应用程序不使用录音功能用于精准广告定位。不是因为他们不能,而是因为没有必要。人工智能追踪是如此复杂,已经准确到无需考虑音频采集的技术和存储的需求。人们不经意间提供了太多关于自己的信息,以至于无论如何我们都有可能成为众矢之的。

美国东北大学教授、手机隐私安全问题研究员大卫·乔芬斯说:“我们往往以人类看待事物的方式看待监控。如果有人知道你和朋友谈论的某件事,这就意味着他们在听你说话,但我认为,大多数人很难将他们在网上活动中泄露的信息与这些可以向他们投放广告的公司联系起来。”

世界各国政府发布的许多新冠病毒追踪应用程序可能潜藏着新的“阴谋”,人们担心下载这些应用会让政府在未来持续随时随地追踪他们。在意大利,由于一些阴谋论和对于隐私和安全的担忧,“Immuni app”未能获得过多关注。人们对人工智能时刻监视自己感到不寒而栗,疫情由此引发了人们的更多恐惧。

洞窥全局、无所不知的人工智能也许并非现实的完美复刻,但这并不意味着要对当前的人工智能水平放松警惕。我们担心的是脸书的数据收集和跟踪,当生活中最明显的人工智能案例似乎是通过监视来实现的时候,这种忧虑不难理解。

人工智能可以在不让人担忧情况下提供个性化的推荐吗?

个性化推荐是个好主意,在适宜的时间得到恰当的报价对人们大有裨益,对提出报价的公司也有同样的帮助。通常,如果人工智能能帮助人们更有效地解决问题,即使是那些声称对AI感到担忧的人也绝不会排斥使用这项技术。

事实上,大多数人工智能不会让我们害怕。人们并没有注意到自己每天会大量接触的人工智能技术,有时是因为它们不够复杂,不足以困扰人们。你很难找到一个客户服务聊天机器人,只对更具威胁性而不是刺激性的精确输入做出反应。其他人工智能完美融入我们曾使用过的功能,以至于我们只注意到那是服务的改进。当苹果公司发明人脸识别解锁苹果手机时,大多数人都为其便利而兴奋不已,而不是担心人工智能的影响。

然而,大多数情况下,没有注意到人工智能的使用是因为人们只看结果。人们与人工智能本身没有直接的互动,只注意到它如何让生活更轻松。例如,很多顾客不会知道他们可以买到合适尺寸的所需商品,是因为Evo Replenish算法使用预测供应链防止新款流行衬衫缺货。顾客无法知道商店如何决定库存,他们可能也不会在意。

满满当当的货架十分方便,杜绝这一问题的人工智能并不令人毛骨悚然,因为它的预测和建议不是在个人层面上做出的。如果没有说某个人要买某个特定的产品,只是说那一周会有15个人购买,笔者并不担心隐私的泄露问题。

人工智能的预测和个性化推荐最令人不安的是,我们不能理解它如何得出关于个人的结论,或者它太像人类却没有被披露为人工智能。因此,公开透明且以人为本的设计将会大大降低人工智能带来的顾虑。

不恐怖的人工智能是透明的

人工智能运作方式越透明,它就越不令人害怕。人们往往会怀疑不理解的东西,当你面对一些不了解的事情,而这些事情却似乎很了解你,这不仅仅让人起疑,更令人害怕。如果现在不理解这项技术是如何运作,如何能预见灾难?没有透明度,人工智能更像是一种威胁——这最终让人工智能变得如此面目可惧。

比如脸书通过手机窃听的说法。人们之所以这样怀疑,是因为脸书拒绝透露他们收集了哪些关于人们的信息,以及他们如何利用这些数据来精准投放广告。

技术记者、“Reply All”的联合主持人PJ·沃格特说:“脸书制造了这个问题,因为他们非常擅长收集关于我们的信息。他们不会公开收集的内容或方式,因此,这基本上是在迫使人们联想到一种最简单粗暴的获取信息的方式,那就是窃听。”

透明度还意味着明确数据收集和处理的方式。如果不能解释需要数据的原因,收集大量关于个人的可识别信息总是让人毛骨悚然。这就是为什么应该坦率地说明需要特定信息的原因,并尽可能匿名。

这种数据透明度不会伤害人工智能模型。Evo的算法仍在处理超过12亿人的数据,以进行供应链和定价预测;Evo只是以这样一种方式收集数据,从数据库中完全排除任何识别信息。由此产生的人工智能建议不受其影响,但模型变得更加透明。只要从第一天开始就计划透明公开,就有可能在不损害结果准确性的情况下,诚实地说明使用的是什么数据以及如何获得这些数据。

以人为本的人工智能设计帮助建立有用的模型,且不会吓跑用户

虽然透明度必不可少,但若是人工智能帮助人们获得理想结果,大多数人还是能接受它有一点点“吓人”的。调查显示,如果人工智能在问题出现之前能避免问题、快速解决问题或最大限度地降低复杂性,大约75%的人并不会介意使用侵入式人工智能。

当人工智能带来的是更多推荐你曾考虑购买的产品推销广告,知道被跟踪也许会让你心生胆怯,相较之下,警告人们数据泄露的追踪就不这么使人忧虑。当人工智能解决的问题能帮助人们,而不是帮助公司推销产品时,人们就会愿意做出妥协。

以谷歌地图为例,当地图自动为谷歌日历中代办事项规划导航时,很少有人会对其心有悸然;谷歌拥有的这些信息从何而来,人们了然于胸。当“地图”开始直接从Gmail中为会议或活动进行规划建议时,人们开始惶恐不安,因为他们并没有把它编入日历。

尽管如此,这个功能还是很有用,很少有人抱怨。只有当地图开始根据时间和习惯预测用户目的地时,人们才会真正发作。这种推荐更具侵入性,一方面是因为它让跟踪更加直白,但另一方面它并非总是有用。如果不需要这些导航,对于谷歌熟知你的日常行程路线,你并不会心存感激。

这就是为什么正确用人工智能解决问题如此重要。以人为本的人工智能设计优先考虑终端用户的需求,并确保人工智能不会让人感觉受到干扰。如果你创建一个算法,可以为每个与人工智能互动的人解决问题,你必然会最小化负面反应。至少,人工智能应该尊重人们对隐私和控制感的需求。把与人工智能互动的人放在第一位,从他们的角度思考。由此产生的以人为本的人工智能就不那么令人不安。

人工智能将继续改善人们的生活,但前提是它能够取得人们的信任。如果不能最小化其可怕性,它就不能充分发挥潜力。在保护人们免受潜在负面影响之时,所失去的好处比想象中少得多。

相关推荐