智能机器的现实风险

智能机器的现实风险

当人们问我是干什么的,我常常对回答的深度感到困惑。说“人工智能”我很满意,但太宽泛,而说“图像处理”可能又太具体。然而,一听到接下的来的毫不相干的问题我总是气不打一处来。

“人工智能要主宰世界吗?”

做为一位研究机器智能的人来说,这个问题的确让我失望。我不能责怪这些怀疑者——人们大都认为人工智能是某种未知而神秘的东西,密谋着最终要杀光我们所有人,因为它能预测下一场我们想看的电影是香肠派对,此前我们看了一整夜的埃文·戈登伯格的片子。

许多人没想到的是,不管我们认为自己多么奇特,我们的选择和基本智能都遵循着普遍的模式,对于这种模式计算机只要看多了就很容易识别出来。

这就使得 预测你所喜欢的音乐, 或建议我们在方便时所用的正确手机应用 等方面对于机器来说是小菜一碟。我并不是说所有的 预测工作都具有同样的性质和难度,但指望该研究领域之外的人理解它是有难度。

理解我们目前的人工智能技术所擅长之处的关键是知道计算机在两种基本环境中学习得特别好——i)受控环境,和ii)监督之下。

我们看到谷歌的人工围棋机器最近击败了最佳人类棋手。战胜国际象棋的事早在我们还是孩童时就实现了。最近所看到的 许多有关击败人类的论文都提到Doom。其实在游戏中,你知道可能的结局、战斗环境和你能采取的行动,这使得建模问题容易得多。一旦我们能对游戏所处的世界进行建模,从模拟中学习则是下一部分——我们在硬件上实现了飞跃,大规模学习能力让 AlphaGo 能 在最近实现突破。 (其理论一直存在)。

游戏是一种在受监督、 受控环境下的最佳实例。在这种环境中,你能估计每次所采取行动所得到的惩罚,因此能有效地从错误中进行学习。督控环境的另一个例子是我们正在谈论的电影预测。由于有记录大批用户和电影的表存在,加上用户选择模式,我们就有了预测下一部电影所需要的东西。

在督控环境中,我们知道要获取哪种信息,因此能用同样的方式处理类似的信息位。我们创建对象组,这有助于我们最终在需要做出预测时确定实现的算法。这是类似人类的智能人一般性学习的非常窄的子集。

人类在与环境作用中不仅发育了逻辑还有直观,而且基本上是在没有监督的情况下实现的。象识别物体和理解物理原理的过程每一秒都在发生,总体来说,我们通过与它交互而学到更多有关的新信息。而在这方面,现在的计算机做得一塌糊涂。

智能机器的现实风险

图像分类程序(Image Classifier)示意图 (image courtesy: wildML.com)

今天,如果你想要机器能在照片中认出你的车,你得告诉它要看什么(你的照片)以及你的车象什么。只要你提供大量有关你车的图像, 那么它肯定能认出它。亦即监督中的学习, 监督是说你指出你的车在图像中的样子,然后它就懂得要找什么。今天计算机科学家正努力理解有没有监督或很少监督下的学习——无监督学习。我们最终要让机器自己能明白什么是物体什么是场景而不用我们去明示。

不用监督或很少监督的学习是个难点,人工智能研究大多集中在处理这个问题。我们的机器智能越来越高,但大数是在监控的环境中。我们首先需要懂得如何让机器人在无监控下学习, 从而让系统有接近人类的智能。

所以说,谈论机器人消灭人类,甚至谈到机器人的‘意识’仍然是遥不可及的事。然而,来自人工智能的一项更为严重的威胁正在逼近,并可能产生严重的影响。

就在本次会议刚刚开始时,我从前的顾问就第一次提到某种让我质疑人工智能应用的事。

在早期人工智能技术中, 我们能轻易地理解算法为什么要那样做。例如,我们想制造一台能仅通过测量人的身高和体重而告诉他是否超重的机器。为此,我们只要计算该人的身体质量指数(BMI)就行了,如果他过了某和临界值就说他超重了。

这是非常原始的人工智能代理。实际上它只做逻辑判断。

智能机器的现实风险

早期名为决策树的算法通过检查具体特征而将数据切分。 [Image courtesy : Wikipedia]

于今所使用的机器显然没那么简单。它们采用复杂的海量输入(如高清图像) 并且需要对其内容进行细微的预测。象临界值或决策树在这里不起作用。系统越来越多地使用一套被统称为 深度学习的算法, 这种计算密集技术能象人一样运用大量数据识别和学习具体模式。

智能机器的现实风险

一种典型的深度学习技术包含数个神经元(圈),它们象人脑一样互相连接,传递信息。 [Image courtesy neuralnetworksanddeeplearning.com]

这些系统虽然因需要大量数据进行学习而学得慢,但对于它们的工作干得非常出色。

但会有陷阱——一旦它们得出结论,尽然结论正确,但我们大多无法准确得知它是如何得出的。

这听起来并不值得大惊小怪。在机器学习系统中,我们有两类数据——特征和标注。特征是系统所观察到的变量,而标注是我们要预测的量。例如在前面肥胖探测器的例子中,特征是一个人的体重和身高,而标注是超重或健康。对于从图片上探测癌细胞来说,特征是几个器官的图像,而标注是上述图像是否有癌细胞。

智能机器的现实风险

这些是癌细胞算法必须完成的工作。[Image Courtesy: CNN]

机器学习算法解决问题的办法通常是对每个特征赋上“加权值”,求它们的和并最终基于该和的值做出决定。例如,如果叫你预测苹果是否变质,你可能会去闻苹果的气味、看它的颜色,最后去摸它,心理上对每种特征赋上加权值。

智能机器的现实风险

如果苹果真的腐烂,只看颜色就够了

计算机遵循着类似的高级意识,只不过那些“权值”是通过使用不同的优化技术通过计算获得的。但在深度学习中, 我们并不能确定我们想看哪种特征,更别提赋值了。那我们怎办?我们让计算机自己学习最佳特征,然后以最佳方式将其进行组合来做出预测,在某种程度上类似人脑的工作方式。

这种思想产生了令人震惊的结果,特别是在计算机视觉(即研究让计算机理解视觉数据),高性能GPU的出现和新颖的结构让学习图像一级的概念轻而易举。但要说明一点——我们所说的这些特征,亦即这些算法所学到的特征 不太直观,与我们传统技术很不一样。

智能机器的现实风险

这些是计算机寻找图像的实例——从视觉上看它们似乎是在探测形状,但对于非视觉数据来说,情况就不那么直接[Image Courtesy — Yann LeCun’s ICML 2013 tutorial]

一般人并不把它当回事——那时在技术上也不是大不了的问题,用人工智能所做的工作都很具体,如在图像中识别人和物体, 跟踪人脸以及生成地址抽样。于是我们有了一个很妙的主意来表达算法所学的内容 (事实上, 这个演示是这方面最近发展情况,相当酷)。但当我们开始针对有预测风险的任务运用深度学习时,每次预测都必须站得住脚。

比喻说你是家银行,你有所有客户的交易和信用的历史记录。你用复杂的深度学习算法弄清贷款不还者。既然你有庞大的用户行为模式的数据库,你的算法可能让你准确地写成这项工作,但有种情况除外:一旦你真的怀疑一位未来欠款人,你弄不清到底是什么导致怀疑,从而让这种预测判断更加困难。

大多深度学习系统并没有良好的技术理解其决策能力,这是目前活跃的研究领域。对于某些特定任务的深度网络,尤其是计算机视觉,我们在理解这些系统上有所进步——相当程度地确定促使算法那样做的位点。但总的来看,需要做的工作还不少。

机器学习系统有个严重的障碍——需要手动输入来让它们正确地区分信号与噪音。或者从技术术语说, 过度拟合。这个技术行话的意思是说,当一个模型必须适合于某个集合的数据时,要对更新的未知数据做出预测,它会在学习中 过于顺从它已经收集到的数据。结果在现实世界中应用时不会有良好的表现。

这意味着模型一般会开始搜索存用于算法训练的数据而并不存在于现实世界的模式。有多种方式理解过度拟合,现实生活中存在一些过度拟合的事例,简单一例是在你当地夏天时你把手提箱塞满了夏天穿的衣服,而在阿姆斯特丹是11度,在那里你会瑟瑟发抖。

智能机器的现实风险

这就是过度拟合的样子,最后一条曲线发出噪音。 [Image courtesy — StackExchange]

就过度拟合说些题外话是为了强调机器学习系统责任的重要性。如果我们无法理解并弄清这些算法在学什么,我们就无法说出它们是不是过度拟合。这种不良影响的事例还有,比如机器根据浏览历史中预测可疑行为,由于它所看到的大多用户都是——比方说——来自美国的十九岁的人,于是它的侧重不在来自美国的十九岁的用户,尽管他们搜索历史大多有 PewDiePie 视频。

当深度学习越来越多地应用于艰深的推导工作时,这种影响会呈指数增加。例如,我们看到许多研究进入到医学图像预测,这种应用需要承担更大责任。另外,一旦这种预测规模大到无法进行人工检验时,我们需要系统让我们理解并调整这些算法所考虑的内容。

这种威胁正在来临,但也成了研究对象,投入的时间越多,更好的解决方案就更有可能出现。但我们必须认识到模型责任的重要性,尤其是当我们开发让生活变得更为轻松的新系统时。我们用一个例子来结束谈话——

如果一个人撞了车,我们会让他担责并理解事故为什么发生,可能是酒驾或在给人发短信。

但如果自动驾驶车撞上另一辆并让一位乘客致死,谁会担责呢,原因如何?你如何确保下次不会发生呢?

这种事故最近已经发生了好几起 , 随着更多的系统使用人工智能,会出现更多失误。要进行纠正,我们需要知道错在哪——这是人工智能今天所面临的主要挑战。

本文译者为:kundogma

原文来自:bullshit

相关推荐