移动的孩子成为射杀目标?AI武器必须遭声讨!

移动的孩子成为射杀目标?AI武器必须遭声讨!

相信不少同学们对电影《终结者》不会陌生,施瓦辛格扮演的终结者机器人杀手绝对让人不寒而栗。

移动的孩子成为射杀目标?AI武器必须遭声讨!

如果电影中的场景成真会怎样?近日有报道称,韩国正在研发“终结者”现实版机器人,引发了剧烈的国际反响。

虽然韩国随后做出回应,表示设立该实验项目并非试图制造自主武器,而是为了研发适用于作战指挥、目标追踪和无人水下交通等领域的人工智能系统。但这一消息,还是引发了全球多名顶尖学者的联名抵制。

这么说来,韩国是打算研发一个“天网”?也许,是研究人员们电影看多了?

移动的孩子成为射杀目标?AI武器必须遭声讨!

其实一直以来,对于AI自主武器研发的态度,各界均表现得十分谨慎。从2017年起,联合国便开始对AI武器给予重点关注,提倡各国注意规避风险。而该领域,更是一众AI学者心中等同于“原子弹”、“克隆人”的禁区。

移动的孩子成为射杀目标?AI武器必须遭声讨!

自主武器与现有AI武器有何区别?

实际上,AI武器的研发已经有了不短的历史,军用无人机也已相继在86个国家中被大批量投放于战场。它们搭载着精准的定位系统、图像识别系统,并根据任务需求配备小型炸弹等武器。美国就曾利用这样的无人机,对阿富汗塔利班进行了轰炸。

移动的孩子成为射杀目标?AI武器必须遭声讨!

移动的孩子成为射杀目标?AI武器必须遭声讨!

美军士兵在战场上装配战斗机器人

但为何此次韩国研发自主武器,却遭到了全球性的声讨?

其实,虽然诸如无人机一类的AI武器已经可以被视为初级阶段的“机器人杀手”,与之相比,自主武器只是在现有AI武器上更近了一步,但这小小的“一步”,却让两者有着本质区别。

所谓自主武器,是基于人工智能的“机器人杀手”,可在不受人工操作员的控制之下消灭目标。在攻击目标前,机器人搭载的决策算法可进行自主决策,从而实现更有效率的目标打击。

移动的孩子成为射杀目标?AI武器必须遭声讨!

让我们打个比方吧,同样是韩国的警戒机器人,搭载普通AI系统的机器人在发现有移动物体靠近时,会向指挥中心发出警报,由操作员根据现场发回的信息决定是否开火;而搭载自主决策系统的机器人,则会自主判断该物体是什么、是否会产生威胁,一旦决策系统认定面前这个包着头巾鬼鬼祟祟的人是前来获取情报的探子,那么就会立即将其射杀。

相比发出警报再由人类操作手决定应对方式的普通AI机器人,自主武器机器人将大大提升决策效率,它不仅可以为指挥中心排除绝大部分虚假情报,还可以避免因决策过程贻误战机而造成的损失。

由于战场上的情况瞬息万变,指挥中心单位时间内处理的信息十分有限,要实现机器人代替人类士兵作战,研发自主武器是无法绕开的一个命题。

移动的孩子成为射杀目标?AI武器必须遭声讨!

AI武器,有何风险?

从普通AI武器到自主武器,最大的变化,在于决定人类生死的从机器人背后的操作人员,变成了机器内在的决策系统。这是具有极大风险的。

移动的孩子成为射杀目标?AI武器必须遭声讨!

首先,从技术角度来讲,目前的机器决策系统还不够成熟。

对于机器决策模型的训练主要有三种方式,一种是将不同的情况输入数据库,并将其与对应措施作匹配,也就是所谓的监督学习。

它让AI在某些固定的情境下可以形成固定的决策。仍然以警戒机器人为例,当AI的决策模型里存在有“当发出警报三次后,该物体还在持续靠近,则攻击该可疑目标”的决策指令时,在每次攻击之前,AI都会发出三次警告,并在三次警告后,如果对方持续靠近,那么机器人一定会攻击目标。但这样的训练内容只能帮助AI“学会”判断一些简单的情况。

如果机器人的决策对象是无法听懂警告,并充满好奇心的小孩呢?此时,机器人还需要学会分辨“只是因为好奇而靠近的小孩”、“带有自杀式武器的小孩”、“收了敌军糖果来打探消息的小孩”。除了小孩,警戒机器人还会遇到千千万万个类似的事件,甚至其中的很大一部分,就连人类也无法对其有准确地判断。这时候,研究人员将会引入无监督学习——让机器自动地对这些事件里的要素进行分类。

这一过程充满了不确定性,极为容易出现决策失误。就算我们引入了第三种方式——强化学习,即在机器训练中,在AI对于模拟情景给出正确决策时给予其奖励信号,提升AI正确决策的可能性,也仍旧无法避免机器会把所有“长期停留在一定距离内,口袋里有糖”的儿童统统当作“收了敌军糖果来打探消息的小孩”这种决策结果的产生。

其次,诸如AlphaGo这样的产品已经表现出,其在某些方面的决策能力强于人类。但是为何各界对于AI自主武器的声讨却仍旧如此激烈呢?因为运用机器决定人的生死,并不符合人类社会的伦理法度。毕竟,AI作为人类的产物,从一开始就不具备和人类等同的地位。机器人决定人类生杀大事,实际上就等同于“低等生物”统治高等生物,是无法为人所接受的。就像,家里养的猪突然有一天要宰了你吃肉一样。

移动的孩子成为射杀目标?AI武器必须遭声讨!

不仅如此,由于AI的决策模型归根结底还是依据固定程序做出判断,既没有责任主体,也不会产生伦理束缚及道德困境,更不会对杀戮进行反思。这样的自主武器一旦投放,战争的残酷性会被大大增加。

再想象一下,万一自主武器被不怀好意的人所用,比如现在威胁全球安全的恐怖主义份子……后果简直难以预料,也许,AI自主武器会被改装成“狰狞的嗜血怪物”!

怎么样,听上去是不是有一种吓尿了的赶脚?

移动的孩子成为射杀目标?AI武器必须遭声讨!

移动的孩子成为射杀目标?AI武器必须遭声讨!

读芯君开扒

韩国被抵制,其实还是政治博弈

其实,许多国家明里暗里都在进行AI辅助的武器系统及防御系统。前不久,美国国防部研究与工程副部长还在媒体上讲话称,未来的美国有可能参与到AI军备战争的准备工作中,并称俄罗斯早已开始相关领域的实践。

AI武器是潘多拉魔盒,韩国并非是第一个试图打开它的人。近日来的报道更像是一场政治博弈,而非对AI武器研发的一次学界自发性约束行为。不过作为吃瓜群众,我们只能祈祷研究人员们能因为这次论战而更加谨慎,规避风险。

留言 点赞 发个朋友圈

我们一起探讨AI落地的最后一公里

作者:羊习习

参考文献链接:

http://xmwb.xinmin.cn/lab/html/2018-04/12/content_21_2.htm

http://www.sohu.com/a/227562091_473283

如需转载,请后台留言,遵守转载规范

相关推荐