为什么阿西莫夫的机器人三定律行不通?

全文共2280字,预计学习时长4分钟

为什么阿西莫夫的机器人三定律行不通?

图片来源:unsplash.com/@danielkcheung

“如果电影《终结者》里的情况真实发生了怎么办?”在无数电影和科幻小说中,机器人(或者人工智能)取代人类的桥段屡见不鲜,而这也潜移默化地塑造出人们未来走向的认知。

不过有人会问,既然人类可以依据法律规定来合作共存,那为何不能让人工智能也依规行事呢?实行阿西莫夫的机器人三定律不就行了!

为什么阿西莫夫的机器人三定律行不通?

机器人三定律

艾萨克·阿西莫夫(1920-1992)不仅是一位生物化学教授,还作为科幻小说“三巨头”之一而闻名于世。在20世纪中期,他创立了“机器人三定律”,并假定严格遵守三定律可以从根本上杜绝机器人叛变。“机器人三定律”如下:

1. 第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观。

2. 第二定律:除非该命令与第一定律相悖,机器人必须服从人类给予它的命令。

3. 第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己。

但是,熟悉编程的人都知道计算机从0开始计数,而不是从1开始(MATLAB除外,但本文对此不做讨论)。Computerphile提到过“第零定律”(保护对象指的是全人类而不是个体):

第零定律:机器人必须保护人类的整体利益不受伤害。

为什么阿西莫夫的机器人三定律行不通?

这几条定律看起来差别不大,因为它们是从《我,机器人》这篇小说中整理出来的。

注意:这几条定律没有区分“机器人”(机械躯体)和“人工智能”(机械脑)。因为阿西莫夫口中的“机器人”实际上指的就是“智能类人生物”。

既然上个世纪50年代人类就制定出了这些规则,我们为什么还害怕AI呢?又是什么让埃隆·马斯克和史蒂芬·霍金将AI归为人类生存的头号威胁?一言以蔽之,阿西莫夫机器人三定律行不通。

为什么阿西莫夫的机器人三定律行不通?

三定律的漏洞

回归正题,出于忠实阿西莫夫三定律与讨论需要,假定智能到足以适用三定律的机器人确实存在,并能让三定律运用于现实世界(尽管它们只是阿西莫夫叙事体系的法则),那么现在就有个技术性问题了:如果三定律是用英文表述的,但是此AI机器人只能处理中文呢?退一步讲,即使这个机器人产于美国,我们怎么知道它是不是真的理解三定律?所以我们要做到以下两点:

1. 翻译三定律;

2. 尽可能用不同的语言(穷尽所有语言,包括拉丁语这样的死语言和机器二进制语言)传达出三定律文字背后的含义。

对人类来说,这两点联系紧密;但对于机器来说,两者大相径庭。第一点只是在不同的目标语言中创造相应的语句字符串,第二点则包含理解这些字符串。

打个比方,只做前者好比让不懂西班牙语的人唱Despacito,他们可能咬字准确,但完全不懂歌词的意思。而仅靠后者好比你知其所以然,却不知表述之法,心有万千沟壑,终是一声无言。

为什么阿西莫夫的机器人三定律行不通?

幸运的是,近几年,自然语言处理(NLP)领域进步显著,对第一个任务来说,长期记忆神经元可用于序列到序列翻译。此外,谷歌在2019年5月发布了Translatotron,它是一个端到端语音转换翻译模型。至于第二个任务,Word2Vec就够用了。Word2Vec可以将相关词绘制在一起,从而获得句子的语义。绘制过程如下:

为什么阿西莫夫的机器人三定律行不通?

从单词中推导出含义和关系

确实,现在机器都能理解人类语言了。但还有很多事它们没辙,比如理解习语。Spillthe beans是英语中的一个比喻性习语,意思是“泄密、说漏嘴”。但是机器没法翻译比喻性习语,它可能会将spillthe beans逐字直译,变成“弄洒豆子”。假设机器按正确的顺序把它翻译成法语,就会变成“jeterles haricots”,就算听起来没那么奇葩,也是明显不符合语境的。

大胆地设想一下:假如几年后,机器能够译出比喻性习语,那么AI机器人理解三定律的技术性问题也会得到解决,这样我们就能高枕无忧了吗?别急着下结论哦,更有趣的在后面。

阿西莫夫提出三定律时,他无意中将之基于一个假设:人类对如何划定道德界限一清二楚。但事实的确如此吗?

比如第一定律中的“人”和“伤害”这两个词,它们的定义到底是什么?在十四世纪,奴隶几乎被当做牲畜看待,不能算作“人”。而现在,胎儿的人权已经成了热点话题。将来如果一位孕妇因身体状况,一旦分娩将面临极高死亡风险,那她的AI医生该不该建议她堕胎呢?别忘了,虽然该孕妇堕胎后存活几率更大,但是胎儿降生后,其生命的价值不比母亲逊色。所以不论做出什么决定,这个AI医生都会“伤害”一个“人”。

为什么阿西莫夫的机器人三定律行不通?

接下来的抉择就是人类自己也是莫衷一是——思考丹·布朗的小说《地狱》并将第零定律应用于此,一个机器人得知,如果按下它面前的按钮,半数人类随即灰飞烟灭,但人类这个物种可以多延续几个世纪;如果不按按钮(即“袖手旁观”),50年后地球上人口会过剩,人类将灭亡。这个机器人该怎么做?如果是你,又会作何选择?

为什么阿西莫夫的机器人三定律行不通?

结论

阿西莫夫的机器人三定律是人们应对机器人反叛威胁的尝试。让机器人遵守三定律的技术障碍在于,我们目前无法让它们真正理解定律。但真正的难题是哲学和道德层面的,即我们认为——只要给出一个模棱两可的约束条件,机器人便能俯首帖耳,想人所想,哪怕人类自己都一头雾水。即使我们自己表意明确,考虑到这些定律的各种潜在影响后,我们的定律在机器人眼里可能便成了这样一句话:“管他呢,干好你的事就行。”

为什么阿西莫夫的机器人三定律行不通?

留言 点赞 关注

我们一起分享AI学习与发展的干货

欢迎关注全平台AI垂类自媒体 “读芯术”

(加入圈子,一起讨论最新鲜的人工智能科技哦~)

(此处已添加圈子卡片,请到今日头条客户端查看)

相关推荐