人类会因人工智能而灭亡吗?霍金的最后一篇论文可能会有一些线索

人类会因人工智能而灭亡吗?霍金的最后一篇论文可能会有一些线索

“完整的人工智能发展可能意味着人类的终结.......它会自行发展,并以不断增长的速度重新设计自己。"世界著名的物理学家斯蒂芬霍金在接受采访时表示,由生物进化缓慢限制的人类将无法参与竞争并被取代。

霍金(1942年1月- 2018年3月),虽然他的职业是理论物理学家和宇宙学家,但他经常在全球变暖、政治和哲学等许多其他问题上发表自己的观点。但他过去的大多数有争议的言论都是关于科技对人类未来的危害。人工智能对人类的威胁曾经是他的警告之一。霍金的最后一篇文章于今年10月16日发表,由他的家人与同事合作完成。在他的最后一篇文章中,霍金谈到了他认为技术可能会给人类带来的风险,以及其他一些问题。

霍金预言背后的真相

霍金是无数理论天体物理学家和宇宙学家的灵感来源,他总是警告我们人工智能的威胁。在他的最后一本书《对大问题的简明回答》(Hodder&Stoughton,2018)中,他讲述了从人工智能到外星人的一切。

“超人”

但他谈到的最重要的事情之一是超人取代普通人。超人,他的意思是“基因重新设计”人类。他谈到了未来人类的基因编辑,并完全摧毁了当前的人类。我们已经有CHRISPR-Cas9来改变我们基因的水平。他认为人们会想办法通过使用基因工程的奇迹来修改像智力和攻击这样困难的东西,并且不需要很长时间才能实现这一目标。它还可以增强抗病性和延年益寿。我们还进行了一项研究,该研究显示了遗传修饰胚胎治疗心脏病的可能性。

基因工程的所有这些进步使霍金担心人类的未来,他认为他们最终将成为对普通人类世界的威胁。他写道:“一旦出现这样的超人,就会出现未经改善的人类的重大政治问题,他们将无法参与竞争。据推测,他们会死亡,或变得不重要。相反,将会有一群自我设计的生物正以不断增长的速度进步。“

人工智能引发的自然灾害?

他的论文还说,人工智能在未来建立自己意志的可能性,这种意志将冲突我们人类的填满,在未来1000年,重大环境灾难或核战争将“削弱地球”。今天许多计算机科学家相信,意识将从人工智能中产生。

超级智能

过去,谷歌在其名为AutoML的项目中创建了一个人工智能系统,该系统创建了自己的子人工智能,其性能超过了自己的创造者。这需要人工智能去理解它是如何工作的,因为这是一种可能性,我们可以很好地关注未来人工智能意识的来临。

霍金关注的是超人类人工智能的出现,它不仅能够描绘人类的智力,而且能够扩展人类的智力。他说,这项技术将超越人类,使他们不仅能做人类能做的事情,而且还能学习和成长,最终在能力上超越人类。他在书中说,人工智能将在未来100年超越人类的智力。但人类需要确保人工智能必须与我们拥有同样的目标。

人类会因人工智能而灭亡吗?霍金的最后一篇论文可能会有一些线索

在电影《我,机器人》(I, Robot)中,描绘了一个留给机器人的未来世界。这部电影对人工智能控制世界以及它如何奴役人类有着负面的看法。

其他警告过我们人工智能的人

企业家埃隆•马斯克(Elon Musk)也认为人工智能对人类构成了威胁,他与霍金一起签署了一封公开信,希望能阻止机器人的崛起。据Rolling Stone报道,在给自己的神经技术公司Neuralink的员工看了一段关于人工智能的纪录片后,他对他们说:“(让人工智能安全)或许有5%到10%的几率。”

万维网的发明者Tim Berners-Lee在一次会议上谈到了一个可怕的场景:人工智能可以通过创建和运营自己的公司,成为新的“宇宙主人”。一个很好的例子是美国电视节目《Black Mirror》中有一集叫《Metalhead》。

比尔·盖茨在接受BBC采访时分享了他对人工智能潜在威胁的看法。“几十年后,尽管情报足够强大,足以令人担忧。我同意Elon Musk和其他一些人的观点,我不明白为什么有些人不关心这个问题。”他说。