观点 | 人工智能体行为应该作为一门独立的研究学科吗?

为什么只有人工智能从业者才能研究AI的行为?

如果只有生理学家从各个方面研究人类的行为会怎样呢:从人类身体的运作到社会规范的形成,从股票市场的运转,到文化的创造、分享和消费。如果神经科学家是唯一负责研究犯罪行为、设计教育课程,并且制定打击逃税政策的人会怎样呢?

观点 | 人工智能体行为应该作为一门独立的研究学科吗?

尽管人工智能的影响越来越大,我们对于AI智能体的研究是由一群非常特殊的人进行的。这些创造AI智能体的科学家,即计算机和机器人专家,几乎同时也是专门研究智能体行为的科学家。

我们不能通过查看一个人工智能智能体的源代码证明它是符合道德伦理的,这比我们通过扫描人的大脑从而证明他们是善良的更困难。

当这些计算机科学家和机器人专家创建智能体去完成特定的困难任务时,他们通常最关注确保智能体可以实现预期的功能。为此,他们通过大量的基准数据集和任务,客观一致地对比不同的算法。例如,程序在分类垃圾电子邮件任务中,借助人类标记的真实数据作为参照,达到基准模型所具有的准确率。计算机视觉算法必须正确地检测出像 ImageNet 这样的图像数据集中的目标对象。自动驾驶器汽车必须在各种天气条件下,成功地从 A 地驶向 B 地。游戏智能体必须打败目前最先进的算法,或者那些赢得了特定荣誉的人,例如:国际象棋、围棋、扑克牌的世界冠军。

这种对人工智能智能体行为的研究,尽管狭隘,却非常有利于人工智能和机器人领域的进步,使得我们能快速对比基于广泛接受的客观标准的算法。但这对社会来说就够了吗?

答案是否定的!为了正确诊断问题并设计解决方案,对于智能体(人或机器)行为的研究必须在不同的抽象层次上展开。这就是为什么我们有从各个方面与人类行为相关的不同学科。从生理学到社会学,从心理学到政治学,从博弈论到宏观经济学,我们由此获得了关于「人类如何运作」这一问题的从个体到群体的互补的视角。

在他1969年出版的具有里程碑意义的著作「Science of the Artificial」中,诺贝尔奖获得者 Herbert Simon 写道:「 自然科学是关于自然对象和现象的知识 。我们不禁想问,是否存在『 人造 』的科学,即关于人工的物体和现象的知识。」与 Simon 的愿景相同,我们主张需要一种全新的、特定的关于机器行为的学科:研究智能机器所展示出来的行为的科学研究。

这种新学科与「 机器 」的科学研究有关。我们这里所说的「 机器 」并不是指工程产品,而是一类全新的具有独特的行为模式和生态的行动智能体。至关重要的是,这个研究领域与计算机科学和机器人科学存在交叉,但是又有所区别——它对「 机器 」的行为进行了观察和实验,但是并不一定要求了解「 机器 」的内部机制。研究机器行为与动物行为的领域(也被称为动物行为学和行为生态学)相类似——研究动物的行为,不必关注生理或者生化原理。

人工智能知识鸿沟:假定的人工智能系统的数量和对其行为的研究的数量之间的差距

我们将通过几点需要注意的地方开始定义新的研究机器行为的领域。研究机器行为并不意味着人工智能算法具有实体性——意味着他们对自己的行动有社会责任。如果某人的狗咬了一个路人,狗的主人需要为此负责。尽管如此,这个研究仍然很有用,它能够有效预测狗的行为。同样的,机器连同他们的利益相关方会被嵌入到整个大的社会、技术结构中去,他们可能会对他人造成的伤害也存在于这些结构中。

复杂的人工智能实体常常表现出固有的不可预测性:他们会做出一些意料之外的、不可预测的行为,即使是他们自己的程序也无法预测。

第二个需要注意的是,机器展现出的行为与动物和人类有着本质上的不同,因此我们必须避免过度人格化或者动物化机器行为的倾向。即使从对人类和动物的行为的研究中可以借用很多的科学研究方法,用以提升对机器的研究,机器也可能表现出本质上不同的智能和行为模式——甚至就像外星人!

抛开这些值得警觉的地方,我们认为一门独特的研究机器行为的新学科将会既新奇又实用。有很多我们不能仅仅从查看机器的源代码和他们的内部结构来研究机器的原因。首先是由其复杂性造成的不透明性:许多新的人工智能架构,比如深度神经网络,能展现出不宜解释的内部状态。我们通常不能通过查看源代码证明人工智能实体是最优的或符合伦理道德的,这比我们通过扫描人的大脑证明他们是善良的更难。此外,随着时间的推移,我们对当今的社会中被认为是好的、符合道德伦理的行为的认识可能逐渐发生改变。社会学家可以跟进这种改变,但是人工智能社区可能无法跟进,因为这不是评价智能体成就的方式。

「 常规机器的不透明性是个老生常谈的问题 」

另一个抛开内部结构研究机器行为的动机是由于知识产权保护造成的的不透明性。许多常用的算法(例如:新闻过滤和产品推荐算法),仅仅由于工业机密,都是黑盒。这意味着,驱动这些算法的内部机制对于拥有并且操作他们的公司以外的任何人都是不透明的。

第三,复杂的人工智能体常常表现出固有的不可预测性:它们会做出一些意料之外的、不可预测的行为,即使是他们自己的程序也无法预测。这些行为只通过与世界和环境中的其他实体的交互得以体现。这里我们当然要提到算法交易程序的例子,它可以通过复杂的市场动态展现之前看不出来的行为机制。事实上,Alan Turing 和 Alonzo Church 在没有实际运行所谓的算法的情况下,证明了确保算法实现某些特定的性能是根本不可能的。我们验证某一段代码是否总是能满足理想属性的能力是从根本上的理论限制,除非我们执行代码并观察其行为。但是,最重要的是,计算机科学和机器人技术之外的机器行为的科学研究,为机器所影响的重要的经济、社会、政治现象提供了新的视角。计算机科学家和机器人科学家是世界上最优才华的人之一。但是,他们只是没有接受对诸如种族歧视、道德困境、股票市场稳定或者谣言在社交网络中传播等现象的正规训练。尽管计算机科学家已经研究过这种现象,其他学科的有能力的科学家也加入到了这个行列中来,他们有着重要的技能、方法和观点。在我们自己的工作中,作为计算机科学家,我们常常被和我们合作的社会和行为科学家所打击。他们经常强调我们最初的研究问题是如何的不规范,或者我们对特定的社会科学方法的使用是不恰当的。例如,漏掉重要的具有警示意义的结论,或者得出过于强的结论。我们从中学到:减缓我们直接地使用大数据进或者建立机器学习模型的冲动!尽管这是很困难的。

实际上,来自计算机科学和机器人学之外的评论家和学者的贡献往往是有限的。这些学者中的许多人一直在「 拉响警报 」。他们关心的是人工智能体的普遍的、意想不到的后果,这些人工智能实体可以行动、适应,并且表现出违背其创造者最初的意图的意料之外的行为,这是根本无法预料的。

由于缺乏可预测性,人们担心会失去对智能机器的监管。一些案例记录了许多看似无害的算法会对个人或者社会造成伤害。另一些人则担心人工智能系统是一个黑盒子,这些系统的决策的基本原理对于那些受影响的人来说是不透明的,这使得这些人质疑人工智能系统的决定的能力受到了限制。

人工智能机器越来越多地参与到调节社会、经济、政治互动的过程中来。这只是冰山一角!

尽管这些重要的声音在教育公众关于人工智能系统潜在的负面影响的方面已经取得了长足进步,但这些意见仍然是站在局外人的观点得出的,并且往往会在人工智能社区内产生强烈的反对声音。此外,现如今的许多讨论都是依赖于专家收集的奇闻轶事式的证据,而且仅限于个案。我们仍缺乏一个统一的、可扩展的、科学的方法去研究人工智能体的行为,这种方法也能够使得社会科学家和计算机科学家无缝合作。正如 Cathy O’Neil 在《 纽约时报 》上所写:「 根本没有哪个学术领域能够认真负起责任并且理解、批判科技所扮演的角色 。特别是对于那些在我们的生活中负责做出如此多的决定的算法。」考虑到新的人工智能算法不断涌现的速度,这个被部署的算法的数量和我们对其理解的程度之间的鸿沟只会越来越深。

最后,我们可以预见,通过研究机器的行为可以产生大量的经济价值。例如,如果我们可以证明某个给定的算法满足特定的道德、文化或者是经济行为标准,就可以将其推广。由此,消费者和负责人的公司可能会开始需要这种认证。这类似于消费者开始要求生产他们所消费的商品和提供他们所享用的服务的供应链需要满足特定的道德和环境标准。机器行为科学可以为人工智能体的客观认证奠定基础。

人工智能机器越来越多的参与到调节我们社会、经济、政治互动的过程中来:信用评分算法决定谁能获得贷款;算法交易程序在股票市场上买卖金融资产;算法优化助力本地警务调度;用于实现判决算法的程序现在影响着谁能够获得假释;自动驾驶汽车在我们的城市环境中驾驶着重达多吨的「 金属箱子 」;机器人布置我们的房屋并且对其进行常规的清洁;算法影响着网上约会及配对;不久之后,精准的自动武器可能决定在武装冲突中的存留!而这都只是即将到来的时代的冰山一角。在不久的将来,人工智能驱动的软硬件智能体会渗透到社会的方方面面。

无论它们是否具有人格化的特征,这些机器都是一类新的智能体,有人甚至说它们是栖息于这个世界上的新「 物种 」。我们必须运用我们所掌握的一切工具去理解、规范它们对人类所产生的影响。如果我们能很好地做到这一点,人类和机器也许就能在一种健康的、互利互惠的关系中繁荣发展。为了使这种可能性成为现实,我们需要积极地通过一门新学科来处理机器的行为。

相关推荐