机器人的设计,要从“娃娃”抓起?

机器人的设计,要从“娃娃”抓起?

人工智能似乎正在取得巨大进步。它已经成为自动驾驶汽车、自动翻译系统、语音和文本分析、图像处理以及各种诊断和识别系统背后的关键技术。在很多情况下,人工智能在特定任务中的表现甚至可以超越人类的最佳水平。

我们正在见证一个新的商业行业的出现,这个行业十分活跃,投资巨大,潜力无限。似乎没有人工智能无法改进的领域,没有不能自动化的任务,没有人工智能解决不了的问题。但真的是这样吗?

关于计算的理论研究已经表明,有的东西是没法被计算的。数学家和密码破译家艾伦·图灵(Alan Turing)证明了有些计算永远不可能完成,而有些计算即使能完成也可能需要数年甚至数百年。

举例来说,我们能够很容易地提前推算出一盘棋的前几步,但是在一盘走80步的棋中要从头到尾计算出所有步骤是完全不现实的。即便用上全世界最快的超级计算机,每秒进行10亿亿次计算,也需要一年多才能算清一小部分。这也被称为放大问题(scaling-upproblem)。

早期的人工智能研究在涉及数字较小的问题中取得了不错的结果,比如三子棋游戏等模拟问题。但是在象棋等数字更大些的问题,也就是现实问题中结果却并不好。幸运的是,现代AI技术已经发展出了解决此类问题的其他方法。人工智能能够打败全世界最优秀的棋手并不靠推算全部的步骤,而是通过近似算法、概率估计、大规模神经网络以及其他机器学习技巧来比人脑想得更远。

不过这些其实属于计算机科学领域,不属于人工智能。AI智能运行有什么根本的限制吗?当我们考虑人机交互的时候,一个严肃的问题就变得清晰起来。人们普遍预测,未来人工智能系统将能够与人类在友好充分的互动和社交中进行沟通并协助人类。

心智理论

当然,这样的人工智能系统已经有了初步的版本。但是语音指令系统和呼叫中心、文本处理等都不是真正的人机对话。我们需要的是适宜的社交互动和长期的自由对话,并且AI系统能够记得和其对话的人并记得和这个人过去的对话。AI系统还要能够理解人们说话的目的和意义。

这就需要一个心理学概念:心智理论。心智理论是指明白与我们交流的人有和我们大致相似的思维方式和看世界的方式。所以当他人和我们讨论他们的经历,我们能够识别并理解他们描述的内容以及这些内容和我们的共鸣。

我们同样可以通过人们的姿势和信号推断出人们的意图和喜好。因此当Sally说“我觉得John喜欢Zoe但他认为Zoe可能觉得他不合适”时,我们知道Sally话里的第一层是她自己的想法,二层是John的想法,第三层是John认为的Zoe的想法。我们需要类似的经历才能够理解这些。

物理学习

很明显,所有这些社会互动只有在当事人有“自我意识”并且能够类似地维持对方的自我意识的情况下,才有意义。为了了解别人,就要先了解自己。人工智能的“自我模型”应该包括一个主观的视角,包括它的身体是如何运作的(例如,它的视觉点取决于它眼睛的物理位置),它自己空间的详细地图,以及一系列众所周知的技能和动作。

这意味着需要一个物理实体来在具体的数据和经验中建立自我意识。当一个代理人的行为被另一个代理人观察到时,他们可以通过经验的共享部分相互理解。这意味着能社交的人工智能需要在有实体的机器人中实现。一个软件盒子要如何对人类居住的物理世界有主观的看法呢?为此,我们的对话系统不仅要嵌入这一实体,还要具体化。

设计师不能有效地为机器人建立软件自我意识。如果从一开始就设计了一个主观的观点,那就是设计师自己的观点,但机器人也需要学习和处理设计师不知道的经验。所以我们需要设计的是一个支持学习的框架。

幸运的是,这些困难是能够解决的。人类世界也面临着完全相同的问题,但我们不会一次解决所有问题。婴儿期的最初几年显示出令人难以置信的发展和进步,在此期间,我们学习如何控制我们的身体,如何感知和体验物体、他人和环境。我们还学习如何行动以及行动和互动的后果。

相关推荐