AI和机器学习需要跨过的三道坎

AI和机器学习需要跨过的三道坎

是的,人工智能和机器学习确实有一些明显的局限性。任何希望实施人工智能的组织都需要了解这些局限性,以免陷入麻烦,对人工智能产生误解。不妨看一下人工智能面临的三大难关。

1. 数据问题

人工智能离不开机器学习算法。这些算法或模型耗用大量数据以识别模式并得出结论。这些模型使用标记数据加以训练,标记数据体现了人工智能实际会遇到的无数场景。比如说,医生必须标记每张X光片,表明是否存在肿瘤、哪种类型的肿瘤。只有检查成千上万张X光片后,人工智能才能自主地正确标记新的X光片。数据的这种收集和标记对于人类来说是很耗时的过程。

在一些情况下,我们缺乏足够的数据来充分构建模型。自动驾驶汽车在处理遇到的所有挑战时面临难题。试想一场倾盆大雨,您看不到挡风玻璃前面两英尺的情况,更不用说道路标线了。人工智能可安全地应对这些情况吗?训练人员要记录数十万英里,才会遇到所有这些棘手的使用场景,以了解算法如何做出反应并相应地进行调整。

在其他情况下,我们有足够的数据,但因引入偏差而无意中污染数据。当我们查看私藏大麻的种族逮捕记录时,我们会得出一些错误的结论。黑人被捕的可能性是白人的3.64倍。这可能导致我们得出以下结论:黑人是大量使用大麻的种族。然而,如果不分析大麻使用方面的统计信息,我们看不到种族之间仅有2%的差异。如果我们不考虑数据中的固有偏差,就会得出错误的结论。当我们共享有缺陷的数据集时,这个问题会进一步复杂化。

无论是需要手动记录数据还是缺少高质量数据,都有大有希望的解决方案。强化学习有一天可能会在标记过程中将人变成监督者。这种训练机器人,并运用正负强化的方法可用于训练人工智能模型。说到丢失的数据,虚拟模拟可以帮助我们填补空白。它们模拟目标环境,让我们的模型可以在物理世界之外学习。

2. 黑盒子效应

任何软件程序都以逻辑为基础。可以跟踪馈入到系统中的一组输入,查看它们如何触发结果。对于人工智能而言,它并不那么透明。基于神经网络而建,最终结果可能很难解释。我们称之为黑盒子效应。我们知道它可行,但是无法告知它是如何运行的。这会导致问题。在求职者无法找到工作或罪犯被判刑期过长这种情况下,我们必须证明算法运用合理、值得信赖。如果我们无法解释这些庞大深度学习网络如何做出这些决定,一大堆法律和法规难题就迎面而来。

克服黑盒子效应的最佳方法是分解算法的功能,并为其馈入不同的输入,看看有什么影响。简而言之,是人类解释人工智能的行为。这不是什么科学。还需要做更多的工作,才能使人工智能跨过这个巨大的障碍。

3. 通用系统遥不可及

任何担心人工智能会在未来接管世界的人大可放心。人工智能在模式识别方面非常出色,但是别指望它在更高水平的意识下也能起作用。Steve Wozniak称之为咖啡测试。机器可以进入普通的美国家庭、冲泡一杯咖啡吗?这包括找到咖啡研磨器、找到杯子、识别咖啡机、添水并点击正确的按钮。这名叫强人工智能:人工智能有了飞跃,可以模拟人类智能。虽然研究人员竭力研究这个问题,但其他人质疑人工智能能否果真实现这一目标。

相关推荐