从2018年纽约市人工智能峰会回来,我获得了5个关键经验教训!

点击上方关注,All in AI中国

从2018年纽约市人工智能峰会回来,我获得了5个关键经验教训!

本周早些时候,我参加了在纽约雅各布贾维茨中心的2018年AI峰会。这是与领先的AI研究人员、思想领袖和同行相遇的绝佳机会。

AI峰会:

AI Summit现已进入第三个年头,是一个专注于企业AI应用程序的最负盛名的会议之一。此次峰会有3,000多名与会者、300多位演讲者和150多场会议,每个人都有一些东西。所有常见的公司都出席了会议,包括谷歌、亚马逊、微软,当然还有索菲亚机器人(@RealSophiaRobot),汉森机器人公司的人工智能项目。甚至金融机构也有高盛、J.P.Morgan、花旗、Capital One、美国银行和巴克莱银行的代表。这些会议是各个行业的案例研究、商业见解和技术解决方案的完美结合。以下是我在峰会期间获得的5个关键要点。

#1:我们超越了炒作

几年前,AI被认为可以提供解决世界上每个问题的解决方案。它应该让世界成为一个“更好”的地方,以便我们所有人都能过上幸福的生活!今年,我们听到一些有关人工智能失败的故事,包括在亚利桑那州坦佩市发生的自驾车祸的悲惨故事,以及亚马逊Alexa在德国慕尼黑“开派对”的故事。

从2018年纽约市人工智能峰会回来,我获得了5个关键经验教训!

另一个现实是认识到AI的好坏取决于它能够从数据中学到什么。演讲者发言后指出,“人工智能战略”始于“数据战略”,我们需要以正确的顺序攀登“人工智能金字塔”。这个回归基础的支点显示我们处于拐点并准备超越早期的人工智能炒作。

#2:'AI-as-a-Service'是一个令人兴奋的命题

人工智能的民主化是会议最突出的主题之一。那些需要博士学位才能构建机器学习算法的的日子已经一去不复返了。随着云服务提供商的出现,强大的算法只是一个简单的API调用。这些解决方案显著降低了更大的商业社区的准入门槛。

Cassie Kozyrkov(@quaesita)发表了一篇关于Google如何通过云计算和开发决策智能学科实现AI民主化的优秀主题演讲。其他云服务提供商(如AWS和Microsoft Azure)展示了利用现成AI功能的强大解决方案。此外,来自SingularityNET的Ben Goertzel(@bengoertzel)倡导“去中心化人工智能”,将人工智能和区块链融合在一起,创造一个开放的市场,这是确保未来人工智能发展民主化的有趣建议。

#3:可解释的AI是真实的:

深度学习有着“黑匣子”方法的美誉,但模型可解释性是一个活跃的研究领域。为了提高透明度和可解释性,我们共享构建“玻璃盒”模型的几个成功案例。以下是一些有趣的项目:

从2018年纽约市人工智能峰会回来,我获得了5个关键经验教训!

  • 反向时间注意模型(RETAIN):RETAIN模型的开发是为了帮助医生了解为什么模型可以预测患有心力衰竭风险的患者。
  • 本地可解释的模型- 不可知解释(LIME):一种事后模型,在决策完成后提供对决策的解释。
  • 相关性逐层向后传播(LRP):这对于通过在神经网络中运行反向传递来识别重要像素的计算机视觉特别有用。

#4:金融机构已经成熟,可以解决问题

峰会有一个单独的“金融人工智能”栏目,全球银行和金融科技的发言人讨论了金融的最新趋势。关键的AI用例包括欺诈/合规/网络防御的异常检测,机器人顾问的专家系统以及客户体验的聊天机器人/虚拟代理。

“当我们考虑AI / ML时,它是为了消除摩擦力,为客户提供无缝体验”

特别是Amazon Connect和Google Contact Center AI最近都宣布了联络中心AI的解决方案,这些解决方案可以提高效率并降低运营成本。专家们一致认为,人工后台银行业务可能会在不久的将来成为人工智能投资的目标之一。

#5:负责任的人工智能势在必行

去年7月,科技界最大的两位人士就人工智能的未来引发了一场非常公开的争论。埃隆马斯克认为人工智能将带来人类的灭亡,而马克扎克伯格认为人工智能实际上将进一步帮助创新。这两个人在社交媒体上进行了斗争,发表了小小的言论,但基本上都代表了人工智能的两面。目前商业界已经意识到“类人”的智能还离得很远,并将其工作重点放在具有巨大就业增长潜力的特定领域的有影响力的AI应用上。

从2018年纽约市人工智能峰会回来,我获得了5个关键经验教训!

“我们看到AI正在帮助人们完成工作并开辟了新工作”

特别是,“负责任的人工智能”主题超越了以往的每一次谈话。几位发言者谈到将“信任”作为工程原则之一,并将道德和价值观作为人工智能交付的一部分。

“我们需要创建负责任的人工智能,以便我们能够为技术带来信任”

IBM创建了AIFairness360,这是一个开源工具包,用于缓解机器学习模型中不需要的偏见,以及用于分析机器学习模型的攻击和防御方法的Adversarial Robustness Toolbox。纽约市最近通过了第一项审查政府机构“算法偏见”的法案。在可预见的未来,负责任的人工智能可能成为技术、社会和政治讨论的焦点。

总的来说,这是一次精彩的学习体验,包括精彩的演讲、演示和小组讨论。

从2018年纽约市人工智能峰会回来,我获得了5个关键经验教训!

相关推荐