「达芬奇计划」:华为云端AI战略揭秘,普惠AI让技术走下神坛

今年 7 月,海外媒体 The Information 曝光了华为神秘的「达芬奇计划」,其中包括人工智能应用和 AI 云端芯片。华为的 AI 战略会是怎样的?对于现在已经竞争激烈的 AI 市场又会产生怎样的影响?这一消息引起了人们的议论和猜测。

机器之心原创,作者:李泽南。

近日,我们从一名接近华为的消息人士处获知:华为的「达芬奇计划」确实存在,并且很可能在 10 月的全联接大会上发布该计划的详情,包括 AI 云芯片、跨平台深度学习框架的实例都可能出现在下个月举办的大会上。看来,华为即将发布的产品非常重磅。

在 2018 中国国际大数据产业博览会上,华为云 BU 总裁郑叶来提出了华为「普惠」AI 概念,为 AI 技术的发展提出了更加实用的发展方向:让 AI 高而不贵、让所有企业用户用得起、用得好、用得放心。这些新产品也将成为华为全新云端战略的重要组成部分。

「达芬奇计划」的重要一步

「达芬奇计划」:华为云端AI战略揭秘,普惠AI让技术走下神坛

首先,是达芬奇计划。

据了解,「达芬奇」是华为内部的 AI 项目代号,但并非是最终正式发布的产品或方案名字。该项目是由华为轮值董事长徐直军带队执行。作为华为目前规模最大的新项目,这家公司已在「达芬奇」计划上投入了非常大的精力。

有迹象表明,华为即将推出的解决方案不仅是单纯的芯片,而且还将包含面向开发者的开发板、基于公有云的 AI 加速器服务,以及私有云服务器上搭载的硬件能力。所有这些产品都会配以相应的软件开发工具并同时发布。据称,届时发布的产品将非常有「震撼力」。

面向开发者打造全平台深度学习框架

在 AI 云服务领域,华为并没有先发优势。而作为后来者,华为如何能够在竞争激烈的 AI 领域站稳脚跟?据透露,华为很可能会面向开发者发布全套的人工智能软件、硬件开发平台,并在展会上向所有参会者开放。在 AI 芯片之外,深度学习框架将可能成为华为区别于其他 AI 厂商的杀手锏。

在人工智能应用的开发过程中,人们经常会遇到不同客户端移植的问题。开发者需要使用神经网络框架(如 TensorFlow、PyTorch)进行建模,在云平台中进行训练。但在实际应用部署中,深度学习模型却很难利用到谷歌 TPU 等深度学习芯片的加速。

另一方面,人工智能算法的训练、部署和推理需要不同的硬件需求。对于开发者来说,将模型从云端迁移到手机上,总会面临大量繁杂的工作。统一的深度学习框架可以让人们从这些工作中解放出来。基于此,华为的深度学习框架将为广大 AI 开发者的工作带来更多便利。

「达芬奇计划」:华为云端AI战略揭秘,普惠AI让技术走下神坛

在今年六月的全球伙伴开发者大会上,余承东提出了全面开放华为「芯-端-云」能力的愿景。华为的深度学习框架将占据其中什么样的位置?

如同谷歌、百度等科技公司一样,我们可以看到,华为正希望通过 AI 战略聚集更多开发者,并逐渐形成活跃的社区,发力打造以芯片为载体的人工智能解决方案完整开发者生态。

在未来,华为旗下全系列的产品将有可能具备统一的人工智能能力,让人们在做开发时能够实现一次开发、一次调优、一次部署,大大提升开发效率。

不过,众所周知,在深度学习的神经网络框架中,谷歌的 TensorFlow 和 Facebook 的 PyTorch 已经成为主流。华为提出的框架要想在开发者社区中占据一席之地,或许还需要很多努力。

普惠 AI 战略

在 2018 中国数博会上,华为云 BU 总裁郑叶来首次提出了「普惠 AI」概念。华为认为,AI 将在未来成为一种基本生产力,AI 并不是一个简单的独立产品,更不是一个封闭系统。在华为看来,AI 技术适用于大部分的经济活动。基于这种思考,华为提出了让普通人「用得好、用得起、用得安心」的普惠 AI 概念。

AI 是基础生产力,这个观点是华为通过自身的实践总结出的经验。AI 技术已深刻地改变了华为的制造、物流和零售过程。

在郑叶来的介绍中,我们可以得知:在制造方面,华为使用云边协调的图像处理技术和深度学习智能判定,将设备成品率提升到了 99.55%,与此对应的 AOI 检测员工作量则下降了 48%;在物流方面,AI 使得例外费用下降 30%,装箱率提升 15%,运作效率提升 10%;在零售方面,AI 使得线下实现智能防冲量,线上实现智能风控,助力 CBG(华为消费者业务)手机销量几何智能变革,大大提升了零售安全。

可以看到,华为能够在近两年取得高速发展,设备销售价格越来越有竞争力,经营情况越来越好,除了注重科技研发外,在内部大力应用 AI 技术也是至关重要的因素。

现在,华为希望这些 AI 技术能够帮助所有企业提高生产效率。

AI 云芯片:众星云集的战场

作为 AI 云服务的重要部分,为深度神经网络任务专门加速的云端芯片,一直被认为是未来芯片领域的重要发展方向。随着人工智能技术的发展,各家科技公司都在加紧研发自己的 AI 云芯片。

谷歌是首个将专用云芯片大规模应用的公司,其自行研发的张量处理器(Tensor Processing Unit,TPU)于 2016 年 5 月首次面世,今天已发展至第三代,据称已在服务全球超过 10 亿用户。谷歌称,TPU 使深度神经网络(DNN)的计算速度提高了 15-30 倍,而其能耗效率比现有类似技术的 CPU 和 GPU 提高了 30-80 倍。

「达芬奇计划」:华为云端AI战略揭秘,普惠AI让技术走下神坛

谷歌 TPU

虽然 TPU 是一种专用集成电路,但它适用于神经网络框架 TensorFlow 下的大量程序,驱动了谷歌数据中心的许多重要应用,其中包括图像识别、翻译、搜索和游戏。

2018 年 2 月,谷歌云 TPU 宣布向外部用户开放,其价格约为每云 TPU 每小时 6.50 美元。此举意味着这种曾支持围棋程序 AlphaGo 的强大芯片将很快成为各家科技公司开展人工智能业务的强大资源。

今年 7 月 4 日的百度 Create 开发者大会上,李彦宏也发布了属于百度的云端 AI 芯片「昆仑」系列。百度的云芯片分为两个型号:训练芯片昆仑 818-300 和推理芯片 818-100。「昆仑」采用了三星 14nm 工艺,算力可达 260Tops、内存带宽 512 GB/s;功耗则为 100 瓦特,由几万个小核心构成。百度称,这是中国第一款云端全功能 AI 芯片,也是目前为止业内设计算力最高的 AI 芯片。

除了常用深度学习算法等云端需求,百度的云芯片还能适配诸如自然语言处理、大规模语音识别、自动驾驶、大规模推荐等具体终端场景的计算需求。

与其他科技巨头相比,着力发展通信产品的华为在 AI 硬件上首先推出的是移动端芯片。2017 年 9 月,华为发布了世界首款手机 AI 芯片麒麟 970,其中搭载了来自寒武纪的神经网络处理单元 NPU。华为称,麒麟 970 在机器学习任务上与 CPU 相比,计算速度可提升 25 倍,能耗效率提高 50 倍。华为的多款手机,包括 Mate 10/Pro、荣耀 V10 都搭载了麒麟 970 芯片。

今年 8 月 31 日,华为发布了麒麟 980,成为了全球首款采用 7 纳米工艺的手机 AI 芯片,同时也引入了双核 NPU 设计。新款新品让手机的 AI 计算能力翻了一倍。

而据消息人士称,华为 10 月份即将发布的云端 AI 芯片,性能绝对不会比目前业界已有的其他芯片逊色。

「达芬奇计划」:华为云端AI战略揭秘,普惠AI让技术走下神坛

华为在芯片和人工智能领域有着深厚的积累,目前已经发展了自己的公有云、产品平台,更有着大量搭载了 AI 芯片的终端设备。未来的云服务竞争可能会成为人工智能实力的比拼,华为希望通过 AI 建立自身云服务的核心优势。

目前看来,有关「达芬奇计划」的更多细节会在 10 月的全联接大会上公布,让我们拭目以待。

相关推荐