打破AI算力瓶颈的,是基于FPGA的异构计算加速平台解决方案

打破AI算力瓶颈的,是基于FPGA的异构计算加速平台解决方案

邬刚·加速云创始人兼CEO

近日,杭州加速云信息技术有限公司(简称:加速云)加速云创始人兼CEO邬刚在新品发布会上表示:“人工智能未来发展存在瓶颈,需要硬件技术和算法方面的突破。异构计算是计算架构的未来趋势,而FPGA 是实现异构计算的完美选择。”

基于FPGA的深度学习方案助力深度学习模型高效运转

在大数据时代,深度学习是人工智能的主要推动力。最近几年大数据和计算力的快速增长使得深度学习技术有了质的飞跃,从而在计算机视觉、语音识别、自然语言处理等领域出现了重大突破。然而深度学习需要大量的并行计算,对硬件平台有极高的要求,传统的计算机是无法满足的。

现有的解决方案是使用GPU来完成深度学习的训练,但GPU的功耗太高,性能功耗比差,处理延时大,在大规模推理部署和一些对延时敏感的场景就不是很适合。由于FPGA具有很高的性能功耗比,而且基于门级电路设计使得FPGA是一个超低延时和确定延时的方案,FPGA的可编程性及动态可重构可以适应深度学习未来算法的变化,IO可编程性可以满足更多业务需求(网络加速,边缘计算),因此基于FPGA的深度学习方案成为未来技术发展方向。

此次发布会,加速云推出一整套基于FPGA的深度学习加速方案,包括SC-OPM/SC-OPF/SC-OPS加速卡及FDNN加速库,快速满足市场需求。

SC-OPS加速卡

SC-OPS基于Intel最新14nm工艺的 Stratix10 FPGA,能够提供2800K LE及9.2TFLOPS的计算性能,支持8个DDR4控制器,提供高达150GB/S访存带宽,提供PCIe*16Lane接口,支持高达128Gbps的访问速度,致力满足数据中心高性能深度学习加速。

SC-OPM/SC-OPF加速卡

SC-OPM/SC-OPF基于Intel最20nm工艺的 ARRIA 10 FPGA,能够提供1150K~2*1150K LE及1.5~2TFLOPS计算性能,致力满足数据中心和边缘计算网关深度学习加速。

FDNN加速库

FDNN加速库是一套基于RTL的深度神经网络加速库FDNN,可以实现参数可配置的CNN/DNN/LSTM,也提供高性能的常见网络模型加速库(包括Lenet,VGG16,Darknet19,YOLOV2,RestNet,DNN,LSTM),致力满足客户对深度学习高性能、灵活性加速要求。

基于FPGA完整的OpenCL异构开发环境

为了方便客户使用高层语言开发,加速云提供基于FPGA完整的OpenCL异构开发环境,快速实现用户自定义的深度学习加速方案。同时也提供快速深度神经网络定制加速服务。

方案特点:

A.    高性能集成IP,便于使用和二次开发

B.    丰富IO接口,方便灵活扩展

C.    模块化设计,支持各种应用场景

D.    高性能功耗比,降低运营成本  

E.    超低延时及确定性延时,支持时间敏感型应用场景

具体性能指标:

打破AI算力瓶颈的,是基于FPGA的异构计算加速平台解决方案

深度学习加速方案应用—图片OCR

某电商平台每天要面对大量的客户开店和业务申请需求,需要大量的营业执照等证件审核,传统采用人工审核方法,但随着业务的增长,人工审核是不可能完成,采用深度学习的图片OCR就是一个很好的解决方案。

基于深度学习的图片OCR方案包括文字定位和文字识别两部分,文字定位采用4层CNN网络,文字识别采用4层双向LSTM,由于CNN部分计算量不大,主要的计算量在LSTM,因此对LSTM部分加速。

原有方案采用GPU完成,但存在两个问题:

  1. 处理延时很大,不能满足要求
  2. 有些图片中的文字超长,在超长文字和一般长度文字一起送入GPU处理时一般长度文字处理时间和超长文字时间一样,这使得业务无法到达上线条件。

具体LSTM规格如下:

打破AI算力瓶颈的,是基于FPGA的异构计算加速平台解决方案

加速云采用FPGA方案实现完成的双向LSTM的加速,从而满足客户要求,具体方案特性如下:

  • 采用SC-OPM加速卡(半高半长:56*167mm)
  • Altera Arria 10  GX660器件, 集成 660k LE和1.5T FLOPS 单精度浮点处理能力
  • 四层LSTM+1层全连接,各层网络参数可以软件配置下载
  • 可以实现40000T/S的流量,延时超低,数据长度可以混合长度
  • 单卡只有33W

除上述内容,本次发布会加速云还推出了 FBLAS IP库、高性能计算及数字信号处理解决方案、边缘计算解决方案。

相关推荐