广告

为什么eFPGA比以前更重要?

在摩尔定律的逐渐失效以及AI海量市场面前,需要针对特定应用形成新的计算架构。

通过摩尔定律,一颗微处理器芯片上的晶体管数量每两年左右将会翻倍, 半导体的性能与容量将以指数级增长,这种方式正在减弱。

看看下面这张图,1986年到2003年保持着52%性能提升,但是到了2003-2011年变为23%,2011-2015年为12%,而到了2015-2018年仅为3.5%。

2.jpg

人工智能与深度学习的应用在未来将呈跳跃式增长,因为它将不是在特定领域,而不是覆盖所有的事物。从台式电脑、笔记本电脑的上亿出货量级、到智能手机十几亿的出货量级,再看AI时代,这个量级毫无疑问将更大。

3.jpg

 

在摩尔定律的逐渐失效以及AI海量市场面前,需要针对特定应用形成新的计算架构。

Achronix公司推崇的方式是运用eFPGA和FPGA加速人工智能、机器学习以及网络硬件加速应用。最新推出第四代Speedcore eFPGA IP,新一代独立FPGA也即将发布。

Achronix Semiconductor公司市场营销副总裁Steve Mensor日前在深圳举办的媒体见面会上展开交流。他解析,下面这张图很好地说明,不同的应用场景需要怎样性能的产品。例如在计算加速领域,需要高性能计算,Achronix提供独立FPGA,在边缘计算领域对低功耗有要求,eFPGA是更好的选择。

4.jpg

 

当然,硬件加速可以采取CPU ,GPU,FPGA,ASIC四种方式。Steve分析,ASIC能力最强,但缺少灵活性,若有新的算法,很难满足需求。具有可编程能力的是GPU和FPGA,他们用于不同的应用,兼顾功耗与运算性能,例如GPU在服务器、云端用得更多,eFPGA用在边缘计算则能够发挥功耗低的优势。

Achronix推出的第四代嵌入式FPGA产品Speedcore Gen4 eFPGA IP,支持客户将FPGA功能集成到他们的SoC之中。Speedcore Gen4将性能提高了60%、功耗降低了50%、芯片面积减少65%,同时保留了原有的Speedcore eFPGA IP的功能,即可将可编程硬件加速功能引入广泛的计算、网络和存储应用,实现接口协议桥接/转换、算法加速和数据包处理。

5.jpg

在Speedcore Gen4架构中,Achronix将机器学习处理器(MLP)添加到Speedcore可提供的资源逻辑库单元模块中。MLP模块是一种高度灵活的计算引擎,它与存储器紧密耦合,从而为人工智能和机器学习(AI / ML)应用提供了性能/功耗比最高和成本最低的解决方案。

6.jpg

 

8-bit ALU和Bus maximum function增加了对人工智能和机器学习的强化,其余的改进则是通用层面对性能的提升。

通过增加BUS走线,另外增加一层,专门应对人工智能,不占用现有逻辑单元与走线,这样做更有效率。这一层走线与存储层距离更近,不需要经过逻辑层,从而大幅提高存储和数据传输效率。

 

7.jpg

Achronix将率先推出基于台积电7nm工艺的Speedcore Gen4 eFPGA IP,后续还将于2019年中推出16nm工艺产品,另外,独立器件将于明年一季度发布。

最近的消息是,Micron宣布推出其GDDR6存储器,它是Micron最快、最强大且支持图形的存储器,将成为支持Achronix采用台积电(TSMC) 7nm工艺技术的下一代独立FPGA芯片的首选高性能存储器。GDDR6针对包括机器学习等诸多要求严苛的应用进行了优化,这些应用需要数万兆比特(multi-terabit)存储宽带,从而使Achronix在提供FPGA方案时,其成本能够比其他使用可比存储解决方案的FPGA低出一半。Achronix的高性能FPGA与GDDR6存储器相结合,可为业界提供带宽最高的存储解决方案,用于数据中心和汽车应用中机器学习工作负载的加速。

 

8.jpg

Steve指出,SmartNIC智能网卡、边缘计算、5G等都将是嵌入式FPGA瞄准的市场。例如智能网卡现有方案用板卡+网络芯片+FPGA,今后可以嵌入FPGA并加入MLP,实现高整合度与AI功能。边缘计算由于成本与低功耗要求,传统独立的FPGA器件无法满足,也是eFPGA的市场。Achronix在2017年的业务比重当中,独立器件占比高于IP,不过2018年IP业务比重不断增加,Steve预计,5G和云计算的高涨将带动IP业务持续增长。

原创
本文为国际电子商情原创文章,未经授权禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • 微信扫一扫,一键转发

  • 关注“国际电子商情” 微信公众号