向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

魏少军:中国人工智能芯片与国外到底多大差距?

2017年7月14日,清华大学魏少军教授在青城山中国IC生态高峰论坛上进行了重要演讲,深入浅出的介绍了中国人工智能芯片的技术、产业现状以及未来发展方向。魏教授提出,芯片是人工智能的基础和根本,而模拟人脑的芯片技术或许才是人工智能的真正方向。究竟国内外人工智能芯片的产业差距到底有多大?什么样的芯片才算是人工智能芯片?

请看《国际电子商情》记者第一时间为您带来魏教授的现场演讲实录:
20170714-ICai-2
人工智能是一个老的新话题。之所以现在人工智能的话题又火起来,是因为两个事情,谷歌研发的阿尔法Go和世界两位顶尖棋手的对弈。第一件事是与韩国棋手李世的对弈,李世石成为唯一战胜阿尔法Go的棋手。半年后,世界排名第一的柯洁说李世石不行,我来下。结果是0:3,柯洁痛哭流涕。所以这两件事对人工智能的推动非常重要。jRlesmc

我们很多人认为阿尔法狗代表人工智能取代人脑的重要证据。这个事情没有这么悲观,最开始阿尔法狗是希望在没有人类干预的情况下战胜人类棋手。但其实在两场棋局中还是有人干预。还有一件事是,IBM的人工智能计算机做了一场知识竞赛。上个月我去了一趟IBM看了一下这个计算机,它的智力远远高于阿尔法狗。
20170714-ICai-3
一个是人工智能的初创企业在大大增加,第二个是人工智能企业的融资额达到了50亿美元。我们集成电路除了并购之外,要想在初创企业融资增速非常快。所以可以看到风险投资很活跃,说明这个行业是在上升期。jRlesmc

人工智能最重要的是预测未来

20170714-ICai-4
尽管如此,人工智能是老的新话题。因为上个世纪50年代人工智能就开始提出了。主要是为了让机器展示智能模仿认知功能,如感知、推理、学习、及问题解决。1980年出现了机器学习,这是实现人工智能的主要途径,主要是学习并开展数据驱动的经验预测。2010年出现了深度学习,这是机器学习的一个分支,他是要模仿人脑通过人工神经网络获得高阶学习机会。jRlesmc

传统的数据挖掘主要是描述发生了什么,比如问一个问题,哪个产品在过去一年最赚钱,这个是最容易统计的。还有一个机器学习是预测,通过外推数据以预测行为和事件,是通过概率来分析。比如某个客户在未来一年中最可能买哪个产品?而到了最后的一个环节就是决策,主要是领先的数据被互联网公司应用。比如为了最大化下一年的销售,产品的最佳售价是多少?jRlesmc

通过这三个清晰的问题可以看到三者之间的差距。所以人工智能最重要的是要预测未来,所以我们在对人工智能的理解要有正确的认识。jRlesmc

人工智能的基础和根本是芯片

20170714-ICai-5
目前非常多的初创企业进入人工智能领域,机器学习的创业空间正在拥挤起来。
20170714-ICai-6
工欲善其事必先利其器,人工智能的根本是智能芯片。离开芯片你没办法找到第二种人工智能的实现方法,未来的至少10年内你找不到可替代芯片的方法。如果你能找到,那我恭喜你。jRlesmc

从计算能力看,目前主要的人工智能芯片是GPU。GPU的计算能力比CPU大概提高了5倍,存储能力是2倍到4倍。目前Intel占了71%的市场,Nvidia占了16%。Nvidia在分立式GPU上占据主要优势。而人工智能主要应用于分立式GPU。但是目前任何一种方案无法用于本地移动终端,因为功耗太大。
20170714-ICai-7
还有一种芯片方案是通过FPGA,与纯CPU/SW相比性能提高5~10倍,功耗下降到了GPU环境的20%。jRlesmc

另一种是Google提出的TPU概念,与GPU相比,用较低的精度提高性能,功耗下降到GPU环境的10%。
20170714-ICai-8
还有一个是NeuRAM,我个人认为这个学习方式很可能是未来的发展方向。还有一个是Micron,用的是MISD的并行架构,DRAM的工艺,这个开始有点意思。jRlesmc

类人脑芯片才是最终方向?

20170714-ICai-9
我更愿意介绍是IBM的TrueNorth。这样一颗芯片,我在IBM访问的时候有很大的震撼。这个完全仿照大脑的做法,能力相当高,功耗只有65毫瓦,它的学习能力极强。
20170714-ICai-10
下一步IBM的最终目标是希望建立一个完全仿照大脑的类闹计算机。如果这能实现,成本不高,这有可能真正实现所谓人形机器人。今后对我们进入老龄化的时代影响是非常大的。这个方面会实现最大的计算量。
20170714-ICai-11
谈到智能芯片,什么是智能芯片呢?是不是IBM的这个就是智能芯片?首先我们要看如何来理解智能或者智慧?智慧是人特有的一项东西,它包括思考和解决问题的能力。
20170714-ICai-12
人类的智能整个环节包括感知、传输、存储、处理、决策、传输、执行。决策这个环节又分为分休、计算、判断、经验知识。前后两端从感知、传输到后端的传输、执行都不是智慧。而中间的才算是智慧。
20170714-ICai-13
首先我们看人类大脑,140亿个神经元。IBM要做的类脑芯片大概100多亿个神经元,我们看到两者之间有很接近的地方。工作频率两百赫兹,也不高。最奇怪的是,我们吃点什么米饭、豆腐、白菜,20瓦的功耗也可以完成这些功能。我们的大脑皮层面积是0.25平方米,这是自然进化而来的。jRlesmc

我们得过世界第一的天河计算机,用了27亿个芯片,比人脑还要小一点。传输速度是每秒中30万公里,它的频率是4.2GHz,由于可以把很多运算堆在一起,可以做很多的运算,但是功耗、占地面积都非常惊人。所以这两个对比,人脑和机器之间,要真正用机器实现人脑功能恐怕不容易。
20170714-ICai-14
我们猜想人脑怎么工作的呢?出现一个事件怎么办?首先要想象特征,我们怎么认出一个人?他的特征牢牢的出现在我的脑海中。我出现了记忆,做出决策,然后做出行动。这个过程是一个循环往复的过程。jRlesmc

当然,有可能我们见到的是一个陌生人,我记忆中不存在,我现需要做一个决策。然后把行动验证我的记忆是否是对的。所以在不断的往复过程中,我们在不断的学习加深印象。这个过程中也许我见一个人,几分钟就有印象。所以学习中会有长久的迭代过程。所以计算是非常重要的。jRlesmc

什么芯片才算人工智能芯片?

20170714-ICai-15
人工智能芯片的几个要素:jRlesmc

首先一定要可编程,这样才能适应算法的演进和应用的多样性。jRlesmc

架构的动态可变性,没有一个芯片可以百分之百石英所有的算法。jRlesmc

要有架构的变化能力,最好小于10个时钟周期,最好小于1个时钟周期。jRlesmc

高计算效率,指令这样的低效率架构就不要做了。jRlesmc

最重要的是,高能量的效率,我觉得理想情况下,每瓦功耗低于5万亿次。如果做不到这一点,真正做起来就会很难受。jRlesmc

有些应用功耗要小于1mw,有些东西要求速度足够快,比如视频识别,一些监控识别要做到每秒钟大于25帧。jRlesmc

最后是低成本,你要做消费类产品价格不能搞。jRlesmc

体积小,也是为了能在移动设备上。jRlesmc

应用开发要简便,不要让做应用开发的工程师学习芯片设计知识。
20170714-ICai-16
我们首先不知道人脑是怎么完成计算的,我们现在是用软件+芯片构成的类脑软件。包括智能软件和智能芯片。以前我们做芯片跟软件关系不大,但现在的一个方向是通过软件来定义芯片。jRlesmc

大家说了,FPGA不行吗?我们把FPGA的10大缺陷,1,细粒度,必须实现比特级的运算,第二配置信息量大,配置时间需要十几毫秒到即使毫秒。另外是静态编程以及逻辑不可复用。面积效率低。能量效率也很低,大量逻辑利用率低,需要特种工艺。FPGA需要最先进的制造工艺。另外应用者必须具备电路设计经验。最后是成本高昂,所以FPGA价格在及时到几万美元一片。
20170714-ICai-17
所以目前的标准来看,目前CPU+GPU、CPU+FPGA、CPU+ASIC的芯片结构都不是最好的人工智能芯片方法。我们认为FPGA的人工智能目前最主要的客户现阶段应该是互联网企业,而互联网企业基本上没有什么量。你要用ASIC还是FPGA你一定要通过电路设计这条关。所以这个过程中大量的降低了大家的应用门槛。jRlesmc

软件定义芯片成方向,AI芯片要让手机能用

20170714-ICai-18
那么到底该怎么做?这里是一个硬件和软件的拓扑架构,这个时候从计算的效率最好。功耗不见得最好。软件的规模可以仁义达,但硬件规模总是有限的。我们只好将硬件分块,不断将软件一块块进来运行。这就要求解决不同的问题,要求计算硬件架构和功能动态的、实时地跟随软件的变化而变化。最好能在一个时钟周期,最多不超过10个时钟周期改变。
20170714-ICai-19
数据会根据控制单元的要求来配置计算单元,这样的结构是通过C语言来实现计算,跟传统的计算机语言是一样的,但是编译器有很大的不同。
20170714-ICai-20
这是非常经典的冯诺依曼的计算结构。我们把Memory放进去,把I/O分开,我们到现在为止没有改变任何冯诺依曼体系的结构。
20170714-ICai-21
所以如果把可重构计算与经典计算进行比较,经典结构是刚性的,而可重构计算是函数化的柔性的。在性能上偏重于ASIC,灵活性上偏重于处理器。两者兼而有之。
20170714-ICai-22
我们利用这样的结构实现了可重构的神经网络计算。Thinker这是去年在深圳高交会上发布的。可能再过半个月会有一些新的消息出现。利用这个结构,来相应不同应用的神经架构网络。这样一个结构是什么样的?我们的芯片用了TSMC 65nm的LP工艺,很小的Memory,很低的工作频率,峰值性能做到409个GOPS。所以这样一个小小的东西实现的性能如此之高,如果跟其它相比,可以发现能量效率至少高了5倍。jRlesmc

我们认为目前的人工智能芯片还不能进入手机,如果让芯片进入手机,才真正能获得新生。如果只给互联网企业用,一定没有量。所以不解决进入手机、家庭,人工智能芯片没有希望。所以要解决功耗、成本问题。jRlesmc

国内的人工智能芯片和国外到底有多大差距?

20170714-ICai-23
最后总结,芯片是软件性能载体,一定要满足软件不断变化的计算需求。有人问我,目前国内的人工智能芯片跟国际上有多大差距?
我的回答是:应用上跟国际同行一个水平线。方法上落后。芯片上差半步。jRlesmc

但这个差半步并不意味着快成功了,中国有句古话叫“行百里而半九十”。也就是最后这10%要花费的精力可能要花费一半甚至以上的精力。可能就差这10%,我们就永远无法实现。所以我们应用关注芯片的基础技术,我们在芯片的能力上还有差距。如果克服不了这个差距,不要想超越人家。jRlesmc

谢谢!(完)jRlesmc

如果需要魏少军教授的原版PPT,可关注“国际电子商情”微信公众号,将此篇文章转发至朋友圈并截图给公众号后台,可获得下载链接。jRlesmc

2017-ESM-1jRlesmc

Write
本文为国际电子商情原创文章,未经授权禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • 微信扫一扫,一键转发

  • 关注“国际电子商情” 微信公众号

您可能感兴趣的文章

  • 制造商在芯片设计中受益于AI的5种方式

    芯片设计中的人工智能(AI)是该技术在制造业中最有前途的应用之一。它有望更快、更准确地制造芯片,同时减轻劳动力的压力。

  • NVIDIA Q1营收下降13%,AI增速超过10%,未来将达一万亿美

    美东时间 5月24日周三美股盘后,NVIDIA发布了一季度财报。财报显示,第一季度收入 71.9 亿美元,环比增长 19%,数据中心收入达到 创纪录的42.8 亿美元,2024 财年第二季度收入预期为 110 亿美元。

  • 为了搭建好的AI基础设施,英伟达也是蛮拼的

    没有人会相信近十年间,与训练模型和数据相关的计算量会扩大100万倍。而在生成式AI需求爆发式增长的背景下,行业更需要进行充分的供应链准备,以满足全球对AI的需求,这也是黄仁勋之所以多次强调加速计算的原因所在。

  • 瑞萨公布MCU最新路线图

    近年来,很多厂商开始尝试在MCU中融入AI功能,瑞萨电子也是关注MCU+AI的厂商之一。

  • ChatGPT的现象级爆红,可带来哪些半导体产业链机遇?

    AI领域的从业者认为,ChatGPT是AIGC(AI Generated Content,利用人工智能技术来生成内容)应用的新起点,随着深度学习模型不断完善、开源模式的推动、大模型探索商业化的可能,AIGC有望进入应用爆发期。ChatGPT技术的商用落地,对半导体行业有哪些推动作用?

  • Arm真能吃下30%的个人电脑市场?言之过早吧...

    11月份的一份报告提到,2023年的笔记本市场上,13.9%的份额将归属于Arm架构处理器。虽说相较于主流的x86还有距离,但比之2020年的数据已经是10倍成长了——当时Arm笔记本仅占到市场的1.4%。

相关推荐

可能感兴趣的话题