深度学习算法成熟、算力提升及大数据共同促进人工智能实现跨越式发展,人工智能应用层出不穷进一步推动算力需求的提升,而当下主流芯片CPU、GPU 在处理神经网络算法时功耗较高,速度无法满足,因此催生了AI 芯片的诞生,并且人工智能在安防、物流、无人驾驶、医疗、教育等领域落地,带动AI 芯片需求的快速增长。可以判断,人工智能应用爆发、神经网络算法成为AI 主流算法是AI 芯片需求高速增长的基础,而传统CPU、GPU 的缺陷推升了需求的紧迫性,神经网络算法的特点则指明了AI 芯片的架构方向。
人工智能应用普及奠定爆发基础:
人工智能应用实现高速增长。目前我国自主知识产权的文字识别、语音识别、中文信息处理、智能监控、生物特征识别、工业机器人、服务机器人、无人驾驶汽车等智能科技成果已进入广泛的实际应用。各细分市场均有广阔的发展前景,2015 年,我国市场工业机器人销量6.85 万台,我国智能语音交互产业猛增41%达到40.3 亿元,指纹识别、人脸识别、虹膜识别等产业规模突破百亿元。诸多企业也积极布局人工智能产业,百度出台“百度大脑计划”,腾讯组建人工智能实验室AI Lab,阿里关注消费级产品研发智能音箱、无人超市,以及海康威视在MOT Challenge 测评中获得“计算机视觉的多目标跟踪算法”世界第一称号。中国人工智能应用已经迅速普及,对人工智能应用的性能提出更高要求。
CPU、GPU 等传统芯片高功耗、低效率无法满足需求:
人工智能应用爆发,芯片市场迎来新机遇。当前CPU、GPU 等传统芯片因其高功耗、低效率,难以满足人工智能时代的要求。从技术角度看,深度学习实际上是一类多层大规模人工神经网络。传统的处理器(包括x86 和ARM 芯片等)往往需要数百甚至上千条指令才能完成一个神经元的处理,用于深度学习的处理效率极低。并且,在神经网络中存储和处理一体化,而在传统芯片的结构中,存储和处理是分离的,二者存在较大的差异。因此,适应深度学习需求的新型芯片在AI 时代市场前景广阔。
以中国的寒武纪为例。该公司团队与Inria 联合研发的DianNao 单核处理器主频为0.98GHz,峰值性能达每秒4520 亿次神经网络基本运算,65nm 工艺下功耗为0.485W,面积3.02 平方毫米。若干神经网络实验结果表明,DingNao 的平均性能超过主流CPU 核的100 倍,但是面积和功耗仅为1/10,效能提升可达三个数量。DianNao 的平均性能与主流GPGPU 相当,但面积和功耗仅为主流GPU百分之一量级,优势明显。
图1:卷积神经网络算法

以当前主流的卷积神经网络为例,卷积神经网络是近年发展起来,并引起广泛重视的一种高效识别方法。如图1 所示,多层卷积神经网络使用了大量相似的卷积运算,因此可并行计算,使用统一的特点明显的算法,提升效率。卷积神经网络越复杂,卷积核越多,就需要更多数量的芯片同时工作,用来处理更复杂的运算、达到更高的性能。AI 算法结构特点明显,对数据计算需求较大,也为AI 芯片发展指明了方向。