特派记者 张涵 拉斯维加斯、纽约报道

  编者按

  人们越来越看好人工智能的前景及其潜在的爆发力,而能否发展出具有超高运算能力且符合市场的芯片成为人工智能平台的关键一役。由此,2016年成为芯片企业和互联网巨头们在芯片领域全面展开部署的一年。而在这其中,英伟达保持着绝对的领先地位。但随着包括谷歌、脸书、微软、亚马逊以及百度在内的巨头相继加入决战,人工智能领域未来的格局如何,仍然待解。

  在2016年,所有人都看到了人工智能的前景和其潜在的爆发力,但不管是AlphaGo还是自动驾驶汽车,要想使得任何精妙算法得以实现,其基础是硬件的运算能力:也就是说,能否发展出超高运算能力又符合市场需求的芯片成为了人工智能平台的关键一役。

  因此,毫无疑问,2016年也成为了芯片企业和互联网巨头们在芯片领域全面展开部署的一年:先有CPU芯片巨头因特苹果、微软、脸书和亚马逊也都纷纷加入。

  而在这其中,领跑者英伟达(Nviida)因其在人工智能领域的优势使其成为了资本市场的绝对宠儿:在过去的一年中,曾经以游戏芯片见长的Nvidia股价从十几年的稳居30美元迅速飙升至120美元。

  就当资本市场都在犹豫是否人工智能风口使得英伟达股价虚高时,2月10日,英伟达发布2016年第四季度的财报显示,其营收同比增长55%,净利润达到了6.55亿美元,同比增长216%。

  “正当Intel、微软等巨头投资人工智能为基础的芯片技术时,英伟达已经以Q4财报显示,这家已经在人工智能领域投资将近12年的芯片企业已经开始就此收获可观的盈利。”资深技术评论家Therese Poletti在其财报发布后指出。

  研究机构Tractica LLC估计,由于深度学习项目产生的硬件花费将从2015年的4360万美元,上升到2024年的41亿美元,而企业的相关软件花费将同期从1.09亿美元上升到100亿美元。

  正是这一庞大的市场吸引着谷歌、脸书、微软、亚马逊以及百度在内的巨头相继宣布企业向人工智能领域的技术转向。“在人工智能相关技术上,目前英伟达仍然保持着绝对的领先,但随着包括谷歌在内的TPU等技术不断推向市场,未来的AI硬件格局仍然待解。”一位不便具名的欧洲资深从业人员向21世纪经济报道表示。

  英伟达在GPU领域显著领先

  根据英伟达最新公布的年报,其最主要的业务领域均出现了两位数以上的增长。除了其一直占有领先优势的游戏业务增长之外,其更多的涨幅事实上来自于数据中心业务和自动驾驶两大全新业务板块。

  年报数据显示,数据中心业务有138%的增长,而自动驾驶有52%的增长。

  “事实上,这是整个英伟达财报里最具有说明力的内容,因为数据业务和自动驾驶的增长根本上是人工智能和深度学习的发展所激发的。”一位美国计算机硬件分析师向21世纪经济报道表示。

  在目前的深度学习领域,把神经网络投入实际应用要经历两个阶段:首先是训练,其次是执行。从目前的环境来看,训练阶段非常需要处理大量数据的GPU(图形处理器,下同),也就是以游戏和高度图形化的应用做图像渲染起家的英伟达领先的领域;而在转型阶段则需要处理复杂程序的CPU,也就是微软十几年来领先的领域。

  “英伟达目前的成功事实上代表了GPU的成功,它正是最早的GPU领先者之一。”上述行业分析师表示。

  深度学习神经网络尤其是几百上千层的神经网络,对高性能计算需求非常高,而GPU对处理复杂运算拥有天然的优势:它有出色的并行矩阵计算能力,对于神经网络的训练和分类都可以提供显著的加速效果。

  举个例子,研究员不用一开始就人工定义一个人脸,而是可以将几百万个人脸的图像展示出来,让计算机自己定义人脸应该是什么样子的。学习这样的例子时,GPU可以比传统处理器更加快速,大大加快了训练过程。

  因此,搭载GPU的超级计算机已经成为训练各种深度神经网络的不二选择,比如Google大脑早期就是使用Nvidia的GPU做深度学习。“我们正在搭建一款带有跟踪功能的摄像装置,因此需要找到最适合的芯片,GPU是我们的首选。”欧盟AR初创企业Quine CEO Gunleik Groven在今年一月的CES(国际消费电子展)现场向本报记者表示。

  目前,谷歌、Facebook、微软、Twitter和百度等互联网巨头,都在使用这种叫做GPU的芯片,让服务器学习海量的照片、视频、声音文档,以及社交媒体上的信息,来改善搜索和自动化照片标记等各种各样的软件功能。一些汽车制造商也在利用这项技术,开发可以感知周围环境、避开危险区域的无人驾驶汽车。

  除了在GPU和图形计算领域长期领先,英伟达也是最早一批在人工智能领域进行投资的科技公司。2008年,当时在斯坦福做研究的吴恩达发表了一篇用GPU上的CUDA进行神经网络训练的论文。2012年“深度学习三巨头”之一Geoff Hilton的学生Alex Krizhevsky用英伟达的GeForce显卡在ImageNet中将图像识别准确率大幅提升,这也是英伟达CEO黄仁勋时常提到的英伟达注重深度学习的开端。

  有报告显示,世界上目前约有3000多家AI初创公司,大部分都采用了Nvidia提供的硬件平台。

  “深度学习被证明是非常有效的。”黄仁勋在季报2月10日的发布会中表示。在列举目前GPU计算平台正在人工智能、云计算、游戏和自动驾驶领域快速展开应用的同时,黄仁勋表示,在未来数年间,深度学习将会成为计算机计算的一种基础性的核心工具。

  AMD和Intel巨头的AI演变

  投资者和芯片制造商关注着所有互联网巨头的一举一动。仅仅以英伟达的数据中心业务为例,在很长一段时间以来,该公司一直为谷歌提供数据服务。

  英伟达并非GPU的唯一领先者,巨头Intel和AMD都在这一领域有着不同的优势。

  2016年11月,Intel公司发布了一个叫做Nervana的AI处理器,他们宣称会在明年年中测试这个原型。如果一切进展顺利,Nervana芯片的最终形态会在2017年底面世。这个芯片名称基于Intel早前购买的一个叫做Nervana的公司。按照Intel的人所说,这家公司是世界上第一家专门为AI打造芯片的公司。

  Intel公司披露了一些关于这个芯片的一些细节,按照他们所说,这个项目代码为“Lake Crest”,将会用到Nervana Engine 和Neon DNN相关软件。这款芯片可以加速各类神经网络,例如谷歌TensorFlow框架。

  芯片由所谓的“处理集群”阵列构成,处理被称作“活动点”的简化数学运算。相对于浮点运算,这种方法所需的数据量更少,因此带来了10倍的性能提升。

  Lake Crest利用私有的数据连接创造了规模更大、速度更快的集群,其拓扑结构为圆环形或其他形式。这帮助用户创造更大、更多元化的神经网络模型。这一数据连接中包含12个100Gbps的双向连接,其物理层基于28G的串并转换。

  TPU与FPGA可能的逆袭

  在上述芯片巨头进行GPU领域的提升之外,有更多的企业在试图引发一轮全面的颠覆。其代表为谷歌在2016年宣布将独立开发一种名为TPU的全新的处理系统。

  TPU是专门为机器学习应用而设计的专用芯片。通过降低芯片的计算精度,减少实现每个计算操作所需的晶体管数量,从而能让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行得更快,进而更快地让用户得到更智能的结果。Google将TPU加速器芯片嵌入电路板中,利用已有的硬盘PCI-E接口接入数据中心服务器中。

  据Google 资深副总裁Urs Holzle 透露,当前Google TPU、GPU 并用,这种情况仍会维持一段时间,但他表示,GPU 可执行绘图运算工作,用途多元;TPU 属于ASIC,也就是专为特定用途设计的特殊规格逻辑IC,由于只执行单一工作,速度更快,但缺点是成本较高。

  除了上述提到的谷歌,微软也在使用一种叫做现场可变编程门阵列(FPGA)的新型处理器。

  据介绍,这个FPGA 目前已支持微软Bing,未来它们将会驱动基于深度神经网络——以人类大脑结构为基础建模的人工智能——的新搜索算法,在执行这个人工智能的几个命令时,速度比普通芯片快上几个数量级。有了它,你的计算机屏幕只会空屏23毫秒而不是4秒。

  在第三代原型中,芯片位于每个服务器的边缘,直接插入到网络,但仍旧创造任何机器都可接入的FPGA池。这开始看起来是Office 365可用的东西了。最终,Project Catapult准备好上线了。另外,Catapult硬件的成本只占了服务器中所有其它的配件总成本的30%,需要的运转能量也只有不到10%,但其处理速度却是原来的2倍。

  此外,有一些公司,例如Nervada和Movidius,模拟GPU的平行模式,但是专注于更快速地移动数据,省略图像所需要的功能。其他公司,包括使用了被称为“True North”的芯片的IBM公司,开发了由神经元、突触等其他大脑特征所启发的芯片设计。

  由于深度学习和人工智能未来的巨大前景,各大巨头都在尽量争取技术上的优势。如果这其中的某家公司,如谷歌,用一种新型芯片替换掉现有芯片,这基本上就相当于颠覆了整个芯片行业。

  “不管是英伟达、Intel还是谷歌或是百度,都在寻找一种未来人工智能能够广泛应用的基础。”Therese Poletti表示。

  而也有很多人持有与谷歌副总裁Urs Holzle 同样的观点,认为在人工智能的遥远未来,GPU没有代替CPU,而TPU也不会取代GPU,芯片市场将出现更大的需求和繁荣。