欢迎访问百万发-百万发平台-百万发娱乐平台首页!
广告位

百万发-百万发平台-百万发娱乐平台

广告位
当前位置:主页 > 手机频道 > 数码 >

谷歌已经All in:人工智能浪潮下的硬件风暴

时间:2018-05-16 09:19 点击: 作者:
[导读]原标题:谷歌已经All in:人工智能浪潮下的硬件风暴 【中关村在线原创】在前两天的谷歌I/O大会上

原标题:谷歌已经All in:人工智能浪潮下的硬件风暴

【中关村在线原创】在前两天的谷歌I/O大会上,百万发娱乐平台百万发平台,在安卓P之外,谷歌还发布了非常重要的硬件:TPU3.0。这是这家科技巨头第三次发布新版本的机器学习专用处理器。除了谷歌和业内英伟达,还有哪些科技巨头也参与到了AI硬件的研发当中?

谷歌已经All in:AI浪潮下的硬件风暴


AI开销大,谷歌已Allin

人工智能需要大量的计算资源进行训练。但是这个规模有多大?很多人是没概念的。对于大公司来说,对资源的要求非常高,尤其是神经网络,比如谷歌I/O大会大放异彩的安卓电池节约模式和自动亮度调整,就是Deepmind的产品,Deepmind在官方新闻并未透露让手机学习这些行为需要多少资源,但是在围棋项目上可以窥探一下。

谷歌已经All in:AI浪潮下的硬件风暴


2000个P100运行两三周才能训练出强大的围棋程序

Deepmind训练AlphaGoZero的时候,2000个TPU跑了40天。AlphaZero训练则是调用了5000个TPU。写成论文之后,Facebook在重现论文的时候,则是使用了2000个GPU运行了两三周的时间,这个GPU都是英伟达的P100,一个8GPU的学习服务器英伟达就要卖到上百万人民币。

谷歌已经All in:AI浪潮下的硬件风暴


TPU:每小时6.5美元,训练AlphaGo要数百万美元

让巨头们狠下心来自己搞AI硬件的动力来自多个方面,一来谷歌自己做针对TensorFlow优化的TPU效果好,二来现在谷歌云都可以租赁分时使用TPU资源了,对于擅长硬件或是云计算的科技巨头们来说,是时候发展自己的AI硬件了,这正在成为大公司的游戏。

CPU在任务处理器里出现两个核心,可以追溯到十多年前的奔腾四时代,刚刚出现的HyperThreaing技术。不过很多年过去,由于CPU的单个核心任务繁重,所以就算是服务器的版本,核心数也不过20多个就基本到头了。

谷歌已经All in:AI浪潮下的硬件风暴


GPU更多的核更适合机器学习和AI

在神经网络出现之后,要用计算机系统去模拟更多的人大脑的神经元,这样神经网络在训练的时候对资源的开销非常大。因为神经网络的特点是节点多,这对于核心不多的CPU来说就需要非常大的服务器集群。但是当时人们发现了显卡,单个显卡上面有很多个单元,正好适合训练人工智能的神经网络。

谷歌已经All in:AI浪潮下的硬件风暴


在TitanV当中,英伟达加入了640个张量单元用来加速AI训练速度

谷歌已经All in:AI浪潮下的硬件风暴


英伟达的股票过去几年成为投资热点,暴涨了数倍

而神经网络单个节点并不需要多高的计算能力,这让显卡企业英伟达迅速的推出了针对神经网络、机器学习专用的GPU,过去几年英伟达的股价暴涨数倍。科技巨头们采购的GPU往往以万计,只有这个规模才能满足他们对于探索的需求。

谷歌已经All in:AI浪潮下的硬件风暴


DGX-2可以支持单机16个V100GPU

现在英伟达成为了业内最大的机器学习GPU的供应商,并且英伟达自己也提供DGX系列机器学习服务器,今年的新款可以单机支持16个GPU,过去是8个。可以说英伟达是AI时代最大硬件赢家也不为过。

谷歌已经All in:AI浪潮下的硬件风暴


赢家自信的微笑

这里我们回到开头,Facebook训练围棋程序ELF用了多少个GPU?2000个!英伟达总裁黄仁勋还可以笑很久很久。

谷歌最早的GoogleBrain搞机器识图的时候,就是大规模的GPU集群。据说曾经用力上万张GPU来进行学习训练。因为GPU并没有针对性的对谷歌的TensorFlow框架进行优化。而到了和李世石下围棋的版本,则已经开始使用自己的TPU,但是多达50个。

谷歌已经All in:AI浪潮下的硬件风暴


谷歌完整经历了从CPU到GPU再到TPU的流程

到了与柯洁下棋的时候,可以看到机器已经变成了只要一个4U左右的4TPU服务器就可以,这就是专用芯片的威力,对于AI和神经网络,专用芯片的效率提升是指数式的,而不是线性的几个机架缩小到1个。

谷歌已经All in:AI浪潮下的硬件风暴


TPU2.0:四个一张PCB,算力可以达到180TFlops