您的位置: 集微网:老杳微信号laoyaoshow >> 资讯 >> IC资讯 >> 详细内容 在线投稿

Google TPU机器学习运算效能优于CPU、GPU 惟需搭配专用平台

更多猛料?欢迎关注老杳个人微信号:laoyaoshow
来源: DIGITIMES   发布者:DIGITIMES
热度36票   时间:2017年4月21日 18:02
过去几年来,市场上对深度学习(deep learning)运算需求不断攀升,Google在2011年就意识到,若全球的使用者每人每天使用Google语音搜寻服务3分钟,Google的资料中心数量得要是当时的2倍才够应付,为了解决此问题,Google从平台到芯片都下了功夫,富比士(Forbes)就报导了Google打造TPU的缘起,并分析了TPU的优缺点。

综观市场主流的中央处理器(CPU)及绘图处理器(GPU)可说各有优劣,一般来说,CPU是针对处理通用任务所设计,优点是能为单一任务提供高速的回应,缺点是一次无法处理太多任务。

另一方面,GPU则是为因应大量平行运算的绘图应用程式所设计,能同时处理许多任务,但在单一任务的处理效能及所能处理的任务种类上则比不上CPU,不过对于需要同时执行数百万运算任务的深度学习网路而言,GPU似乎更合适。

Google虽已采用了NVIDIA为机器学习所设计的GPU,却仍觉不足,另外,GPU能耗虽不高,但对于拥有数百万台服务器、且必须日夜不间断执行运算的Google而言,累积起来的能耗还是会成为大问题,在各种因素影响下,Google决定干脆自己解决,因而在2016年5月发表了自家为机器学习所开发的客制芯片Tensor Processing Unit(TPU),不过当时并未提供太多细节。

近日Google才又在一份报告中揭露了更深入的资讯,该报告将2015年开始于Google资料中心运行的第一代TPU,与英特尔(Intel)Haswell CPU及NVIDIA K80 GPU就速度及效率进行了比较。

由于此款TPU是专门为运行深度学习网路中的推论(inference)而设计,故测试也是以此为基础进行,在Google的测试中,TPU执行机器学习的速度比CPU、GPU快上15~30倍,每瓦效能比更是CPU、GPU的30~80倍,表现相当亮眼。

不过值得注意的是,Google用于测试的芯片是2015年初的产品,这段时间里英特尔与NIVIDA的产品也进步不少,若以今日的产品进行测试,想必会是不同的结果,只是当时TPU的表现太优异,英特尔与NIVIDA应该无法这么快就追上。

从本质上来比较,CPU灵活度较高,可执行较多元化的任务,包括可使用各种函式库来进行深度学习网路中的学习和推论;GPU虽不如CPU有弹性,但却有较佳的深度学习运算能力,可同时执行学习和推论,且也不限于使用单一函式库。至于TPU则是完全没弹性,必须结合TensorFlow才能以最优异的表现进行推论任务。

实务上,在一般工作环境里想执行更有弹性的深度学习任务时,采用GPU是相当合适的选择,像Google这类客制ASIC芯片就比较受限,需有相对应平台做搭配才能发挥所长。Google显然就是打算要同时推动TensorFlow与TPU的发展,使两者相辅相成,目前虽不知Google对TPU的市场规划为何,不过第三方用户还是能先从Google机器学习解决方案的云端服务中,体验到TPU在运算上的优异效能。


    扫描下方二维码关注老杳或集微网官方微信:




  • 【手机中国联盟官博系列赠机活动进行中,欢迎参与】

  • 老杳吧本周热点帖子

    老杳吧今日热点帖子


    TAG: Google google GOOGLE
    顶:2 踩:2
    对本文中的事件或人物打分:
    当前平均分: (10次打分)
    对本篇资讯内容的质量打分:
    当前平均分: (12次打分)
    【已经有人表态】
    2票
    感动
    1票
    路过
    1票
    高兴
    1票
    难过
    2票
    搞笑
    1票
    愤怒
    1票
    无聊
    1票
    同情
    上一篇 下一篇