英特尔宋继强:满足ChatGPT应用,数据中心需要架构创新
ChatGPT带火了生成式AI应用,也推动着AI技术发展来到新的临界点,各大科技公司不得不正视ChatGPT所带来的变化与冲击,进而纷纷涉足布局类ChatGPT技术。
ChatGPT大火的背后离不开高算力基础设施的支撑,而这一切的最基本的核心是芯片。ChatGPT接下来会对芯片算力、数据中心带来什么影响?
英特尔中国研究院院长宋继强在接受集微网等行业媒体采访时表示,“未来对算力的需求肯定是上升的。如果说仅用原来的一些方案去线性扩展的话,能效比肯定不是最优的,所以一定要去寻找更好的方法解决问题。”
据悉,ChatGPT在底层算法上并没有太多变化,但它的训练方式采用交互式、强化学习,大大增加了训练的复杂度,数据量也翻倍增长,导致它的模型规模以及训练成本快速上升。此前,OpenAI预估算力需求每3.5个月会翻一倍,每年近10倍,对于目前很多硬件系统方案都会带来新的挑战。
提到AI应用的硬件产品,GPU当仁不让。过去六七年来,随着AI技术在各行业中的应用落地,以英伟达为代表的GPU公司在场景应用上有了较大突破。ChatGPT的出现,也让这些GPU公司看到了更广阔的应用前景。但作为新生事物,ChatGPT仍然处在发展的早期阶段,就像以前的TensorFlow技术,最先是跑在CPU上,后来又有了ASIC芯片。ChatGPT未来发展,或会结合实际应用需求,在CPU、GPU、FPGA、ASIC等类型硬件中探寻更合适的加速方案。
“现在大模型的训练有很高的门槛,训练好了以后,真正要部署的时候提供服务,很多中小型企业介入,他们如何去选择一套最优的硬件方案是接下来的一大关键。”宋继强指出,“这需要在架构上去做创新,为它构造新的类似于CPU+GPU的集群,对存储也要做更多的优化。或许其它非GPU的硬件也可以加入进来,例如,专门的加速器或者FPGA方案,很多创新想法都有可能发生。”
作为一家芯片供应商,英特尔的产品中既有CPU,也有GPU、FPGA等多种类型硬件产品,同时,英特尔在数据中心高性能加速领域拥有深厚的经验积累,这些都为满足ChatGPT这类AI应用的硬件方案提供了基础。
“但我们还不太清楚不同领域的客户的工作负载中哪些环节存在不足,模型训练的交互流程中哪些有瓶颈。这正是我们在做的工作,我们会去和头部客户深入交流,帮助他们去做适应中国应用的定制方案。”宋继强表示。
据悉,英特尔已与包括百度、阿里在内的广泛客户展开深入合作,下一步将跟中国头部客户去共同研究布局推进ChatGPT这类AI技术在企业及垂直领域的落地应用。
*此内容为集微网原创,著作权归集微网所有,爱集微,爱原创
传统车企领衔并购整合,哪些造车新势力有望焕发第二春?
热门评论