【芯事记】ChatGPT狂飙之下,云计算加速键启动?

来源:爱集微 #ChatGPT# #芯事记#
1.8w

集微网消息,ChatGPT一夜爆火,成为AI届的“流量收割机”。有观点认为,ChatGPT不仅是AI的成功,也是云计算的成功。AIGC(人工智能生成内容)有望开启云计算产业链新一轮景气周期。

ChatGPT与云计算有何关联?

最为显见的是,ChatGPT大模型产品的运行背后需要强大的云计算算力支撑。2月7日晚,ChatGPT再次因访问量激增而宕机,体现出AI应用对于云计算的海量算力需求。

阿里云大规模降价吸睛

云计算市场在AI大爆发下迎来新的智能化发展机会。在激烈的云计算厂商角逐中,国内各家在不断推介自家产品的路上,开启了新的竞速。

例如,阿里云在近日举办的“阿里云合作伙伴大会”上,宣布史上最大规模降价,核心产品价格全线下调15%至50%。降价的产品中,弹性计算7代实例和倚天实例降价最高20%,存储OSS深度冷归档相比此前最低档价格低50%,网络负载均衡SLB和NAT网关降价15%,数据库RDS倚天版降价最高40%,视频云和CDN降价最高20%,安全Web应用防火墙降价最高30%。价格调整将于5月7日生效,客户可通过阿里云官网获得新的优惠价格。

阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇在会上表示,阿里云致力于“让算力更普惠”,这次大规模降价是希望将技术红利更多回馈给客户和伙伴,持续降低用云成本,扩大云的市场空间。

当然,这并不是阿里云首次打出“降价牌”。据悉,过去十年,阿里云将计算的成本降低了80%,存储成本下降了近9成。此次开启史上最大规模降价,阿里云志在进一步扩大公共云的用户基数和规模,提升云计算产品的市场渗透率

阿里云此前透露,云计算可以大幅提升计算资源的利用率,云数据中心内的CPU平均利用率,可以达到传统数据中心的5倍以上。不过中国IT市场的云计算渗透率不到15%,中国数据中心的CPU利用率仅为10%左右。

大模型下,云计算发展阻力仍存

日前,阿里CEO张勇表示,我们正站在智能化的起点,阿里云云计算产品结构的顶层为MaaS,模型即服务。在云计算传统的IaaS、PaaS、SaaS商业模式基础上,又多了一层。

因ChatGPT带来的大模型浪潮,不难猜测,MaaS将成为未来云计算的“热销单品”。

反复提到“被集成”、“伙伴优先”,在张勇的坐镇下,阿里云要做生成式AI浪潮下的弄潮儿,决心可见。在“阿里云合作伙伴大会”,阿里云向各行业伙伴表示,阿里云的大模型可以根据各位的需求随意裁剪、修改,只为让客户用得趁手。

去年9月,专注于云、SaaS领域的硅谷风投公司 Scale合伙人Jeremy Kaufmann发布了一篇《大模型是新的公有云》文章,其指出大模型真正的意义在于它们可以封装所有可访问的人类知识,并被再次封装到新的模型中。他给出了巨大的商业前景,“软件实际上会吞噬世界。”

但是从目前的市场表现来看,在大模型带动背景下,云计算市场的增长并未“起飞”。

据Canalys数据,2023年第一季度,全球云基础设施服务支出增长19%,达到664亿美元。Canalys分析指出,虽然云计算仍然是IT市场中增长最快的部分之一,但面对持续的宏观经济不确定性,客户的投资继续放缓,云增长首次低于20%。全球云服务市场持续低迷。

ChatGPT火爆趋势下。集微咨询认为,训练资源需求的飙升一定会带来数据中心基础设施建设的需求的提升——如果以类GPT应用的模型发展维度来看,一个模型从初级到中级,最终变得成熟,其算法架构所需的参数量是几何级数的成长。

来源:Scale

尽管如此,云计算市场发展仍然存在诸多阻力。

例如,因担心数据隐私泄露,三星等已正式宣布禁用ChatGPT等生成式AI工具,1月份亚马逊也给出了同样的警告,摩根大通、美国银行和花旗等大型银行则早已对人工智能下了禁令,是首批限制员工访问ChatGPT的公司。

5月5日,OpenAI首席执行官Sam Altman表示,OpenAI已经“有一段时间”没有使用付费客户数据来训练其AI大语言模型,如GPT——“客户显然希望我们不要训练他们的数据,所以我们改变了计划,我们不会那样做。”(校对/魏健)

责编: 赵碧莹
来源:爱集微 #ChatGPT# #芯事记#
THE END

*此内容为集微网原创,著作权归集微网所有,爱集微,爱原创

关闭
加载

PDF 加载中...