1.英伟达DGX SuperPOD“最强”AI超算:搭载GB200,算力达11.5EFLOPS
2.机构:预计2024年全球AI PC出货量可达4800万台
3.越南已将半导体纳入30~50年发展重点,机构看好其经济发展
4.“两翼业务”营收稳健增长,中国铁塔2023年净利润同比增长11%
5.科翔股份总投资20亿元钠电池项目“折戟”
6.天津国芯承担的天津市新一代人工智能科技重大专项成功通过验收
7.遥遥领先的B200 英伟达让你看不到车尾灯
8.陆行之:如果英伟达B200卖得好,AMD和英特尔就不用玩了
1.英伟达DGX SuperPOD“最强”AI超算:搭载GB200,算力达11.5EFLOPS
英伟达3月18日发布最新人工智能(AI)超级芯片GB200,采用全新Blackwell架构。当日,英伟达推出搭载GB200或B200的人工智能超级计算机——DGX SuperPOD,可用于处理万亿参数大模型,为超大规模生成式人工智能训练和推理工作负载提供稳定支持。
全新的DGX SuperPOD采用高效液冷机架式服务器架构,可以在FP4精度下提供11.5exaflops(EFLOPS,每秒百亿亿次)的人工智能超级计算能力和240TB的高速内存,并可通过增加机架扩展至更多。
英伟达DGX GB200系统
作为超级计算机的一个计算单元,每个DGX GB200系统包含36个英伟达GB200超级芯片,因此总计拥有36个Grace CPU、72个Blackwell B200 GPU、13.3TB的HBM3e显存、30.2TB的高速内存,通过第五代英伟达NVLink互联。与此前的H100平台相比,全新的GB200超级芯片在大语言模型推理工作负载方面的性能最多可提升30倍,FP4算力达1440PFLOPS。
而DGX SuperPOD超级计算机,可以集成至少8个或更多DGX GB200系统,并可以通过扩展集成数万个GB200超级芯片,组成巨大的共享内存来为下一代AI大模型提供支持。客户可以将8个DGX GB200系统组合,将其中的576个Blackwell GPU通过NVLink互联。
集微网了解到,英伟达这一超级计算机架构还囊括BlueField -3 DPU,并将支持当日同时发布的NVIDIA Quantum-X800 InfiniBand网络,该平台可以为每个GPU提供高达1800GB/s的大带宽。此外,英伟达第四代可扩展分级聚合与还原协议(SHARP技术),可以提供14.4TFLOPS的网络内计算能力,与上一代相比提升4倍。
以下为DGX GB200部分参数:
英伟达DGX B200系统
除了由两颗GPU、一颗CPU整合的GB200超级芯片,英伟达同时推出单纯由B200 GPU构建的DGX B200系统。该系统使用第六代风冷散热,DGX传统机架式设计,每个服务器包含8个B200 GPU以及2个英特尔第五代Xeon至强处理器。客户还可以使用多个DGX B200系统构建DGX SuperPOD超级计算机,为AI开发提供支持。
英伟达表示,每个DGX B200系统提供144petaflops(PFLOPS,每秒千万亿次)的FP4浮点运算性能,1.4TB海量显存和64TB/s显存带宽。与上一代产品相比,万亿参数AI大模型的实时推理速度提高了15倍。
以下为DGX B200参数:
据悉,所有英伟达DGX平台均包含用于企业级开发和部署的NVIDIA AI Enterprise软件,客户可以利用英伟达提供的工具来提高工作效率。
英伟达表示,配备DGX GB200和DGX B200系统的NVIDIA DGX SuperPOD超级计算机,预计将于今年晚些时候从英伟达的全球合作伙伴处发售。
2.机构:预计2024年全球AI PC出货量可达4800万台
研究机构Canalys于3月18日公布的最新预测显示,预计2024年全球人工智能电脑(AI PC)出货量可达4800万台,在PC市场占比约为18%。2025年,预计AI PC出货量将超过1亿台,占比40%。该机构预测2024~2028年期间,复合年均增长率可达44%,2028年AI PC出货量将超过2亿台。
目前英特尔等厂商均已推出集成有专用人工智能加速单元(如神经处理单元NPU)的PC处理器,业界预计AI PC将释放全新生产力,提高效率与实现个性化功能。
Canalys分析师Ishan Dutt表示,人工智能加速芯片在个人计算领域的广泛应用,将带来变革。AI PC将带来更高的能效、更高的安全性,并降低与运行人工智能负载相关的成本。这一新兴电脑类别为软件开发商和硬件供应商,开辟了新的创新领域,也将为消费者、教育及商业场景客户带来引人注目的应用。
该机构预测,与未集成NPU的同类PC相比,AI PC将溢价10%~15%。随着搭载率的提升,2025年价格800美元及以上的PC,将有一半支持人工智能计算,到2028年这一比例将增至80%。这有助于推动PC市场整体价值从2024年的2250亿美元增长至2028年的2700亿美元以上。
3.越南已将半导体纳入30~50年发展重点,机构看好其经济发展
越南政府已将半导体产业纳入未来30~50年国家发展重点之一,已吸引来自美国、韩国、日本和欧洲等国家/地区的半导体产业大公司投资。多家金融机构表示,半导体发展动能将推动越南经济增长,此外投资者可投资布局越南股票型基金,进而参与后市增长。
越南国家半导体产业战略表示,目标是到2030年使得越南成为半导体芯片产业设计、封装和测试中心。
美国总统拜登曾于2023年访问越南,随后美国宣布将根据《芯片法案》对越南半导体产业进行投资,实现供应链多元化并减少对中国的依赖,将投资5亿美元提升越南在内的7个目标国家/地区的半导体培训、网络安全和商业环境。在这些国家/地区中,越南是优先考虑的。
日盛越南机会基金研究团队分析,随着产业寻求转移至中国以外地区,越南凭借人口、土地、政经环境与低利率政策、扩张性货币等优势,持续受到外来投资者青睐,尤其是人工智能(AI)带动的新一轮电子制造业投资热潮,有望再为越南总体经济增长带来强劲动能。
中国信托越南机会基金经理人表示,2024年至今越南股市上涨逾10%,其中化学类股票表现活跃,代表性企业德江化学(DCG)今年以来上涨近35%,主要受惠于其生产的黄磷为半导体制造重要原材料。
日盛越南机会基金指出,根据越南统计局数据,2023年前两个月越南出口额593.4亿美元,进口额546.2美元,贸易顺差47.2亿美元,创2009年以来新高。根据IMF(国际货币基金组织)3月报告,越南2024年GDP目标将达到近4700亿美元,经济增长动能强劲。
基金经理人表示,越南国会预计将于今年颁布新法令,将使用募集的资金支持高科技产业发展。
4.“两翼业务”营收稳健增长,中国铁塔2023年净利润同比增长11%
3月18日,中国铁塔公布了2023年业绩报告称,2023年实现营收940.09亿元,同比增长2%;实现净利润97.5亿元,同比增长11%。
财报显示,2023年中国铁塔运营商业务实现营收821.63亿元,同比下降1%。其中,塔类业务实现营收750.23亿元,同比下降2.8%;室分业务实现营收71.4亿元,同比增长22.5%;资本开支为317.15亿元。
中国铁塔表示,营收增长的动能来自于两翼业务。智联业务实现营收72.83亿元,比上年增长27.7%;其中,铁塔视联业务实现营收47.27亿元,占智联业务收入比重64.9%。能源业务实现营收42.14亿元,比上年增长31.7%;其中,铁塔换电业务实现营收20.67亿元,占能源业务收入比重达49.1%。
具体业务层面看,铁塔业务发展稳健,2023年全年完成5G基站建设58.6万个,其中95%以上通过共享已有资源实现;截至2023年底,塔类站址204.6万个,相比2022年减少0.9万个;塔类租户达到342.4万户,站均租户从2022年的1.65,提升至2023年1.68,共享水平进一步提升,整体共用水平则从1.74提升至1.79。
两翼业务保持稳健增长,占整体营收比重达到12.2%,相比2022年提升了2.5个百分点。智联业务方面,截至2023年底,约21.7万座通信塔升级为数字塔;能源业务方面,铁塔换电用户达到114.5万户,相比2022年增加了24.3万户,在轻型电动车市场的龙头地位进一步巩固。
中国铁塔表示,2024年公司将坚持科技创新与体制机制创新“双轮驱动”、科技创新与科技成果转化同时发力,让科技创新成为公司经营发展的底色和主线,全面塑造新动能新优势,加快形成新质生产力,支撑实现高质量发展。积极布局和扎实推进战略性新兴产业和未来产业科技创新,加大边缘算力网络、人工智能、新能源、5G-A/6G等领域的技术攻关;深化“室分+”、智能运维、一码到底、铁塔视联等产品创新,强化源头供给和数字化赋能水平,提高核心竞争力;持续深化“能力水平、任务项目、资源配置、成果转化”四份清单工作机制,完善“公司总部、省分公司、产业生态、国际组织”四位一体科技创新体系,加强科技创新人才队伍建设,加大科研投入和奖励激励,不断提升科技创新整体效率效能。
5.科翔股份总投资20亿元钠电池项目“折戟”
3月19日,科翔股份发布公告称,结合公司战略发展等因素,公司决定终止《新建6GWH钠离子新能源电池项目投资意向合同书》。
根据此前公告,公司于2023年3月3日召开第二届董事会第七次会议审议通过了《关于签订<新建6GWH钠离子新能源电池项目投资意向合同书>的议案》,并与信丰县人民政府签订《新建6GWH钠离子新能源电池项目投资意向合同书》,投资建设钠离子电池及材料新能源工业园,项目主要生产经营钠离子电池及材料的研发、生产及销售,总投资20亿元。
公开资料显示,2023年1月,科翔股份便与青岛正钠芯企业管理合伙企业签订了《投资合作协议》,双方共同投资设立一家有限责任公司(当时暂定名为科翔钠能有限责任公司),注册资本为1500万元。该公司经营范围主要包括电池制造;钠离子及锂离子电池正极材料、负极材料、电解液等原材料的研发、生产和销售。其中科翔股份占70%股权,剩余30%股权由青岛正钠持有。
2023年2月,赣州科翔钠能科技有限公司注册成立,该公司也成为科翔股份开展钠离子项目的载体。据工商资料显示,该公司在去年6月完成增资扩股,注册资本增至1亿元。
不仅如此,在上述投资意向签订后,科翔股份还对外积极释放投资预期。科翔股份曾透露,控股子公司科翔钠能计划2023年7月份建成钠离子电池中试线并进行批量生产。公司同时表示,根据当时市场预测,计划的三条电池生产线全部满产,将带来10亿元收入。
直到去年8月,科翔股份依旧在投资者互动平台表示,“公司钠离子项目正在推进中”。且公布了一份关于《科翔8GWH钠离子储能电池及相关产品项目投资协议》,以及一份《关于新建高端PCB智能制造工厂项目投资合同书》。以上项目和此前的钠电池项目一样,价值约20亿元,但科翔股份也并未解释上述两项投资是否与半年前的钠电投资项目有所关联。
上月20日,科翔股份及其3位高管已经因为信披违规收到深交所的监管函。一是重大投资项目进展披露不及时。科翔股份与信丰县人民政府原计划在信丰县建设的项目不再继续开展,但公司没有及时公告该项目进展情况。第二桩违规是未披露并购子公司的对外担保情况。科翔股份收购赣州科翔电子科技一厂有限公司(简称赣州一厂)80%股权,在收购之前,赣州一厂存在为原股东的对外借款提供担保的情况。2022年底,赣州一厂的对外担保责任尚未解除,公司2022年年度报告未披露赣州一厂对外担保相关情况。
2023年,因PCB行业景气度下行,科翔股份业绩并不理想,公司从第一季度开始由盈转亏。公司业绩预告显示,预计2023年归母净利润亏损1.25亿元到1.45亿元。科翔股份解释称,受行业景气度及价格竞争等外部因素影响,并且信用减值损失、资产减值损失等较上年也有所增加。
6.天津国芯承担的天津市新一代人工智能科技重大专项成功通过验收
2024年3月19日上午,天津市科学技术局委托天津市科技咨询业协会组织了对天津国芯科技有限公司(苏州国芯科技股份有限公司全资子公司)牵头承担的天津市新一代人工智能科技重大专项项目“面向生物特征识别的边缘计算芯片研发及产业化”的结项验收会。经过审查材料、现场汇报、质询答疑等环节,验收会专家组一致认定该项目按计划完成了任务合同书规定的研究内容和考核指标,同意通过验收。
依托该项目设计的面向生物特征识别的边缘计算芯片已在智能门锁、金融POS机、考勤机具等生物特征识别场景实现产业化。该项目的顺利实施,进一步增强了公司的技术能力,促进了公司高水平人才队伍建设。公司将抢抓机遇,进一步深化产学研联动,强化科研创新能力,加快科技成果转化落地,助力公司高质量发展。
7.遥遥领先的B200 英伟达让你看不到车尾灯
黄教主当仁不让,一人撑起2024GTC大会2个多小时的秀场,并接连祭出数个王炸,让业界叹为观止。
光环加身,黄教主真人秀的金句无疑具有行业指向性意义:我们正处于行业中两个转变的开端,一是通用计算到加速计算的转变,二是向生成式AI的转变。
而让我们感叹的不止是第七代基于Blackwell架构的B200 GPU远超前一代的性能,英伟达一系列左右开弓、前瞻布局的举措也展现了其在通用AGI时代的完整战略和布局,业界惊呼:英伟达正在超越“英伟达”。
迎接两大转变 全面撒网
英伟达重磅发布的Blackwell架构GPU无疑是一枚深水炸弹:B200包含2080亿个晶体管,可提供高达20千兆次的FP4算力,是前一代H100的5倍,支撑10万亿参数大模型训练。由两片B200组成的GB200,在基于1750亿参数的GPT-3基准测试中,其性能是H100的7倍、训练速度则提高了4倍。
8年时间,从Pascal架构到Blackwell架构,英伟达将AI计算性能提升了1000倍。之前黄教主还表示,未来10年GPU还可将深度学习能力提升100万倍。
而这还只是开胃小菜,黄仁勋还直指足以优化万亿参数级GPU计算的最强AI基础设施,推出全新网络交换机X800系列,吞吐量高达800Gb/s;以及新一代DGX SuperPOD AI超级计算机,性能直接秒杀一众同侪。超级计算机的“生成”之路在于:两个GB200超级芯片形成一个计算节点,18个计算节点构成计算单元GB200 NVL72,它们可通过持续扩展,最终构成包含32000 GPU的分布式超算集群。
北京半导体行业协会副秘书长朱晶在朋友圈发文表示,Blackwell架构GPU展示了英伟达从芯片、互联、服务器、网络、算力集群等全方位的遥遥领先。
不止如此,尽管CUDA已成为英伟达的强护城河,但随着ChatGPT的出现大幅度加速了生成式AI的开发和应用进程,英伟达软件再下一程,推出了NIM。作为一组经过优化的云原生微服务,旨在缩短上市时间并简化在云端、数据中心和GPU加速工作站上部署生成式AI模型。
无疑,这或算是CUDA霸权的延伸。进一步来看,英伟达企业级软件家族的极大丰富,说明其在“软件公司”的路上越走越远,对于生态的深度和广度远非其他企业可比。
面向人形机器人的大爆发,英伟达也全线发力,发布人形机器人基础模型Project GR00T、新款人形机器人计算机Jetson Thor,对Isaac机器人平台进行重大升级,推动具身智能突破。与苹果强强联手,将Omniverse平台引入苹果Vision Pro,并宣布为工业数字孪生软件工具提供Omniverse Cloud API。
一系列凌厉出招,无疑都在表明英伟达正在全力打造一个AGI时代的“航空母舰”,英伟达的进化版已经实现全面的进化。
技术持续优化 前沿布局
实现如此巨大的“飞跃”,不得不说一些新兴和前沿技术功不可没。
有分析称,Blackwell自身最大的变化是dual die chiplet和更大的晶体管数量,采用同样的TN4工艺。而且,英伟达在系统级以及解决通信瓶颈层面提升迅速,包括互联的NVSwitch和NVlink不断提升性能,如升级第五代NVLink,具有1.8 TB/s的全对全双向带宽,互连速度是Hopper的2倍,支持576个GPU NVLink域,可解决万亿参数混合模型通信瓶颈。
通过Grace CPU+Blackwell GPU的比例优化(从1:1到1:2实际按照die是1:4),发挥更大的合力。这也凸显英伟达在GPU领域占据主导地位的同时,CPU也在成为英伟达的新利润池。
朱晶进一步表示,此次的Blackwell架构的chiplet设计与一般的Chiplet不太一样,两颗GPU之间的高带宽I/O链路是关键。英伟达称为NV高带宽接口 (NV-HBI ),可以提供 10TB/秒的带宽,这大于普通的Chiplet能做到的互联带宽,单纯看这个架构应该是高度依赖先进封装。
更值得关注的是,英伟达还宣布台积电、新思科技将突破性的光刻计算平台cuLitho投入生产。cuLitho可将计算光刻加速40-60倍,英伟达还将推出新的生成式AI算法增强cuLitho,将为2nm及更先进制程开发提供“神助攻”。
对此黄仁勋表示,计算光刻将成为芯片制造的基石。
台积电CEO魏哲家在一份声明中表示:“我们与英伟达合作,将GPU加速计算集成到台积电工作流程中,从而实现了性能的巨大飞跃、吞吐量的显著提高、周期时间的缩短和功耗的降低。我们正在将cuLitho转移到台积电生产,利用这种计算光刻技术来驱动半导体微缩的关键组件。”
整体而主,先进工艺+先进封装、算法改进、架构优化已成为英伟达持续进阶的三大利器,而在上述层面的强强联合也为英伟达未来发展增添无数后劲。
架构变革应对 押注推理
一系列“杀手级”GPU和超级计算机也让业界认识到,英伟达将进一步拉大与其他芯片企业在大模型训练上的差距,这种差距甚至可能在几十倍水平。
“在这次GTC之后,我国在大模型上的差距不止一年了,芯片层面更是差距遥远,短时间都摸不到Blackwell GPU……”朱晶如此叹息道。
要在训练层面翻盘,必须要独辟蹊径。业内人士对集微网表示,整体而言,国内与英伟达在GPGPU的差距在急剧拉大,如果沿袭之前的思路恐难以企及,需要通过新的架构和逻辑来追赶和超越,架构包括新的计算架构、芯片架构等,减少数据搬运是提升效率的关键。而且,不能仅依靠一两家大企业,必须百花齐放。
在生态层面,要认识到生态建设是个长期的过程,需要瞄准独立的生态才能有长足的发展,但是过渡期兼容性问题需要仔细考虑。上述人士进一步指出,好比新能源汽车,国内在新能源汽车市场发展强劲,通过自我闭环也打造出全新的新能源汽车生态。
避其锋锐,在推理层面或可扳回一局。
目前推理芯片市场规模相对较大,据预计国内到2025年训练芯片市场规模为494亿元,而推理芯片市场规模将达到891亿元,国内AI芯片企业走推理之路或能弯道超车。在大模型推理芯片市场,GPU优势并非无法撼动,据悉已有不少企业抢夺了英伟达的市场份额。
国外一位资深专家在解读时提到,英伟达B系列GPU代表了其未来瞄准的“万亿参数AI”的巨大飞跃。我经常读到的一本书上说软件能带来约 85%的利润率,而硬件利润率则通常很低,几十年来这一直被奉为圭臬。然而,现在的情况却并非如此,英伟达GPU正创造85%以上的利润率。如果要说科技行业有什么真理,那就是没有永恒的真理。
8.陆行之:如果英伟达B200卖得好,AMD和英特尔就不用玩了
2024年英伟达GTC大会登场,黄仁勋发表命名为Blackwell的新一代图形处理器(GPU)设计架构,资深半导体产业评论家陆行之在社交媒体分享了五点看法。
他指出,首先,Blackwell 100有2080亿晶体管比Hopper 100的800亿晶体管多1280亿晶体管;其次,B100跟H100相同,都是用台积电4nm,但是把两个芯片用封装结合,不是用微缩来加倍运算速度;
他还分析,GB200 Superchip把2颗B100及72颗ARM Neoverse V2 CPUcores一起包起来,“如果卖的好,Intel/AMD的AI server CPU就不用玩了。”
他指出:“不懂为何两颗B100(192+192=384HBM3e)+一颗Grace CPU的GB200 Superchip怎么HBM3e突然暴增到864GB?理论上CPU应该配LPDDR,但英伟达说两组GB200有1.7TBHBM3e,是不是做ppt的小朋友搞错了?”
最后,他认为“要建立32000颗B100GPU的AI data center,能提供645 exaFLOPS的AI performance,大概要花12亿美元在B100GPU上,3亿美元系统,3-5亿ARM CPU,还要近890颗的NVlink switch芯片,也是用台积电4nm来制造,感觉20亿美元以上跑不掉。”