AI 算力供应的绝对龙头——英伟达近日重要新闻颇多,从超出预期的财报及下季度指引,到Computex 2023 发布一系列新芯片、新架构超算、交换机及行业应用,这些动作都在提振市场对算力的信心。我们认为,未来算力等同于生产力,AI 对算力的追求没有天花板,还有诸多预期差将不断催化算力板块与光通信市场上行。 1. AI 超算服务器:英伟达在Computex 2023 上发布了最新AI 计算架构Grace Hopper 以及对应服务器解决方案DGX GH200。Grace Hopper 采用最新的CPU 与GPU 一体设计方案,单颗GH200 Grace Hopper 集成72颗ARM 架构CPU,算力达到4 PFLOPS TE,拥有96GB HBM3 内存与576GB显存;一台集成了256 颗Grace Hopper 芯片的DGX GH200 显存总和达到144TB(通过交换网络实现显存共享),在第四代NVLink 加持下,GPU 互联带宽达900GB/s,总算力达到1 exaFLOPS@FP8,完美适配大规模的AI训练/推理需求。我们认为,随着带宽提升,新架构对光模块的需求弹性也在上行。Grace Hopper 与GH200 已经投产,Google Cloud、Meta 和微软是早期客户。 我们认为,未来GPU 服务器将主导数据中心市场。数据中心正在朝加速计算的方向发展,而生成式AI 助推了这个进程。在企业Capex 有限的情况下,未来投资将集中于GPU 服务器或类似Grace Hopper 的CPU+GPU 混合服务器。以往企业需要花费1 千万美元购置含960 颗CPU@11GWh 的数据中心来运行1 个大语言模型,现在仅需40 万美元购置含2 颗GPU@0.13GWh 的小机柜即可跑动1 个大语言模型。 2. 交换机:英伟达发布世界上第一个AI 以太网网络平台Spectrum-X,其中的RDMA 技术可用于跨服务器显存共享;2022 年亮相的Spectrum-4交换机也正式量产,提供64 个800GbE 端口或128 个400GbE 端口,可以连接分布在两层网络的8192 个GPU,交换速率达到51.2T。英伟达再次强调高密度架构和通信网络对于显卡性能发挥的重要性。 我们认为,超算中心内部通信能力的木桶效应将进一步被放大。市场普遍忽略了交换网络的重要性。英伟达Infiniband Q1 营收创纪录,据英伟达测算,若企业支出5 亿美元建设交换网络,Infiniband 和以太网的吞吐量差异是15%-20%。同时,Infiniband 更加适合GPU 负载,适配Infiniband 协议的光模块单价也更高,将进一步提升光模块在超算中的价值量。 3. 算力客户将呈现多样性。金融、医药、游戏、工业等垂直领域均在加速部署AGI,例如:1)彭博社将部署500 亿参数的BloombergGPT 和FINPILE数据集,聚焦金融领域任务;2)药企Amgen 正在使用DGX Cloud 以及英伟达BioNeMo 大模型来加速药物发现;3)NVIDIA Avatar Cloud Engine(ACE),用于定制游戏AI 模型,可通过AI 支持的自然语言交互带来智能NPC,有望彻底改变游戏体验;4)Nvidia Omniverse 赋能工业互联网,为制造业带来快速智能化的解决方案。算力需求正在渗透至各行各业,这将不断强化“算力追求没有天花板”、“应用越丰富,算力越多样”的逻辑。 风险提示:AI 需求不及预期,英伟达产品交付不及预期。
【免责声明】本文仅代表第三方观点,不代表和讯网立场。投资者据此操作,风险请自担。