研调机构TrendForce今日预估,2024年美系四大云端服务业者Microsoft、Google、AWS、Meta的高级AI服务器(包含搭载英伟达、超微或其他高阶ASIC芯片等)占全球需求分别达20.2%、16.6%、16%及10.8%,合计将超过6成,居全球领先,其中又以搭载英伟达GPU 的 AI 服务器机种占大宗。
研调指出,英伟达近期营收来源以数据中心为关键,主因GPU服务器占整体AI市场比重高达6至7成,后续仍须留意三大状况。
辉达恐受美国禁令箝制
第一,英伟达恐受美国禁令箝制,中国政府将更致力于AI芯片自主化,尤其华为仍被英伟达视为可敬对手,而英伟达因应禁令推出的H20等中国特规方案,性价比可能不及既有的H100或H800等,中国客户采用度可能较先前保守,进一步影响英伟达市占率。
美系CSP业者扩大自研ASIC
第二,在规模及成本考虑下,美系大型CSP业者除Google、AWS外,Microsoft、Meta等也有逐年扩大采自研ASIC趋势。 第三,来自超威的同业竞争,超微采高性价比策略,提供仅辉达60-70%的价格对标同级品,甚至代表性或具规模客户以更低价策略方式抢进市场,预期2024年尤以Microsoft为最积极采纳超微高阶GPU MI300方案业者。
英伟达因应客户加速拓展多元产品线
英伟达在面临潜在隐忧下,更积极加速拓展其多元产品线,以因应不同客户群。 2024年起将正式汰换A100产品,而以价格更高的H100系列为主轴。 除H100.预估自今年第二季末开始小量出货搭载更高HBM3e规格的H200产品。
另外,英伟达未来在价格上将更积极采差别订价,H100采部分折价策略,H200应维持约H100原价格水位,以提供更高性价比方式,稳固云端CSP客户,同时英伟达将采用NRE模式,与Meta、Google、AWS及OpenAI等厂商展开洽谈,并将目标扩及电信、车用及电竞客户。
此外,英伟达预期在2024年下半年将推出新一代B100产品,相较H系列可望在效能上又有所提升,在HBM内存容量将高出H200约35-40%,以因应更高效能HPC或加速LLM AI训练需求。
英伟达在中低端产品上,除L40S针对企业客户做边缘端较小型AI模型训练或AI推论外,也规划以L4取代既有T4.作为云端或边缘AI推论应用。
值得注意的是,为避免2023年GPU供应不足问题,英伟达也积极参与CoWoS及HBM等扩建产能需求,预期今年第二季在相关原厂产能逐步开出后,原交付周期平均约40周也将减半,逐步去除下游供应链因GPU短缺而使AI服务器供应进度受阻问题。