英伟达周一在众所瞩目的「GPU Technology Conference」(又称GTC大会)上发表旗舰款AI GPU「Blackwell B200」首席执行官黄仁勋为这场年度开发者盛会揭开序幕。
CNBC、Tom's Hardware等外电报导,B200拥有2080亿颗晶体管、是前世代AI芯片(有800亿颗晶体管)的两倍以上,预计今年稍晚开始出货。 这些晶体管几乎可在同一时间访问B200附加的内存,进而提高生产力。 B200尺寸相当大,将两颗分开制造的裸晶整合进一颗由台积电代工的芯片。
Blackwell B200之所以采用双裸晶组态,是因为使用台积电的4NP制程代工。 4NP制程是现有Hopper H100及Ada Lovelace架构GPU使用的4N制程进化版。 4NP提供的芯片密度应未大幅提升,代表若想要效能更强大的芯片、尺寸也需更大。
黄仁勋在会议上表明,Hopper非常棒、但我们需要更大的GPU。 」
B200 GPU单颗的AI运算效能可达20 petaflops,而前一代H100的AI运算性能最多只有4 petaflops。 B200还将搭配192GB HBM3e内存,提供最高8 TB/s带宽。
英伟达并推出一款Grace Blackwell GB200超级芯片,将两颗B200 GPU及一颗Arm架构Grace CPU结合在一起。
英伟达指出,与H100解决方案相较,基于GB200系统的新一代DGX SuperPOD超级计算机平台,采用水冷设计,AI训练效能提升4倍、推论速度更加快30倍,能源效率则改善25倍。
英伟达也从原本以销售单颗芯片为重心,逐渐偏向贩售一整个系统。 黄仁勋直指,「Blackwell」并非一款芯片,而是平台的名字。
辉达最新系列服务器GB200 NVLink 2将内建72颗Blackwell GPU、36颗Grace CPU,也采用水冷设计,能为AI大型语言模型处理最多27兆个参数的模型。
英伟达并表示,将为商用软件订阅服务新增一款名为「Nvidia Inference Microservice」(简称NIM)的产品,让客户更加轻松使用旧款英伟达GPU进行推论,允许企业继续使用手上已有的数亿颗英伟达GPU。 NIM让企业执行自家AI模型,不需向OpenAI等业者购买AI服务。
辉达指出,包括亚马逊、Alphabet旗下Google、Facebook母公司Meta Platforms、微软、OpenAI、甲骨文及特斯拉在内的大客户,预料都会使用这款最新芯片。