数据中心提供商 Equinix 已开始为客户提供在基于 Nvidia 软件和硬件的完全托管的私有云基础设施上运行生成式 AI 应用程序的选项。
这项服务于本周推出,是 Equinix 为希望使用其租赁设施运行生成式 AI 模型的客户配备数据中心的最新示例。12 月,Equinix 开始在全球 100 个数据中心推出液体冷却系统,以消散驱动 AI 应用程序密集处理所需的电力产生的热量。
Equinix与Nvidia合作提供托管AI基础设施,也可在公共云提供商AWS,Google Cloud和Microsoft Azure上使用。然而,对 AI 服务的高需求以及运行它们的高性能 GPU 的稀缺性使得成本高于许多企业愿意支付的成本。
Equinix 的公有云替代方案是 Nvidia DGX 超级计算基础设施,用于构建和运行自定义生成式 AI 模型。该服务包括 Nvidia DGX 硬件,其中包含 8 个 H100 Tensor 核心 GPU、2 TB 系统内存、网络和存储。该系统配备了用于系统管理的 Nvidia AI Enterprise 软件。
该公司表示,Equinix将为客户设计、安装和运营Nvidia环境,以从系统上运行的AI模型中生成客户想要的输出。测试该服务的组织涉及生物制药、金融服务、软件开发、汽车和零售业。
Equinix拒绝透露客户的名字或公布定价。它在硅谷和弗吉尼亚州北部的数据中心推出了托管服务,并计划稍后将该产品推广到美国、欧洲和亚洲的其他地区。
许多去年在公共云上测试生成式 AI 模型的企业都希望今年利用他们的知识来部署它们。Gartner分析师Chirag Dekate表示,在大多数情况下,企业可以使用数据集来实现其目标,该数据集具有70亿个参数。模型大小比 OpenAI 的通用 ChatGPT-3 小,后者有 1750 亿个参数,需要一小部分基础设施。
Dekate 说,喜欢在主机托管设施而不是数据中心部署小型语言模型的企业可以考虑 Equinix-Nvidia 产品,它“尽可能接近交钥匙体验”。
英伟达向其他数据中心提供商提供其DGX AI基础设施,包括Digital Realty、EdgeConneX和Flexential。然而,Dekate表示,在其DGX-Ready数据中心计划中,没有一个英伟达合作伙伴能够与云提供商的单一界面相媲美,以添加位于模型基础设施之上的服务,例如安全性,数据治理和赔偿。
如今,企业愿意在本地运行模型并构建更高级别的服务,因为它比云更具成本效益。然而,随着竞争的加剧和AI芯片限制的缓解,云价格应该会下降,Dekate说。英伟达的竞争对手AMD和英特尔正在开发产品线,云提供商已经开始设计自己的AI芯片。
“随着供需失衡正常化,你可能会看到重心转移回云端,”Dekate说。“主机托管提供商的生态系统是裸露的。云提供商是一个全面的[软件]堆栈。
然而,芯片稀缺导致云价高企的情况不会很快结束,Forrester Research分析师Naveen Chhabra表示。“这将是2025年之后。
对于考虑在 Equinix 数据中心使用 Nvidia DGX 的企业,Dekate 建议确定构建 Nvidia AI 环境的成本加上托管服务的价格,并将其与打折的云订阅进行比较。云提供商通常同意根据合同规模低于标价。
另一个考虑因素是模型处理新数据以生成最新结果的频率。这种称为推理的过程在云中比在私有数据中心中更昂贵。然而,如果这种情况不常见,那么云可能会更便宜,Dekate说。