微软周二在芝加哥举办的年度 Ignite 大会上推出人工智能工具「Azure AI Foundry」,可以帮助云端用户构建和布署 AI 应用程序。 与此同时,该公司还在会上发布两款芯片。
根据外媒报导,Azure AI Foundry 可以让用户更轻松地在支持 AI 的大型语言模型之间切换。 例如,使用旧版OpenAI产品的客户可以尝试新版产品,或从OpenAI切换到Mistral或Meta Platforms的AI工具。 微软云计算负责人 Scott Guthrie 在接受采访时表示,除混合搭配模型,客户还可以确保应用程序正常运作并获得良好的投资回报。
微软表示,将免费提供这款软件,以吸引企业客户更多地购买其云服务。
目前,有 6 万名客户在使用 Azure AI,这项云服务让开发人员可以使用 1.700 种不同的 AI 模型来建构和运行应用程序。 不过这个过程仍然繁琐,很难跟上新模型和更新的速度。 据了解,客户不希望每次出现新技术时都重新建立应用程序,也不希望在不了解模型适用任务的情况下盲目切换。
Guthrie 说:「开发人员常常发现,每个新模型,即使是同一家族的模型,在某些方面有更好的答案或性能,但在其他方面可能会出现倒退,如果你的企业运行着关键任务的应用程序,你不会希望一切换就指望它能正常运作。」
Guthrie 表示,让客户更轻松在模型之间切换,不会削弱微软与 OpenAI 的紧密合作关系。 他指出,这反而能让客户更容易选择最适合每项任务的OpenAI模型。 不过,微软也深知,提供选择是吸引和留住客户的关键。
分析认为,微软此举是希望增加生成式 AI 的收入。 尽管微软试图说服客户更多投资于AI,但公司一直警告投资人,云业务的销售增长将因数据中心容量不足以满足需求而下降。 Guthrie 表示,这些限制是暂时的,微软承诺未来将有足够的运算能力。
两款新芯片亮相
去年微软在 Ignite 大会上宣布首款自主研发的云计算和 AI 芯片,今年又发布了两款新芯片,其中一种是保护加密和签章密钥等内容的安全微处理器。 该公司表示,从明年起,这款新芯片将安装在所有新建微软数据中心的服务器中。
另一种芯片是数据处理单元,这是一种类似英伟达生产的网络芯片,能更快速地将数据传输到运算和 AI 芯片,从而加快任务处理。 微软和其竞争对手正在追求越来越强大的云系统,以训练和运行 AI 模型。
微软负责芯片设计与开发的副总裁Rani Borkar表示,每一层芯片、伺服器、软件和其他组件都必须不断改善并达到最佳性能。
此外,微软也宣布Maia AI芯片将用于运行Azure OpenAI服务,与英伟达片共同运作。 有关 365 Copilot,微软新增一项可以自动化处理重复任务的功能,同时 Teams Copilot 将能够理解和回答有关投视频、网络图片和其他视觉内容的问题。 从明年开始,PowerPoint 的 Copilot 将能够将简报翻译成 40 种语言。