OpenAI 扩展Azure AI 与甲骨文云的整合

OpenAI 扩展Azure AI 与甲骨文云的整合

作者
Alejandra Lopez
4 分钟阅读

OpenAI携手微软与甲骨文,将Azure AI平台扩展至甲骨文云基础设施(OCI)

OpenAI通过将Azure AI平台与甲骨文云基础设施(OCI)整合,加强了与微软和甲骨文的协作。这一战略举措旨在提升AI的开发与部署能力,满足OpenAI服务日益增长的需求,其中包括目前服务于超过1亿月活跃用户的ChatGPT。OCI超级集群具备扩展至64,000个NVIDIA Blackwell GPU或GB200 Grace Blackwell超级芯片的能力,使其成为训练大型语言模型的高效选择。尽管与甲骨文建立了新的合作关系,OpenAI仍坚定维护与微软的战略云合作关系,继续在其与微软合作开发的超级计算机上进行高级AI模型的预训练。此举的主要目标是有效扩展OpenAI的业务,同时保持与微软的核心战略联盟。

关键要点

  • OpenAI与微软和甲骨文建立合作,将Azure AI平台扩展至甲骨文云基础设施(OCI),增强AI开发能力。
  • OCI超级集群能够扩展至64,000个NVIDIA Blackwell GPU,支持高效训练大型语言模型,得益于极低延迟网络。
  • OpenAI首席执行官Sam Altman确认,OCI的扩展将有助于Azure平台满足日益增长的AI服务需求。
  • OpenAI重申其与微软的主要云合作关系,前沿模型的预训练继续在微软建造的超级计算机上进行。
  • 甲骨文的合作主要旨在支持业务扩展,而微软仍然是OpenAI的关键基础设施和投资伙伴。

分析

OpenAI与微软和甲骨文的协作旨在利用甲骨文的可扩展基础设施,满足日益增长的AI服务需求。这一战略扩张增强了OpenAI通过利用甲骨文的OCI超级集群高效训练大型语言模型的能力。尽管微软仍是OpenAI的主要云伙伴,甲骨文的参与支持了运营的可扩展性,同时不损害核心联盟。短期内,这一合作加速了AI的开发;长期来看,它使OpenAI能够有效服务其不断扩大的用户群并保持技术领先地位。这一合作对三方都是互利的,增强了它们在AI市场的竞争力。

你知道吗?

  • 甲骨文云基础设施(OCI)超级集群:甲骨文设计的一种专用云架构,能够大规模扩展,支持多达64,000个NVIDIA Blackwell GPU或GB200 Grace Blackwell超级芯片。这种设置针对高性能计算任务如训练大型语言模型进行了优化,利用极低延迟网络实现GPU间高效的数据处理和通信。
  • NVIDIA Blackwell GPU:以数学家和密码学家Alan Turing的同事David Blackwell命名的未来一代NVIDIA GPU。这些GPU预计将显著提升计算能力,特别适合AI和机器学习任务,为训练复杂AI模型提供更高的效率和性能。
  • Azure AI平台:微软集成到Azure云平台的全面AI服务和工具套件。该平台支持从预构建AI服务到自定义AI开发工具的广泛AI功能,使企业和开发者能够在云中构建、部署和管理AI解决方案。与甲骨文云基础设施的集成旨在扩展其可扩展性和性能,以处理大规模AI工作负载。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯