OpenAI携手微软与甲骨文,将Azure AI平台扩展至甲骨文云基础设施(OCI)
OpenAI通过将Azure AI平台与甲骨文云基础设施(OCI)整合,加强了与微软和甲骨文的协作。这一战略举措旨在提升AI的开发与部署能力,满足OpenAI服务日益增长的需求,其中包括目前服务于超过1亿月活跃用户的ChatGPT。OCI超级集群具备扩展至64,000个NVIDIA Blackwell GPU或GB200 Grace Blackwell超级芯片的能力,使其成为训练大型语言模型的高效选择。尽管与甲骨文建立了新的合作关系,OpenAI仍坚定维护与微软的战略云合作关系,继续在其与微软合作开发的超级计算机上进行高级AI模型的预训练。此举的主要目标是有效扩展OpenAI的业务,同时保持与微软的核心战略联盟。
关键要点
- OpenAI与微软和甲骨文建立合作,将Azure AI平台扩展至甲骨文云基础设施(OCI),增强AI开发能力。
- OCI超级集群能够扩展至64,000个NVIDIA Blackwell GPU,支持高效训练大型语言模型,得益于极低延迟网络。
- OpenAI首席执行官Sam Altman确认,OCI的扩展将有助于Azure平台满足日益增长的AI服务需求。
- OpenAI重申其与微软的主要云合作关系,前沿模型的预训练继续在微软建造的超级计算机上进行。
- 甲骨文的合作主要旨在支持业务扩展,而微软仍然是OpenAI的关键基础设施和投资伙伴。
分析
OpenAI与微软和甲骨文的协作旨在利用甲骨文的可扩展基础设施,满足日益增长的AI服务需求。这一战略扩张增强了OpenAI通过利用甲骨文的OCI超级集群高效训练大型语言模型的能力。尽管微软仍是OpenAI的主要云伙伴,甲骨文的参与支持了运营的可扩展性,同时不损害核心联盟。短期内,这一合作加速了AI的开发;长期来看,它使OpenAI能够有效服务其不断扩大的用户群并保持技术领先地位。这一合作对三方都是互利的,增强了它们在AI市场的竞争力。
你知道吗?
- 甲骨文云基础设施(OCI)超级集群:甲骨文设计的一种专用云架构,能够大规模扩展,支持多达64,000个NVIDIA Blackwell GPU或GB200 Grace Blackwell超级芯片。这种设置针对高性能计算任务如训练大型语言模型进行了优化,利用极低延迟网络实现GPU间高效的数据处理和通信。
- NVIDIA Blackwell GPU:以数学家和密码学家Alan Turing的同事David Blackwell命名的未来一代NVIDIA GPU。这些GPU预计将显著提升计算能力,特别适合AI和机器学习任务,为训练复杂AI模型提供更高的效率和性能。
- Azure AI平台:微软集成到Azure云平台的全面AI服务和工具套件。该平台支持从预构建AI服务到自定义AI开发工具的广泛AI功能,使企业和开发者能够在云中构建、部署和管理AI解决方案。与甲骨文云基础设施的集成旨在扩展其可扩展性和性能,以处理大规模AI工作负载。