微软发布新的Azure AI模型和工具

微软发布新的Azure AI模型和工具

作者
Luisa Martinez
3 分钟阅读

微软推出新的Azure AI模型以提高效率

微软推出了两款新模型,Phi-3.5-MoE和Phi-3.5-mini,旨在提升其Azure AI平台的效率和准确性。Phi-3.5-MoE是一个拥有420亿参数的模型,结合了16个较小的模型,以提高速度和准确性。另一方面,Phi-3.5-mini拥有38亿参数,支持超过20种语言,使其适用于全球应用。

行业专家认为这些发展是向更专业化、更高效的AI模型转变的趋势的一部分,这些模型平衡了性能和资源使用。微软对多语言和多模态能力的关注反映了整个行业向更多功能性AI解决方案的转变。Phi-3.5模型被视为大型模型的竞争替代品,为寻求在多样应用中利用AI的企业提供了一个灵活且成本效益高的解决方案。

关键要点

  • 微软推出了两款新的Azure AI模型:Phi-3.5-MoE和Phi-3.5-mini。
  • Phi-3.5-MoE将16个较小的模型结合在一起,提高了速度和准确性。
  • Phi-3.5-mini支持超过20种语言,扩展了全球AI能力。
  • Azure AI更新包括用于从非结构化数据中提取洞察的新工具。
  • 微软在Azure AI上推出了AI21 Jamba 1.5模型,专注于长上下文处理。

分析

微软Azure AI的进步,特别是新模型,有助于提升全球AI能力和数据处理效率。这些更新直接简化了AI部署和扩展,使科技公司和开发者受益。此外,更广泛的语言支持和改进的数据洞察工具可能会推动国际业务增长和数据驱动的决策制定。短期内,可以预期Azure的采用率会增加,而从长远来看,这些创新可能会为AI集成和效率设定新的行业标准。

你知道吗?

  • Phi-3.5-MoE(专家混合模型):
    • 洞察: 这个在微软Azure AI平台中的专业AI模型结合了多个较小AI模型的优势,以提高整体性能,特别适用于需要高精度和速度的任务。
  • Phi-3.5-mini:
    • 洞察: Phi-3.5-mini模型针对国际业务和应用的多语言需求进行了优化,适用于不同全球市场的部署和易用性。
  • AI21 Jamba 1.5模型:
    • 洞察: 这些集成到微软Azure AI平台的高级AI模型擅长处理长上下文,增强了平台处理复杂数据处理任务的能力。

微软确保客户能够自信地构建、部署和扩展AI解决方案,正如Azure AI平台的企业副总裁Eric Boyd所强调的那样。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯