NIST与Anthropic和OpenAI合作开展AI安全研究

NIST与Anthropic和OpenAI合作开展AI安全研究

作者
Elena Vargas
4 分钟阅读

美国国家标准与技术研究院与Anthropic和OpenAI合作加强人工智能安全研究

美国国家标准与技术研究院(NIST)已与Anthropic和OpenAI建立合作关系,以推进人工智能安全研究和评估。这些谅解备忘录(MOUs)授予美国人工智能安全研究所早期访问这两家公司新人工智能模型的权限,无论是在发布前还是发布后。合作旨在共同评估这些模型的安全能力和相关风险,并开发方法来减轻潜在风险。美国人工智能安全研究所所长伊丽莎白·凯利强调了这些合作伙伴关系对于负责任地推进人工智能技术的重要性。该研究所还计划向Anthropic和OpenAI提供反馈,以提高其模型的安全性,并将与英国人工智能安全研究所紧密合作。

这些合作符合NIST推动技术和标准的传统,支持拜登-哈里斯政府的AI行政命令以及领先AI公司的自愿承诺。最近的行业趋势显示,人们对Anthropic的关注度越来越高,特别是关于安全问题。值得注意的是,OpenAI的关键研究人员和联合创始人已大量转移到Anthropic,这反映了两者在AI安全方法上的差异。

Anthropic支持一项针对前沿AI模型风险的加州法案,而OpenAI则支持国家层面的监管。OpenAI首席执行官萨姆·奥特曼对NIST的合作表示支持,表明与联邦监管努力的战略一致性。

关键要点

  • NIST与Anthropic和OpenAI合作进行AI安全研究。
  • 在新AI模型发布前后获得早期访问权限。
  • 共同努力评估和减轻AI安全风险。
  • 美国AI安全研究所将提供反馈以改进模型。
  • 符合拜登-哈里斯政府的AI行政命令。

分析

NIST、Anthropic和OpenAI之间的合作反映了向AI安全方向的战略转变,受到行业趋势和监管一致性的影响。这种合作伙伴关系可能会增强两家公司在AI安全领域的可信度,可能影响它们的市场定位和投资者信心。此外,它标志着整个行业向主动安全措施的更广泛趋势,可能会影响未来的监管框架和国际AI标准。短期内,这种联盟加强了美国AI安全研究所在AI风险评估方面的能力,而从长远来看,它可能会重新定义全球AI治理模式,影响全球的科技政策和创新生态系统。

你知道吗?

  • 谅解备忘录(MOUs)
    • 解释:MOUs是两个或多个当事方之间的正式协议,概述了其合作的条款和细节。在NIST与Anthropic和OpenAI的合作中,这些MOUs规定了关于新AI模型访问、联合安全评估和风险缓解策略开发的相互理解和承诺。
  • 美国AI安全研究所
    • 解释:这一专门组织专注于AI安全的研究、评估和增强。在与NIST、Anthropic和OpenAI的合作中,其角色包括早期访问新AI模型、提供安全改进反馈,并与其他AI安全研究所合作。
  • Anthropic与OpenAI的AI安全方法
    • 解释:Anthropic和OpenAI代表了行业内对AI安全的不同方法,两者在应对和减轻AI安全风险的战略上存在差异。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯