加州人工智能监管法案引发争议

加州人工智能监管法案引发争议

作者
Carmen Martinez
4 分钟阅读

加州法案SB 1047拟规管大型AI模型,引发激烈讨论

加州参议员斯科特·维纳提出的SB 1047法案,正成为关于AI未来激烈辩论的焦点。该法案旨在让Meta、OpenAI和Anthropic等公司对其AI系统可能造成的灾难性伤害负责。目前,该法案已通过加州参议院,正逐步接近成为法律。

该立法包含一项关键的“关闭”条款,要求AI公司在紧急情况下必须集成一个紧急停止开关。此外,法案还在加州技术部内设立了“前沿模型部门”,以执行安全标准并监管AI模型提供商。知名AI研究者杰弗里·辛顿和约书亚·本吉奥已公开支持此法案,主张对AI的风险采取谨慎措施。

尽管有此支持,硅谷内部包括风险投资家和初创公司创始人等一大批人士反对该法案,担心它可能抑制创新并对开源AI社区产生不利影响。他们认为,这可能迫使公司缩减或停止其开源项目,从而可能更倾向于大型、封闭的科技公司。

关键要点

  • 加州法案SB 1047旨在规管大型AI模型,使提供商对灾难性伤害负责。
  • 法案包含“关闭”条款,要求AI公司在紧急情况下设置紧急停止开关。
  • SB 1047设立“前沿模型部门”以执行安全标准并监管AI模型提供商。
  • AI研究者杰弗里·辛顿和约书亚·本吉奥支持该法案,与对AI安全采取“减速”观点一致。
  • 反对者认为SB 1047可能抑制开源AI发展,使大型科技公司相对于初创企业更有优势。

分析

SB 1047的通过可能为AI开发者带来重大监管挑战,特别是对Meta、OpenAI和Anthropic等公司。这种监管可能导致运营成本增加,并转向专有模型,可能抑制创新并使大型科技公司受益。相反,法案的支持者认为它加强了AI安全,与杰出研究者提出的担忧相符。短期内,关于“大型”模型的定义和直接监管与使用监管的有效性将展开辩论。长期来看,该法律可能为AI治理树立先例,影响国家和国际政策。

你知道吗?

  • 紧急停止开关:一种安全机制,旨在紧急情况下迅速停用AI系统,防止可能的灾难性后果。这一功能对于管理高级AI模型可能出现的故障或恶意使用带来的风险至关重要。
  • 前沿模型部门:加州技术部内新提议的监管实体,负责维护安全标准并监控AI模型提供商的监管。该部门将负责确保遵守SB 1047设定的新AI法规。
  • AI安全的减速观点:指对AI技术进步和部署采取谨慎态度,主张有控制、有节制的发展以减轻风险并确保安全。这一观点得到杰弗里·辛顿和约书亚·本吉奥等AI研究者的支持,他们对AI的快速和不加控制的发展表示担忧。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯