加州SB 1047法案旨在监管高成本AI模型
加州正在考虑一项法案SB 1047,旨在防止人工智能系统造成重大危害,如制造导致大量伤亡的武器或策划造成超过5亿美元损失的网络攻击。该法案针对大型AI模型,特别是那些开发成本至少为1亿美元且在训练期间使用高计算能力的模型。OpenAI、谷歌和微软等公司可能很快就会受到这些规定的约束。
SB 1047要求开发者实施安全协议,包括紧急停止按钮和年度第三方审计。一个新的机构,前沿模型部门(FMD),将负责监督合规性,其董事会由行业、开源社区和学术界的代表组成。开发者还必须提交年度风险评估,并在72小时内报告任何安全事故。
该法案引发了争议,硅谷巨头和初创公司反对它,声称它可能扼杀创新并施加任意门槛。然而,支持者包括AI研究员Geoffrey Hinton和Yoshua Bengio,认为这是防止未来灾难所必需的。该法案预计将通过,并将提交给州长Gavin Newsom进行最终批准,如果成为法律,可能会面临法律挑战。
另一方面,OpenAI、谷歌和微软等科技巨头以及众多初创公司表达了强烈反对。这些公司认为,该法案可能通过施加任意门槛和过多的监管负担来扼杀创新,特别是对小型公司。他们还担心该法案可能与未来的联邦法规冲突,创建一套可能阻碍行业增长的合规要求拼凑。
著名的AI公司Anthropic建议对该法案进行修正,提议监管应关注“基于结果的威慑”而非预防措施。他们认为,公司只有在造成伤害时才应承担责任,而不是从一开始就受到严格控制。Anthropic和其他科技领袖警告说,该法案可能通过驱使人才和创新离开加州而削弱AI安全努力。
围绕SB 1047的辩论突显了促进创新和确保安全之间的紧张关系。虽然该法案很可能通过,并可能为未来的AI监管树立先例,但其实施可能会引发法律挑战和进一步讨论最佳监管方法。
关键要点
- 加州SB 1047旨在防止AI导致的灾难,如大量伤亡或5亿美元的网络攻击。
- 该法案针对成本超过1亿美元且在训练期间使用10^26 FLOPS的大型AI模型。
- 开发者必须实施安全协议,包括“紧急停止”按钮和年度第三方审计。
- 一个新的加州机构,前沿模型部门(FMD),将负责监督合规和认证。
- 硅谷反对SB 1047,担心它会扼杀创新并给初创公司带来严格监管负担。
分析
加州SB 1047针对高成本、高功率的AI模型,旨在减轻如大量伤亡和网络攻击等风险。直接原因包括AI的潜在滥用和高级模型的高开发成本。短期影响包括OpenAI和谷歌等公司的合规成本,可能扼杀创新。长期来看,该法案可能建立一个更安全的AI环境,尽管可能会有法律挑战。前沿模型部门(FMD)的建立将影响行业标准和监督,影响科技巨头和初创公司。
你知道吗?
- 前沿模型部门(FMD):FMD是加州提议的一个新机构,将负责监督SB 1047的合规性,特别是针对成本高且计算密集的大型AI模型。它将负责确保开发者实施安全协议并遵守年度第三方审计和风险评估。FMD的董事会将包括行业、开源社区和学术界的代表,旨在确保多样化和平衡的监督。
- 紧急停止按钮:SB 1047要求AI系统可能造成重大危害时必须具备“紧急停止”按钮。这一功能允许在紧急情况下或AI系统表现出危险行为时立即停用或关闭。实施这样的按钮旨在提供一个防止AI故障或滥用导致灾难性后果的安全机制。
- 年度第三方审计:SB 1047要求大型AI模型的开发者接受年度第三方审计,以确保遵守安全协议和法规。这些审计将由独立实体进行,以提供对AI系统安全和可靠性的客观评估。目标是保持高标准的安全性,并通过定期验证AI系统是否在可接受的风险参数内运行来防止潜在灾难。