对SB 1047法案的担忧及其对开源和AI创新的影响

这篇文章的作者表达了对加州提案SB 1047的担忧,该提案试图监管AI技术,而不是具体的AI应用,作者认为这是一个根本性的错误,并指出了该提案的具体机制对开源的潜在威胁。

主要观点

1. 法案内容复杂、模糊

- SB 1047要求开发者在开发成本超过1亿美元的AI模型时,必须遵守复杂的报告要求。这是一个模糊的法律,会对开发者造成巨大压力,因为他们不知道怎样做才不违法。这会让很多团队陷入瘫痪。

2. 个人风险巨大

- 开发者需要提交一份合规证明,声明他们符合法律要求,但这些要求很复杂,难以理解,而且可能会根据一个未选举产生的机构的决定随时变化。这么做有可能导致违反法律,面临罚款甚至坐牢的风险。

3. 具体执行困难

- 法案要求开发者分析AI模型可能造成的重大危害,并采取保护措施,防止模型被滥用或进行不安全的后期修改。然而,当前连顶尖的AI研究人员都不确定模型可能会产生什么危害,或者如何保护模型安全。开发者很难满足这些要求,而且在声明符合这些要求时,可能会无意中犯下伪证罪。

4. 阻碍开源和创新

- 法案中设立的“前沿模型部门”(FMD)可以改变适用于模型开发的标准,并对开发者征收费用。这可能会让小团队和开源贡献者难以承受合规成本,从而阻碍他们的创新和产品发布。

举个例子

假设一个小型开源团队正在开发一个新型AI模型,他们花了大量时间和精力使模型尽可能安全。但SB 1047要求他们提交一份合规证明,说明他们的模型不会造成重大危害,并描述他们所采取的各项保护措施。由于法律条文复杂、难以理解,这个团队不确定他们是否完全合规,因而需要额外雇佣昂贵的律师进行咨询。

然而,他们的资金有限,无法负担这些额外开销。即使他们提交了合规证明,几年后这些标准可能会被FMD任意更改,那时可能会有人指出他们当初的措施不够充分,进而面对法律诉讼的风险。最后,这个团队可能选择放弃发布他们的创新产品,担心日后可能面临的法律风险。

总结

作者认为,SB 1047对AI技术而非应用进行监管,是方向上的错误。它不仅增加了开发者的负担,而且由于模糊的法律条文和严格的合规要求,可能严重打击开源社区和AI创新。呼吁大家共同反对SB 1047,为保护开源和促进AI创新而努力。

Reply to this note

Please Login to reply.

Discussion

No replies yet.