AI监管的两难选择:加州SB-1047法案与科学家的反对声

根据https://t.co/St5O59mmxt的分析,加州提出的SB-1047法案,即《前沿人工智能模型安全创新法案》,旨在对大规模人工智能系统的开发和部署设立严格的安全标准,以确保其安全性并防止潜在重大危害。然而,这个法案遭到了众多AI科学家的强烈反对,原因如下:

1. 广泛的监管范围:

- 法案将市面上绝大多数的大型AI模型定义为“风险”,要求对其进行额外监督。这包括使用超过10^26次计算的模型,几乎涵盖了所有主流的大型AI模型。

2. 对下游应用的严格限制:

- 要求开发者在部署前进行安全评估,具备紧急关停能力,并对任何下游不当使用负责。这种连带责任制被认为是不合理的,因为开发者难以控制用户如何使用他们的技术。

3. 限制开源开发:

- 法案要求超过特定规模的模型必须包含紧急停止装置,这可能会限制开源项目的发展,因为开源社区可能无法满足这些苛刻要求。

4. 吹哨人保护条款:

- 鼓励内部举报不合规行为,并保护举报者免受报复。这虽然是为了促进合规,但也可能导致企业内部紧张和不信任。

5. 信息备案要求:

- 要求在出售算力资源时收集客户详细信息,这被认为过于侵入性并增加了企业负担。

科学家们认为,该法案不仅可能抑制创新,还可能使加州失去其作为全球人工智能中心的地位。他们担心严格的监管将阻碍技术进步,而不是促进安全使用。由于这些原因,李飞飞、吴恩达、LeCun等众多知名科学家联名抗议这项法案。更多详情可以查看原文链接:https://t.co/813jhV5LvR。

Reply to this note

Please Login to reply.

Discussion

No replies yet.