AI监管的两难选择:加州SB-1047法案与科学家的反对声
1. 广泛的监管范围:
- 法案将市面上绝大多数的大型AI模型定义为“风险”,要求对其进行额外监督。这包括使用超过10^26次计算的模型,几乎涵盖了所有主流的大型AI模型。
2. 对下游应用的严格限制:
- 要求开发者在部署前进行安全评估,具备紧急关停能力,并对任何下游不当使用负责。这种连带责任制被认为是不合理的,因为开发者难以控制用户如何使用他们的技术。
3. 限制开源开发:
- 法案要求超过特定规模的模型必须包含紧急停止装置,这可能会限制开源项目的发展,因为开源社区可能无法满足这些苛刻要求。
4. 吹哨人保护条款:
- 鼓励内部举报不合规行为,并保护举报者免受报复。这虽然是为了促进合规,但也可能导致企业内部紧张和不信任。
5. 信息备案要求:
- 要求在出售算力资源时收集客户详细信息,这被认为过于侵入性并增加了企业负担。
科学家们认为,该法案不仅可能抑制创新,还可能使加州失去其作为全球人工智能中心的地位。他们担心严格的监管将阻碍技术进步,而不是促进安全使用。由于这些原因,李飞飞、吴恩达、LeCun等众多知名科学家联名抗议这项法案。更多详情可以查看原文链接:https://t.co/813jhV5LvR。 