这篇关于Ilya和Sam之间的冲突归根结底反映了OpenAI的使命核心问题。
从表面上看,这是一场关于OpenAI应该专注于人工通用智能(AGI)和超级对齐(superalignment)研究,还是专注于扩大ChatGPT服务规模的争论。扩大服务规模意味着需要更多的计算资源,这些资源如果被分配去做其他事情,将会从AGI安全研究中抽调出来。
如果OpenAI仍然是一个专注于研究的非盈利组织,那么优先考虑安全并投资于超级对齐将是不言而喻的选择。然而,实际情况似乎表明OpenAI更倾向于“世界统治”,努力超越竞争对手,并推出针对企业和消费者的多种功能和服务。这种做法意味着OpenAI想要加入大型科技公司的行列,并怀有极高的野心。
从Ilya和Leike的观点来看,这种做法可能非常危险,因为存在很多未知因素。Ilya坚信随着规模扩大,机器意识将会出现。虽然我个人不认为这会发生,但事实上没有人能确切知道答案。因此,在不确定性面前,最好采取安全而谨慎的态度,这也是Ilya坚持超级对齐研究的原因。
正确的做法应该是保持开放和透明度,让我们整个人类都能确保以安全的方式构建AGI,而不是以某种秘密方式进行。遗憾的是,OpenAI似乎既不走向开源也不专注于超级对齐研究。相反,它似乎全力以赴地朝着AGI发展前进,并试图构建一道壁垒。
最终,OpenAI已经成为了谷歌曾经渴望成为但幸运地没有成为的公司:一个痴迷于世界统治的公司。