那这就是大过滤器理论的两个可能性了… 从这个角度开始推导,那么会发现机器意识还是不要产生为好,相处不和谐,机器灭了人类,game over;人类灭了机器,高等文明测试不通过,宇宙武器丢过来,也game over。
你说高等文明觉得人类太谨慎也要丢宇宙武器,那… 😇高等文明可太难伺候了,这高等在哪啊?人类认栽吧…
谨慎就不要发展强AI,不贪它的好处。但是这个基本上不可能,人性使然,要求全人类达成一致。既然此路不通,就需要设计一条发展路径。
Please Login to reply.
No replies yet.