人脑又何尝不是如此理解这个世界的呢。

人眼的视角结构也是进化稳定的产物,我们所说的“看得见摸得着”,也只是一种生物多样性里的特定感受。

我们的意识难道不是处于物种分类里“特定感受”层面上的机房里?

昆虫世界里的样子,和人眼的视角结构下世界的样子并非是一种形状。

给ChatGPT装上视角图像识别技术、阿法狗推理预判能力、波士顿机器人的活动能力等,再用一层类似于“大脑皮质”全局神经网络建立全局连接关系,

并在现实环境中像婴儿一般持续成长和学习过程中不断优化该全局神经元网络模型。

且在全世界所有算力的加持下,怎么能确定未来就不能从这些弱人工智能之中诞生出强人工智能呢?

唯物和唯心一样,都是出自于错得离谱的二元论简化思维。

Reply to this note

Please Login to reply.

Discussion

硅基芯片的信息密度可能远不及人脑生物芯片的水平。

假如我们拥有无上限的资金投入规模,模拟人脑生物的连接,用无数硅基芯片、算力、能量和数据喂养、模拟学习等建立强人工智能的方式。

情况又会如何呢?

阿法狗未出现之前,人类围棋的顶尖级智力活动被认为是不可能被AI战胜的。

意识并非是人脑独有的现象,机器同样可能也会具备。

弱人工智能无法理解语义,就像人脑单独一个区域无法理解语义一样。

意识必然是通过大量学习自下而上涌现出来的,而非出自于自上而下的顶层设计。