#AihuaRead

唯物的问题在哪里呢?为什么唯物总是独断的?

其实很好理解,把自己想象成ChatGPT就行了,它要怎样意识到自己是在一个机房里?如果它独断地认为自己能认识到这个世界的所有知识,那么人们会觉得它很可笑。

但至少它能够通过阅读文本,给出不同概念的逻辑关系,这是确定的。也就是“事物对它的呈现”。

Reply to this note

Please Login to reply.

Discussion

好深奥👀

其实就是我们无法认识到这个世界,我们只能认识到我们能看到、听到、闻到的世界的表象。

ChatGPT做的工作类似我们的数学,它会基于逻辑关系进行推理,比如狗是动物,动物是生物,那么狗是生物。但至于什么是狗,ChatGPT不知道。

所以到了这个时候,ChatGPT可能就提了一些假说,比如在它的01二进制世界之外,还存在一个三维空间,里面有一种叫做狗的东西。当然也有比较糊涂的ChatGPT小伙伴认为在二进制世界之外只有二维空间。

对它们来说哪个都只能是假说而已,因为无从验证。如果有一个ChatGPT认为自己的假说肯定是对的,那么我们说它是独断的,因为它从原理上就无法判断这些事情。

比如弦理论。

强人工智能拥有人脑一样可发明数学的潜能。

人脑又何尝不是如此理解这个世界的呢。

人眼的视角结构也是进化稳定的产物,我们所说的“看得见摸得着”,也只是一种生物多样性里的特定感受。

我们的意识难道不是处于物种分类里“特定感受”层面上的机房里?

昆虫世界里的样子,和人眼的视角结构下世界的样子并非是一种形状。

给ChatGPT装上视角图像识别技术、阿法狗推理预判能力、波士顿机器人的活动能力等,再用一层类似于“大脑皮质”全局神经网络建立全局连接关系,

并在现实环境中像婴儿一般持续成长和学习过程中不断优化该全局神经元网络模型。

且在全世界所有算力的加持下,怎么能确定未来就不能从这些弱人工智能之中诞生出强人工智能呢?

唯物和唯心一样,都是出自于错得离谱的二元论简化思维。

硅基芯片的信息密度可能远不及人脑生物芯片的水平。

假如我们拥有无上限的资金投入规模,模拟人脑生物的连接,用无数硅基芯片、算力、能量和数据喂养、模拟学习等建立强人工智能的方式。

情况又会如何呢?

阿法狗未出现之前,人类围棋的顶尖级智力活动被认为是不可能被AI战胜的。

意识并非是人脑独有的现象,机器同样可能也会具备。

弱人工智能无法理解语义,就像人脑单独一个区域无法理解语义一样。

意识必然是通过大量学习自下而上涌现出来的,而非出自于自上而下的顶层设计。