😅 一本正经的胡说八道才是 GPT 儿的常态。

Reply to this note

Please Login to reply.

Discussion

其实我一开始的思路是,由于哲学已经是近些年突破性进展非常少的学科了,材料内容质量相对固定,因此准确率会很高。尤其是讨论几百年前的理论。

结果发现还是有错误🤔看来已经不是语料质量能解决的问题了。

这不是语料的毛病,是哲学的毛病,GPT只是也学到了这个毛病。

也对,它本来就是个程序,让它理解本来应该用程序语言表示的自然语言逻辑,确实为难它了…🥲

举个常见例子,温度是个宏观概念,你不能说一个微观粒子的温度是多少,而比如质量,速度,长度在微观即使还叫这个名字其实意义已经有区别。

哲学往往用逻辑把一个名词一以贯之,你想它都不是一回事,但哲学非要等同理解,所以悖论/思辨/思辩之类的泥沙俱下。

GPT是可以学到大部分逻辑的,这也是GPT看起来像人的原因,同样哲学的毛病也都学到了。

嗯,但是它又不会像人类一样(可能无意)通过故弄玄虚隐藏自己的逻辑漏洞,所以还容易被挑出问题,但本质上是整个系统不自洽。

但是我们又很难把哲学上的名词准确定义为程序语言,那个难度几乎和解决相关哲学难题等同。

随着AI参数不断增加,逻辑漏洞会越来越少,最后就不再是通过人类语料来学习了,和AlphaGo一个道理,你在逻辑上是搞不过它的。

人类语料包含非逻辑的部分,这也是和AI最容易区分的地方。

达不到的。

哲学其实就是在用人类语言来表达逻辑,而人类语言,并不是一个绝对严谨逻辑的表达方式,数学更逻辑化。

逻辑学是哲学和数学的基础,而当代逻辑学,已经从古典的语言逻辑,改为了当代的符号逻辑,就是因为人类语言的不完善。

未来哲学的发展,会遵从逻辑学的方向。

然而,近年来,还发现两朵乌云:

1、数学不完备

2、世界的本质是随机

这两朵乌云,可能会彻底颠覆现有全部人类知识体系。