😅 一本正经的胡说八道才是 GPT 儿的常态。
Discussion
其实我一开始的思路是,由于哲学已经是近些年突破性进展非常少的学科了,材料内容质量相对固定,因此准确率会很高。尤其是讨论几百年前的理论。
结果发现还是有错误🤔看来已经不是语料质量能解决的问题了。
这不是语料的毛病,是哲学的毛病,GPT只是也学到了这个毛病。
也对,它本来就是个程序,让它理解本来应该用程序语言表示的自然语言逻辑,确实为难它了…🥲
举个常见例子,温度是个宏观概念,你不能说一个微观粒子的温度是多少,而比如质量,速度,长度在微观即使还叫这个名字其实意义已经有区别。
哲学往往用逻辑把一个名词一以贯之,你想它都不是一回事,但哲学非要等同理解,所以悖论/思辨/思辩之类的泥沙俱下。
GPT是可以学到大部分逻辑的,这也是GPT看起来像人的原因,同样哲学的毛病也都学到了。
嗯,但是它又不会像人类一样(可能无意)通过故弄玄虚隐藏自己的逻辑漏洞,所以还容易被挑出问题,但本质上是整个系统不自洽。
但是我们又很难把哲学上的名词准确定义为程序语言,那个难度几乎和解决相关哲学难题等同。
