尽信gpt不如无gpt。
这概念给我绕进去半天,才发现gpt错了👀还是以看书为主,gpt举例子或者帮助理解为辅。

尽信gpt不如无gpt。
这概念给我绕进去半天,才发现gpt错了👀还是以看书为主,gpt举例子或者帮助理解为辅。

😅 一本正经的胡说八道才是 GPT 儿的常态。
其实我一开始的思路是,由于哲学已经是近些年突破性进展非常少的学科了,材料内容质量相对固定,因此准确率会很高。尤其是讨论几百年前的理论。
结果发现还是有错误🤔看来已经不是语料质量能解决的问题了。
这不是语料的毛病,是哲学的毛病,GPT只是也学到了这个毛病。
也对,它本来就是个程序,让它理解本来应该用程序语言表示的自然语言逻辑,确实为难它了…🥲
举个常见例子,温度是个宏观概念,你不能说一个微观粒子的温度是多少,而比如质量,速度,长度在微观即使还叫这个名字其实意义已经有区别。
哲学往往用逻辑把一个名词一以贯之,你想它都不是一回事,但哲学非要等同理解,所以悖论/思辨/思辩之类的泥沙俱下。
GPT是可以学到大部分逻辑的,这也是GPT看起来像人的原因,同样哲学的毛病也都学到了。
嗯,但是它又不会像人类一样(可能无意)通过故弄玄虚隐藏自己的逻辑漏洞,所以还容易被挑出问题,但本质上是整个系统不自洽。
但是我们又很难把哲学上的名词准确定义为程序语言,那个难度几乎和解决相关哲学难题等同。
这个gpt确实经常犯错,
所以我总提审核成本,有的领域会因为AI进入审核成本反而显著提高,有些本来没有的也会开始有审核成本。
有些表达只需要一句话,AI硬是展开到一段。
有些稍加思考能表述清楚的,偷懒交给AI生成自己又没仔细看(有些绕弯多的表述仔细看也不会发现,但自己写的时候不会错)。
有些表述把逻辑过程交给AI,一般正经的胡说八道,审核人还要看一遍才能发现。
很多场景…
熵的密度(不知道这个说法对不对)没变,熵的总量提升了很多,审核成本大大提升了。
最要命的是,它可能会不经意间在一堆正确信息中掺杂一个错误信息,迷惑性很强。
最恐怖的是,我们甚至无法集中校正,每个人获取的错误信息都是不一样的。
我逐渐理解各个大学禁止它的原因了。
用它列举某个主题的例子不错,但张冠李戴的情况就需要使用者来识别了,给它纠错,它再给出正确的。
这个工具要求他的使用者对所提问的问题也擅长,而不是一点都不懂。
chaygpt经常一本正经的胡说八道,不知道的它不会老老实实说不知道,而是乱编。
很容易让他露出鸡脚,只需要先问一个人取得的成就,然后随便编一个名字(张三)强行安上这个成就,gpt就信以为真了,以为张三也获得了这个成就。以后再说张三,gpt就会说出那个