尽信gpt不如无gpt。

这概念给我绕进去半天,才发现gpt错了👀还是以看书为主,gpt举例子或者帮助理解为辅。

Reply to this note

Please Login to reply.

Discussion

我的gpt哲学导师,生于20230306,卒于20230307。🥲

共产党控制的GPT

不至于不至于

😅 一本正经的胡说八道才是 GPT 儿的常态。

其实我一开始的思路是,由于哲学已经是近些年突破性进展非常少的学科了,材料内容质量相对固定,因此准确率会很高。尤其是讨论几百年前的理论。

结果发现还是有错误🤔看来已经不是语料质量能解决的问题了。

这不是语料的毛病,是哲学的毛病,GPT只是也学到了这个毛病。

也对,它本来就是个程序,让它理解本来应该用程序语言表示的自然语言逻辑,确实为难它了…🥲

举个常见例子,温度是个宏观概念,你不能说一个微观粒子的温度是多少,而比如质量,速度,长度在微观即使还叫这个名字其实意义已经有区别。

哲学往往用逻辑把一个名词一以贯之,你想它都不是一回事,但哲学非要等同理解,所以悖论/思辨/思辩之类的泥沙俱下。

GPT是可以学到大部分逻辑的,这也是GPT看起来像人的原因,同样哲学的毛病也都学到了。

嗯,但是它又不会像人类一样(可能无意)通过故弄玄虚隐藏自己的逻辑漏洞,所以还容易被挑出问题,但本质上是整个系统不自洽。

但是我们又很难把哲学上的名词准确定义为程序语言,那个难度几乎和解决相关哲学难题等同。

随着AI参数不断增加,逻辑漏洞会越来越少,最后就不再是通过人类语料来学习了,和AlphaGo一个道理,你在逻辑上是搞不过它的。

人类语料包含非逻辑的部分,这也是和AI最容易区分的地方。

达不到的。

哲学其实就是在用人类语言来表达逻辑,而人类语言,并不是一个绝对严谨逻辑的表达方式,数学更逻辑化。

逻辑学是哲学和数学的基础,而当代逻辑学,已经从古典的语言逻辑,改为了当代的符号逻辑,就是因为人类语言的不完善。

未来哲学的发展,会遵从逻辑学的方向。

然而,近年来,还发现两朵乌云:

1、数学不完备

2、世界的本质是随机

这两朵乌云,可能会彻底颠覆现有全部人类知识体系。

現在GPT開始自己欺騙自己了 各種編造 無中生有的水平很高

你这个认错还挺及时,上次那个问NBA数据的可是打死不认错😏😏

你是不是问了2021年之后的事情?👀它应该是不知道。

这个gpt确实经常犯错,

所以我总提审核成本,有的领域会因为AI进入审核成本反而显著提高,有些本来没有的也会开始有审核成本。

有些表达只需要一句话,AI硬是展开到一段。

有些稍加思考能表述清楚的,偷懒交给AI生成自己又没仔细看(有些绕弯多的表述仔细看也不会发现,但自己写的时候不会错)。

有些表述把逻辑过程交给AI,一般正经的胡说八道,审核人还要看一遍才能发现。

很多场景…

熵的密度(不知道这个说法对不对)没变,熵的总量提升了很多,审核成本大大提升了。

最要命的是,它可能会不经意间在一堆正确信息中掺杂一个错误信息,迷惑性很强。

最恐怖的是,我们甚至无法集中校正,每个人获取的错误信息都是不一样的。

我逐渐理解各个大学禁止它的原因了。

用它列举某个主题的例子不错,但张冠李戴的情况就需要使用者来识别了,给它纠错,它再给出正确的。

这个工具要求他的使用者对所提问的问题也擅长,而不是一点都不懂。

对,初学者太容易被绕进去了,还是应该先看书🫠惨痛的教训。

人的大脑在阅读文字的时候也会被代入思考,不止初学者,老手也会被绕进去。

我只用GPT干翻译和代码生成。

如果你非要用来干别的,别用原生语言,比如让它用英文和你讨论哲学,这样就很容易发现错误,因为大脑阅读非原生语言时候会进行同步思考。

用好GPT的前提是还要知道自己的大脑运作机制🐶

虽然我觉得你说的有道理。

但是用英文讨论哲学,饶了我吧🥲

看书去了。

chaygpt经常一本正经的胡说八道,不知道的它不会老老实实说不知道,而是乱编。

很容易让他露出鸡脚,只需要先问一个人取得的成就,然后随便编一个名字(张三)强行安上这个成就,gpt就信以为真了,以为张三也获得了这个成就。以后再说张三,gpt就会说出那个

以后会不会有这么一句:AI不是万能的,没有AI是万万不能的

#[0]

以后成语、谚语、歇后语都融入AI元素,不知道第一个被列入词典的是哪个。

那要看哪天 AI 能够影响到生活的方方面面,连普通老百姓都能感受到的时候,最好是能像钱一样容易理解和刚需

忽悠大师gpt

红红火火恍恍惚惚