令人欣喜的是,我把同样的问题抛给NewBing,它也能做到和gpt-4一样的推理水平。

Reply to this note

Please Login to reply.

Discussion

好东西啊~世界上最好的老师。

其实你仔细看回复。

它说美国13楼可能小,后面又反向重复一次同样意思,也有少量可能有13楼。

说堪萨斯平原居多,阔叶林可能性低,后面又反向重复一遍同样意思也有森林,但平原多。如果是人来说,后面的逻辑是要么不再说,要么会反向论证说虽然有森林但不是阔叶林。

大语言模型都有这个问题,GPT5也解决不了这个问题,GPT3不显示是因为没到设定的置信区间,其实也可以输出的。

用了transformer后,也就是gpt的t,tesla的fsd beta的自动驾驶能力就获得了显著的提升,就像gpt一样很让人惊艳的。

这种输出经常会在不同角度重复同一个意思,目的是补充论证,但补充的论据实际都是一个意思,构不成证明,这也是一本正经胡说的一部分由来。

但审核起来就很容易被误导,最近审了好几篇学生的论文,GPT已经广泛使用,但有些错误作者自己读了三遍都没发现。