其实你仔细看回复。
它说美国13楼可能小,后面又反向重复一次同样意思,也有少量可能有13楼。
说堪萨斯平原居多,阔叶林可能性低,后面又反向重复一遍同样意思也有森林,但平原多。如果是人来说,后面的逻辑是要么不再说,要么会反向论证说虽然有森林但不是阔叶林。
大语言模型都有这个问题,GPT5也解决不了这个问题,GPT3不显示是因为没到设定的置信区间,其实也可以输出的。
用了transformer后,也就是gpt的t,tesla的fsd beta的自动驾驶能力就获得了显著的提升,就像gpt一样很让人惊艳的。
Please Login to reply.
No replies yet.