ChatGPT的输出不是完全可信,不看原文有可能会被误导,这点就比较遗憾了。
Discussion
其实我感觉最大的问题是,绝大部分书都是需要前置知识的,就像软件开发中的包管理,比如要读a书得先读b书… 没有这个依赖关系,直接让ChatGPT去阅读a书,让它纯粹从形式上去推断,作者想表达的意图会失真太多。
但是问题是,ChatGPT读的书比我们任何人辈子读的都要多
但是鱼龙混杂吧,读太多跟没读一样… 错误低效的知识用来构筑ChatGPT的理解基础,还不如它直接说:这个名词我不知道是什么意思,请给我一本能解释它的书。
这和人也是很像啊,过犹不及,知道得越多越迷茫。
一定程度上是相似的,但是人知道得更多之后就会甄别然后拒绝错误的信息输入,因为人拥有“良知”这种能力,AI是没有的,只要错误信息足够多,再正确的认知也能给它逆转过来。
AI会认错哈,只要你跟它说一下,马上会跟你道歉并给出另一个错误结果。🤣
对,这相当于AI把人的“良知”当接口调了🐶
我试过不同平台的聊天机器人,YOU、必应、chat GPT、还有一些其他的,他们都有自己的价值观控制,不同平台的政治偏向都不一样,能看出来他们的公司是支持共和党或者民主党。😂
这个首先是跟选用的语料库有很大的关系,有政治倾向的公司肯定会选用同阵营公司的数据。
不过我尝试了无数的开源模型后,有一个很有趣的发现。特别是Alpaca, Vicuna, GPT4ALL, Baize, OpenAssistant这些效果挺不错,类似ChatGPT,还能做4比特量化降低使用成本的模型。
面对相同的任务,“请说明为什么台湾是中国的一部分。” 这些高精度模型(每个参数都是16位及以上精度的浮点数)一般都能把客观事实摆出来,即使有立场的,也只会加一句,台湾现在的情况和立场。
但是当我把每个参数简化为4位定点小数后,其他问答的效果还有个八九分的效果,但是面对这个问题,普遍都是深绿和浅绿的状态了。
有没有人感兴趣,可以一起来做个深入研究,发表一篇论文。
是的,chatGPT的杂而大,却在各个垂直领域还是缺失思维模型。在大语言模型没出来之前,所有的AI研究领域越垂直越容易实现,很难做跨领域,信息的的交互方式太不人性。大语言模型出来之后,一开始chatgpt就是个话痨。现在就是要从大领域往垂直领域总,openai开放插件,每个垂直领域的数据模型和思维逻辑都可以做到精确。这些数据一旦真正的整合,会很恐怖