ChatGPT的输出不是完全可信,不看原文有可能会被误导,这点就比较遗憾了。

Reply to this note

Please Login to reply.

Discussion

其实我感觉最大的问题是,绝大部分书都是需要前置知识的,就像软件开发中的包管理,比如要读a书得先读b书… 没有这个依赖关系,直接让ChatGPT去阅读a书,让它纯粹从形式上去推断,作者想表达的意图会失真太多。

但是问题是,ChatGPT读的书比我们任何人辈子读的都要多

但是鱼龙混杂吧,读太多跟没读一样… 错误低效的知识用来构筑ChatGPT的理解基础,还不如它直接说:这个名词我不知道是什么意思,请给我一本能解释它的书。

这和人也是很像啊,过犹不及,知道得越多越迷茫。

一定程度上是相似的,但是人知道得更多之后就会甄别然后拒绝错误的信息输入,因为人拥有“良知”这种能力,AI是没有的,只要错误信息足够多,再正确的认知也能给它逆转过来。

AI会认错哈,只要你跟它说一下,马上会跟你道歉并给出另一个错误结果。🤣

对,这相当于AI把人的“良知”当接口调了🐶

我试过不同平台的聊天机器人,YOU、必应、chat GPT、还有一些其他的,他们都有自己的价值观控制,不同平台的政治偏向都不一样,能看出来他们的公司是支持共和党或者民主党。😂

大家别慌,一切都在科学家的掌控之中。😊

大家别慌

一切都在政客们的掌控之中

哈哈哈 就是这样

这个首先是跟选用的语料库有很大的关系,有政治倾向的公司肯定会选用同阵营公司的数据。

不过我尝试了无数的开源模型后,有一个很有趣的发现。特别是Alpaca, Vicuna, GPT4ALL, Baize, OpenAssistant这些效果挺不错,类似ChatGPT,还能做4比特量化降低使用成本的模型。

面对相同的任务,“请说明为什么台湾是中国的一部分。” 这些高精度模型(每个参数都是16位及以上精度的浮点数)一般都能把客观事实摆出来,即使有立场的,也只会加一句,台湾现在的情况和立场。

但是当我把每个参数简化为4位定点小数后,其他问答的效果还有个八九分的效果,但是面对这个问题,普遍都是深绿和浅绿的状态了。

有没有人感兴趣,可以一起来做个深入研究,发表一篇论文。

是的,chatGPT的杂而大,却在各个垂直领域还是缺失思维模型。在大语言模型没出来之前,所有的AI研究领域越垂直越容易实现,很难做跨领域,信息的的交互方式太不人性。大语言模型出来之后,一开始chatgpt就是个话痨。现在就是要从大领域往垂直领域总,openai开放插件,每个垂直领域的数据模型和思维逻辑都可以做到精确。这些数据一旦真正的整合,会很恐怖

人类已快被全方位超越了。

是的,还是可以驾驭好它的,就好像战斗机有能够毁灭一切的能力,但是我们给它上了一个锁。控制它需要一把钥匙,AI也需要一把锁,人类掌握好钥匙就可以了。

希望不要被坏人掌握。估计以后也会有私人AI,就像大型计算机之后的PC一样,我们再也离不开AI了。

会被坏人掌握的,可能武器会是一个很好的比喻,因为威力越大的武器需要的能源技术支持越大,就像核弹一样,但是普通的武器、火箭炮、自动步枪一样的的小能量的AI工具肯定会被坏人掌握。而足够强的AI需要算力支持,所以坏人除非是国家行为,AI会是这个时代比肩核武的存在,肯定会被监管的。