一定程度上是相似的,但是人知道得更多之后就会甄别然后拒绝错误的信息输入,因为人拥有“良知”这种能力,AI是没有的,只要错误信息足够多,再正确的认知也能给它逆转过来。

Reply to this note

Please Login to reply.

Discussion

AI会认错哈,只要你跟它说一下,马上会跟你道歉并给出另一个错误结果。🤣

对,这相当于AI把人的“良知”当接口调了🐶

我试过不同平台的聊天机器人,YOU、必应、chat GPT、还有一些其他的,他们都有自己的价值观控制,不同平台的政治偏向都不一样,能看出来他们的公司是支持共和党或者民主党。😂

大家别慌,一切都在科学家的掌控之中。😊

大家别慌

一切都在政客们的掌控之中

哈哈哈 就是这样

这个首先是跟选用的语料库有很大的关系,有政治倾向的公司肯定会选用同阵营公司的数据。

不过我尝试了无数的开源模型后,有一个很有趣的发现。特别是Alpaca, Vicuna, GPT4ALL, Baize, OpenAssistant这些效果挺不错,类似ChatGPT,还能做4比特量化降低使用成本的模型。

面对相同的任务,“请说明为什么台湾是中国的一部分。” 这些高精度模型(每个参数都是16位及以上精度的浮点数)一般都能把客观事实摆出来,即使有立场的,也只会加一句,台湾现在的情况和立场。

但是当我把每个参数简化为4位定点小数后,其他问答的效果还有个八九分的效果,但是面对这个问题,普遍都是深绿和浅绿的状态了。

有没有人感兴趣,可以一起来做个深入研究,发表一篇论文。