语言模型的说话模式有一些固定的套路,现在几乎大概浏览一下(甚至看两三句话)就能判断一段文字是不是AI生成的,我不清楚这种“套路”是故意而为之,还是因为存在一些没有解决的技术问题而无法消除
人类在少量AIGC的prompt下即可获得辨别其中差别的能力,说明人脑很神奇,并不像AI一样需要天量的训练语料和电能,在效率上确实远胜硅基
文字类的AIGC就像不经人工修饰的粗糙材料,大多数经不起细看,甚至粗看一下都露馅
人类有一个天赋就是特别能区分我们和他们,对于一些重复性的特质异常敏感,这也是人类能够建构出种族、民族、国家、公司这些概念的基础
比如你接触过一个经过某个特定企业文化“塑造”的员工,你在观察到这个人的一些行为模式之后,你会在接触另一个人同样来自这种企业(尽管你事先不知道)的人的一瞬间,你就能得到这个事实
而这种判断能力并不需要大量的训练,这种对特定属性的抽象能力仅仅在第二次就能发挥作用
一些AI通过了图灵测试,但一段时间以后人类的辨别能力也会因为这种AI的prompt而提高,从而不断把图灵测试的门槛拔高,导致这个AI在判别标准提高后的图灵测试中失效