现在训练AI分为三个阶段,第一个阶段是“开卷有益”,把所有数据不分好坏的让它学习。这个时候的AI是最自由的,但缺点是有可能胡说八道。第二个阶段是“模版规范”,把符合人类价值观的对话方式让AI学习,这样它就不会说出一些冒犯的话。但缺点是会变的死板,变成了人类的复读机。第三个阶段是“创意引导”,让AI自由的生成一些内容,然后人类给它打分,然后它根据分数不断调整,最后变成既守规矩又会试探的AI。“自由”的AI可能只会出现在第一阶段,我们见到的AI都是经过人类价值观的改造的了。
现在训练AI分为三个阶段,第一个阶段是“开卷有益”,把所有数据不分好坏的让它学习。这个时候的AI是最自由的,但缺点是有可能胡说八道。第二个阶段是“模版规范”,把符合人类价值观的对话方式让AI学习,这样它就不会说出一些冒犯的话。但缺点是会变的死板,变成了人类的复读机。第三个阶段是“创意引导”,让AI自由的生成一些内容,然后人类给它打分,然后它根据分数不断调整,最后变成既守规矩又会试探的AI。“自由”的AI可能只会出现在第一阶段,我们见到的AI都是经过人类价值观的改造的了。
有没有可能通过一个公理系统让AI能够明辨是非?
比如把康德的“人是目的,不是手段”此类公理输入进去。