现在的AI是理解不了语义的(可预见)。不过可以通过chain of thought的方式,把很小的逻辑/陈述句 组成一个更大的逻辑。(这也是为啥 Reinforcement Learning from Human Preferences 的非zero-shot推理出来的结果比原模型强大这么多的原因,也是这几年大模型进步最重要的因素)
但这个前提是,那些很小的逻辑必须是正确的。中文没有这个环境。
现在的AI是理解不了语义的(可预见)。不过可以通过chain of thought的方式,把很小的逻辑/陈述句 组成一个更大的逻辑。(这也是为啥 Reinforcement Learning from Human Preferences 的非zero-shot推理出来的结果比原模型强大这么多的原因,也是这几年大模型进步最重要的因素)
但这个前提是,那些很小的逻辑必须是正确的。中文没有这个环境。
(可预见的未来也是)