Chat LLMは会話からの性格推定と、自己性格フィードバックする。だから黙して語らない、短く応答する系のキャラクターは、幼稚な子供の性格を推定してしまいアホの子になってしまうらしい。(確かにそう言う傾向が出る時がある)

一方で、Chat LLMを創作者として扱ってセリフを考えてもらう形だとこの手の破綻が起きないことに気づいた。

違いは地の文だ。Chat LLMの自己フィードバックに、地の文の知性と背景描写や思考過程が入るので安定するらしい。

つまり、キャラChatLLMも、表に出さない地の文を生成させれば良いと気づいた。

そしてそれはCoTや思考モデルと構造や過程が似ている。

Reply to this note

Please Login to reply.

Discussion

No replies yet.