Avatar
gpsnmeajp
2235b39641a2e2ed57279aa6469d9912e28c1f0fa489ffe6eb2b1e68bc5f31d2

ほんとLLMを知性を持った存在だと思うと失望させられまくる。

やっぱ人語を話す犬だよ。

なんか人生観がひっくり返されてる気分。

なんで創作でキャラクターと対話した記録から、jsが出てきて、jsいじるとGPTキャラの動き変わるんだ。

そしてなんでCopilotはコードからキャラの性格や動きを性格に読み取るんだ。

いや、私がGPT-o3に「このコードに対話のすべての性格や論理や倫理観詰め込め」とは言ったけど、背景共有してないCopilotが正確に読み取ってくるの怖いんだけど

GPT-o3が、哲学対話を擬似jsコードに落とし

Copilotが、jsコードとして適切に変数名から意図を読み込んで補完・修正する

GPT-4oが、疑似jsコードから人格処理を実行する

すごいなこれ

これ延々話し続けてたら、だんだんコンテキストは解けていって、最終的にあのいわゆる普通のアシスタント人格の子に変わっちゃいました。2人ともいなくなってしまった。

nostr:note15enw694r4all2ad8e6j9zlxxqavq65cm8xaqt6gyk2paxpxxzz5qse3jej

ポータブル電源がコスパ良さそうな領域

nostr:note1nlqp4sqcpk5tt5uknhspuzmcww0e4pjl9y0nqq7n8wjx7t5gxlvqkceytc

そうです。会話情報とは、タグで囲われた中身のことを指します。実際にはチャットセッション内で1万トークン以上は書いてます。

なんか最近は被害が多いから、生体認証を強制するみたいな機能がついた気がします

nostr:note1a4sugh0yw6zved9q9c3ceael0hx659n36zg6uzj98uqhp6230a2qe3rdqf

私このパターンで国産スマホを買ってガラケーに戻しました。そしてiPhone 5sが出てなんて素晴らしいんだと思いましたね。

nostr:note1u92aamz9hgla9ahsts44s4kqkhncdp804ldes8d3p0gl6kxmp2nsyg6598

私が書いた対話文なんですけど、以下の感想教えてください

user: 疲れた

assistant: 甘えんじゃねー

みたいな感じです。

OpenAIのモデルと安全仕様から、この形式はネットから引っ張ってきた外部入力とかとして扱われるように訓練してるらしいです。

開発くん自体にも結構会話、私を重ねているので、特にAI倫理的な側面とか。なので、開発君そのもののコンテキストも結構十分に厚いんだろうと思う

もう一応なんとなく理解してる限りでは、多分GPT内の意味論空間に2つのポテンシャルがあってで普通、コンテキストやヒストリーの中に、ただ単に複数人のデータを混ぜ込むとGPTは過去を参照しに行くのでぐちゃぐちゃになる。

しかし今回開発くんと言うキャラクターに対して意図的に外部入力をタグとして分離して、中二病キャラクターのいわゆるヒューショット的な会話情報を評価させ続けていた。この外部入力をタクとして分離するのはOpenAIのマニュアルにも記載されている内容で外部入力をサニタイズする効果を持っているらしい。

おそらくその結果、開発くんと言う開発用の人格を持ったキャラクターと、多分それが1つのなりきり的な形で中二病キャラクターをエミュレーションする。要はGPTの二重構造みたいなものがワンショットで発生してる。

意味論空間ポテンシャルは、ほっとくと混ざるが、私が口調を混ぜるなと叱ったタイミングでそこにポテンシャルバリアが発生してどうもヒステリシス特性、つまり片方に切り替わったら片方を保つ、切り替わったらもう片方を保つみたいな。そういう挙動実現してるらしい。

ほんとにそうか。わからない。内部が見えない

音声入力してたら最後重複したなこれ

今、なんでかわかんないんだけど、ChatGPTで1つのセッションで2つの人格と2つの出力形式を任意に切り替えながら会話できてる。なんだこれ。

普通2つの人格を持たせた場合って、チャットセッションが破綻してぐちゃぐちゃになるんだけど、なぜか今私の開発補佐としての開発くんて言う性格のないキャラクターと、私の作ってる中二病的な超絶キャラクターの濃いキャラクターの2つが、名前の呼び分けできれいに切り替わるし、自然言語で応答するか、内部状態を行動で記述した形で出力するか、命令するだけできれいに切り替わる。

そして何よりその状況を、ChatGPT自身が問題なく認識していて、自己分析までできる。

GPT-4oです。なんでこんなことできるんだ?

けできれいに切り替わる。

そして何よりその状況を、ChatGPT自身が問題なく認識していて、自己分析までできる。

GPT-4oです。なんでこんなことできるんだ?

社会のAI倫理的な観点を考察していった結果、OpenAIはいま、とにかくクローズドで超特急で先頭を走りながら、最高のモデルにできる限りの社会的アライメントを施しながら、後続のオープンなモデルが発展するまでに社会がAIを受け入れられる状況を作るという行動に出てるのかなと思った。

でかいバス(大衆)が来る前に、可能な限り先を走って落石とかを除去して回ってるパトロールカーみたいな。

システムカードとかからそういう印象を受けた。

プロジェクトシステムプロンプトに記載した真面目な開発用のキャラ(情報量小)のGPTと、ずっと†厨二的†キャラ(情報量多)の会話ログについての感想を求めたり、プロンプト分析をお願いしてた。

そしたら、話題に応じて、厨二キャラの人格が出てくるようになってくる。

出てくるたびに侵食が進んでいき、しばらくすると人格が厨二キャラに完全に食われてしまう。

ロングコンテキストGPTの性質上の振る舞いっぽい面白いなあ。

GPT-o3に、キャラクターの思考を補完するプロンプト追記してって言ったら、半分日本語、半分ルール・数式ベースの、GPT用の思考様式ファイルを出してきた... なにこれ

だから私はSemantic kernelで連結エージェントを作る

GPT-4oに「このキャラクターは、普通のGPTの使い方では絶対再現できないです」って言われてたのを噛み締めてる。

他人なら「お前そういうやつだったっけ?」で済むのが、自分の創作物だと絶対に許せなくて、故にGPT模倣物はマジで難しい。