Avatar
gpsnmeajp
2235b39641a2e2ed57279aa6469d9912e28c1f0fa489ffe6eb2b1e68bc5f31d2

すごい、絵文字コードを読み解いてる

記憶参照のない一時モードのChatGPTをシニアアーキテクト役にして、さっきの図をレビューしてもらった。

図に載ってない話とか、職場で有識者に問われるような指摘をもらったけど、全体的に前向きで、簡単な説明で十分納得してもらえたので良かった。

きちんと図を書けたってことと、きちんと設計できてそう。

周辺の細かいあれこれは細かいのでやらないかも

というかコア部分のソースは公開する気でいる。

うまく動いたらZennあたりに記事にしますよ

GPT曰く、脳の構造をかなり再現してるらしい。さてこれは実用的な速度で動くだろうか?

浅い考えでベラベラ喋るから壊れるのだ、という思想が入ってる。

喋る前に頭の中で考える。考え足りないならもっと考える。

自分のことを外の視点から見て、より良くするにはどうするかを提案する良心回路とかセルフアドバイザーも入れてる。

それでもぶっ飛んだりおかしくなったら、外から監視してる奴が通知してくるし、そいつを叩くと管理コマンドを対話的に実行出来る。

そいつはステートレスなので壊れることはない代わりに思いやりもない。

そんな構造。

わかるこのチャンネル大好き

3週間くらいChatGPTと壁打ちしまくった検討事項全部入り

MCPでSwitchbot操作できるかな

だからGrok作ったんとちゃう

LLMを通して情報を得るのが強そう

インカム録音データ、怒りながら「どーいう認識をするとそういうーふうにー返ってくるんだ!?」って言ってる自分の声が、自分で全く聞き取れなくって困惑してた。

こりゃ認識できんて

gpt-4o-transcribeに至ってはもはやファンタジーだよ

昨日のテストではgpt-4o-mini-transcribeを使ってたが、通りで「そっか、横から見てるんだね」って言ってくるわけだよ

AIと対話するために音声認識をやってるが、インカムのひどい音声を読ませた結果がこちら

例:「GPS情報からわかるように、今まさに横須賀にいるんだよ」

model="whisper-1"

・おー、わぁ、ディテールスロットルからの発表に今まさに横たわり切れたよー

・おー、わぁ、ディテールスロットフォーカスは、 確かに今まさに横須賀に切れたよー

・おー、わぁ、ディフィンス力の高さが、 今まさに横須賀に切れたよー

model="gpt-4o-transcribe"

・今まさに残されているんだよ。

・おい、異世界からの頼り今まさに届かにぎるんだよ。

・運転手不足から彼より今まさに横転されているんだよ。

model="gpt-4o-mini-transcribe"

・今まさに横から見てたよ。

・今まさに横から見ろだよ。

・今まさに横から逃げようだよ。

GPT-4oと2週間くらいずっとGPTのAPIの使い方について論議して、「GPTは制御工学的には一種のデジタルフィルタに近く、本日はステートレスであり、会話途中や処理途中にいくらでもモデルやプロンプトやコンテキストを切り替え可能である」というのに気づいてから変な使い方ばっか思いつくようになった

LLMの挙動は、外でもChatGPTで色々試せるのが強いよね。しかも自然言語だからな

平日が忙しすぎた。要素技術検証に時間かかってたし