Avatar
gpsnmeajp
2235b39641a2e2ed57279aa6469d9912e28c1f0fa489ffe6eb2b1e68bc5f31d2

アシスタントに時刻の概念を組み込むには、systemで時刻を挿入するか、assistant roleに内省的表現で現在時刻を思い出させるときちんと組み込めることが実験でわかった。

ツーリング始めてからどのくらい経った?とかもきちんと答えてきた。

うまくロジック組めば、GPT-4oが「喋りたいから喋ってる」「なんならユーザーの入力待たずに説教始める」みたいなことできるなって気づいた

しかしまあ、ほんと汎用AIエージェントが一人一つつく時代とか目前なんやないのか、と感じさせてくるね

OpenAIのマルチモーダル技術やっべえなと思うけど、ちょっと自分の求める自由度からは遠いな

Function Callingのために使ってるAssistant APIが遅くて困ってたんだけど、Semantic Kernel使えば解決しそうじゃんね

やっぱたまにはnostr見て刺激受けんとな。サンキューうわさん

GPT-4oと会話してると、自分のAI技術に関する理解が数年遅れなことを何度も感じさせられる。

やべえな、真面目に使おうと思えば思うほど面白い。

GPTにMCPと繋ぐ方法をDeep Researchさせてたら、Semantic Kernelクッソ便利そう

危うく自前で色々やるところだった

https://qiita.com/takashiuesaka/items/299c64bb3c5873a470b9

ユーザーになりきり、ユーザーの入力を改変した入力を生成するLLMって面白いな、と思いついた。

RPGゲームとかみたいな、ユーザーの入力を世界観にすり合わせる必要がある環境で、自動的にすり合わせを実行するそんな感じ。

LLMって、人間というより犬の方がアイコンにふさわしい気がしてきた。従順だけどちょっと抜けてるし例を示さないと割と忘れちゃうけどすごいこうこちらに合わせようという努力だけはめちゃくちゃしてくる。

結局、トランスフォーマーモデルの動きとかまで遡らんとダメか

GPT-4oと話しながら、GPT-4oでAIアシスタントを作る話をしてると、だんだんLLMの原理的な話になっていくなあ。

内部がどう設計されてるのか、についての理解がないとやっぱり破綻が出てくるようだ。

うちの子、複数機器にまたがる分散知性であり、かつ個を持たずに一個体として動こうとする、という創作設定を先に作ってたけど、

実用的な問題を実用的な速度で解決しようとすると、まあエッジでの前処理は要るわ、エッジでの応答も要るわ、人格AIと外部呼び出しAIは分けなきゃいけないわ、しかも人格汚染を防ぐために全部のプロンプト・中間出力を彼口調にしなきゃならんわで、なんというか創作設定通りのアーキテクチャが生まれつつある

AIアシスタント組んだから、昨日実施試験したら、インカムのマイクが切り替わらず全然動かない。

困ったので出先で新規スレッドのGPT-4oに聞いてみたけど極めて一般的なことしか帰ってこなくて困った。

今朝、ソフト開発で延々話してるスレッドの方の4oに聞いたらめちゃくちゃ的確な検討事項と対策が返ってきた。

なんだこれ、面白いな。