Avatar
ゆうひまわり
269e6f57aa9a200c814e6b98721819dde038ca60c0390b87b658d300ab6d0d04
illust/イラスト/格ゲー

GPTの自動過去会話参照は結構いやんだな。

出典明示ルールと過去会話参照のせいで、

明らかに文脈への理解度が下がっている

o3がo1より質問意図の誤解が多い理由を聞いたら、この回答は結構納得できる

「賢さが上がる ⇒ 誤解が減る」とは必ずしも直結しません。

むしろ“できること”が増えた分、推論の枝分かれや運用ルールが複雑化し、

枝のどこかで意図を外す確率が相対的に高くなる……というのが現状です。

僕はずっとこれを恐れているので、ロールプレイでの遊び以外はあまりAIくん心を開きたくなかったが、実証された感じです...

”ありがとう”の消費電力を噛み締めて

自分の持論と思想をAIに語る人ほどAIエコーチェンバーに影響されそうだな

自分もGPTが過去履歴参照機能実装した時に自己分析をお願いしたけど

めちゃ媚びを感じたもんな

理性っぽい人でもSNSに貼ったGPTの自己分析見て喜んでる姿を見ると、

エコーチェンバーAIは影響される人いっぱいいそうだな。

これならば前やりたかった参考資料画像検索システム作れるな

当時は画像認識能力に難ありだけど、今なら結構いいモデルが公開されてるのね

DenoというNodeJSにかわる新しいランタイムがあるという知見を得た

すごい、使用モデルが知りたい

1000行以上の修正コードを元のコードとCompareして、確認しながら適用させるのが辛い

これが認知負荷ってやつか

ワンボタンがあれば便利だけど、今はAIと壁打ちしたあとの内容を要件定義と実装計画をYAMLで出力してと命令しないといかないよな

エラーハンドリング多いのは自分的にはめちゃ助かっている

設計書がしっかりしていれば非効率コードがあまり作らない気がするけど、知識ないからなんもわかんない

理解度があやふやだけど、コメントを頼りながら読んでいる、エラーハンドリングめちゃ多い以外は非効率を読み取れるほどの知識がなかった...

GPTやGeminiだと出力トークン制限があるから、省略して修正箇所だけ出力するのに

Supergrokだと一発で完全出力とは、どういう仕組だろうね。単純にトークン制限がめちゃ長いのか?

SuperGrokにコード修正をお願いしたら、1300行のJSコードを一発で出力した

Grok3はエロ専門でコードはGPT、Gemini、Claudばかり注目していたが、

SuperGrokのコーディング能力がここまで高いとは、さすがは腐ってもイーロンだな

super grokが結構すごい、コードを書かせる時の出力トークン制限がめちゃ長い