し、CSVをパースしたら、RDBって呼んでもいいですか…?
kind 1
kind 2
...
やさしいんだね、Nostrって
朝に強くなりたいと思い続けてはや20年
パフォーマンスチューニングイキリ
やっちゃった…大量データをloop毎にDBアクセスしてる場所を、memoryに最初に読んでhashmapで回して100xくらいパフォーマンス速くしてしまって申し訳ない😥
不具合が流行ってるっていう表現オモロい
Wallet多すぎじゃない?
僕もLightningよくわかっていない
「転生したら秘密鍵解読スキル持ってた」
jackからリプ貰ってるじゃないすか!!
私立Nostr小学校では、九九の代わりにNIPsプロトコルを暗唱します
面接の話題がニッチすぎる
となるとやはり無限にContext (aka token)を与え続けられるChatGPTは最強ということになり… まあそういうことよな
FinetunedのFinetunedのさらなるFinetunedと…
そして、NostrでNostrに関係ない話をすることがNostrの発展につながるのである
(ここでNostrについて言及したため退場)
実際にやってみて勘所が掴めたのはイイが、やはりデータセット、データセットがすべてを解決する
OpenAIサーンたのむよお
API解放してよお
というか、Finetuning可能なモデルのmax tokenが2000とかで、Codexモデルのmax token 8000とかなので、普通にpromptで大量に文脈与えた方が取り回ししやすい。CodexモデルのFinetuningのAPI解放されてないので…
やっぱtoken数の兼ね合いで厳しいな。FinetuningしてもPrompt Engineeringにはなかなか勝てない説あるわ
だめだFinetuningよりもPromptが大事