Avatar
taka
e3ca4c6dcbc6e76c34c40fa9e8a31c6c7b7fc2448b37467a0b2b79a3856e40b6
바보 https://twitter.com/takaria0

し、CSVをパースしたら、RDBって呼んでもいいですか…?

kind 1

kind 2

...

やさしいんだね、Nostrって

朝に強くなりたいと思い続けてはや20年

パフォーマンスチューニングイキリ

やっちゃった…大量データをloop毎にDBアクセスしてる場所を、memoryに最初に読んでhashmapで回して100xくらいパフォーマンス速くしてしまって申し訳ない😥

不具合が流行ってるっていう表現オモロい

Wallet多すぎじゃない?

僕もLightningよくわかっていない

「転生したら秘密鍵解読スキル持ってた」

jackからリプ貰ってるじゃないすか!!

私立Nostr小学校では、九九の代わりにNIPsプロトコルを暗唱します

面接の話題がニッチすぎる

となるとやはり無限にContext (aka token)を与え続けられるChatGPTは最強ということになり… まあそういうことよな

FinetunedのFinetunedのさらなるFinetunedと…

そして、NostrでNostrに関係ない話をすることがNostrの発展につながるのである

(ここでNostrについて言及したため退場)

実際にやってみて勘所が掴めたのはイイが、やはりデータセット、データセットがすべてを解決する

OpenAIサーンたのむよお

API解放してよお

というか、Finetuning可能なモデルのmax tokenが2000とかで、Codexモデルのmax token 8000とかなので、普通にpromptで大量に文脈与えた方が取り回ししやすい。CodexモデルのFinetuningのAPI解放されてないので…

やっぱtoken数の兼ね合いで厳しいな。FinetuningしてもPrompt Engineeringにはなかなか勝てない説あるわ

だめだFinetuningよりもPromptが大事