この間、llama.cppをビルドしてVSCode+ContinueでローカルLLMを試してみたけど、正直5090でもそこまでそこまでだったので、多分あまり期待しすぎないほうがいい。(しかもSUPERは年内出ない可能性

Reply to this note

Please Login to reply.

Discussion

No replies yet.