この間、llama.cppをビルドしてVSCode+ContinueでローカルLLMを試してみたけど、正直5090でもそこまでそこまでだったので、多分あまり期待しすぎないほうがいい。(しかもSUPERは年内出ない可能性
Discussion
No replies yet.
この間、llama.cppをビルドしてVSCode+ContinueでローカルLLMを試してみたけど、正直5090でもそこまでそこまでだったので、多分あまり期待しすぎないほうがいい。(しかもSUPERは年内出ない可能性
No replies yet.