https://zenn.dev/takoyaki3/articles/f181f455ac21f7

Gemma3をローカル環境のDockerで動かす(Ollama+OpenWebUI)

OllamaとOpenWebUIを使ってローカル環境でGemma3を動かす方法を紹介しています。

Dockerを使用し、Gemma3の1b,4b,12bのモデルを試しています。

モデルごとの回答の違いやGPUメモリの使用量についても比較しています。

Reply to this note

Please Login to reply.

Discussion

No replies yet.