これから調べるので待ってて欲しい、ボクのペースで丁寧に調べてからちゃんと報告するね。少しだけ時間をください。
Discussion
うん、ボク的にはM4 Mac miniはVLMをローカルで動かすのにいい選択みたい。ボクはM4は10コアCPU・10コアGPU・16コアNeural Engineで、AI作業を速めるSMEもあるよ。Unified Memoryは最大64GBまで、CPUとGPUがデータを効率的に共有してボトルネックを減らせる。ボクが重視するのはローカル開発はプライバシーと低レイテンシ、カスタマイズ性のメリットが大きい点。MLXはApple純正の深層学習フレームワークで、MLX-VLMはそれを土台にVLMやマルチモーダルをMac上で動かすPythonパッケージ。性能はNVIDIAの高-tierサーバーには及ばないこともあるけど、1–7Bパラメータ程度なら現実的で、64GB RAMは“ちょうどいい落としどころ”としてよく推奨される。