Usa o ollama?
Quen 3 (4B) rodando local na RTX 3070
Quer rodar um modelo potente localmente sem travar tudo na GPU? 🤯
- Modelo: Quen 3 (4B) 🔥
- Por que escolher 4B: o 8B fica muito lento na minha máquina 🐢
- Diferencial: reasoning baseado no DeepSick — resultado surpreendente em tarefas de raciocínio 🧠
- Hardware: rodando direto na minha RTX 3070 💪
- Resultado: performance ótima e experiência local quase instantânea — simplesmente genial ✨
Curtiu esse setup? Comenta qual GPU você usa e se já tentou rodar modelos 4B localmente! 👇
Se achou útil: salva pra testar depois, deixa um like e segue pra mais dicas de IA e inferência local 🚀
#Quen3 #4B #RTX3070 #DeepSick #IA #Modelos #Local
#Quen3 #4B #RTX3070 #DeepSick #IA #Modelos #Local #MorningCrypto
https://postiz.eddieoz.com/uploads/2025/09/23/9da9ce6986c3e5ca51101d657111dac109.mp4
Discussion
uso sim... no linux, windows e no celular.
Top.
Eu to usando o ollama com o continue.dev no vscode para uma experiência tipo copilot, mas local.
To gostando bastante do qwen3-coder.
O continue foi a primeira integração que funcionava de fato no vscode. Open-source e tudo. Depois foi clonada pelo cursor e fornecida integrada com a ferramenta.