Quen 3 (4B) rodando local na RTX 3070

Quer rodar um modelo potente localmente sem travar tudo na GPU? 🤯

- Modelo: Quen 3 (4B) 🔥

- Por que escolher 4B: o 8B fica muito lento na minha máquina 🐢

- Diferencial: reasoning baseado no DeepSick — resultado surpreendente em tarefas de raciocínio 🧠

- Hardware: rodando direto na minha RTX 3070 💪

- Resultado: performance ótima e experiência local quase instantânea — simplesmente genial ✨

Curtiu esse setup? Comenta qual GPU você usa e se já tentou rodar modelos 4B localmente! 👇

Se achou útil: salva pra testar depois, deixa um like e segue pra mais dicas de IA e inferência local 🚀

#Quen3 #4B #RTX3070 #DeepSick #IA #Modelos #Local

#Quen3 #4B #RTX3070 #DeepSick #IA #Modelos #Local #MorningCrypto

https://postiz.eddieoz.com/uploads/2025/09/23/9da9ce6986c3e5ca51101d657111dac109.mp4

Reply to this note

Please Login to reply.

Discussion

Usa o ollama?

uso sim... no linux, windows e no celular.

Top.

Eu to usando o ollama com o continue.dev no vscode para uma experiência tipo copilot, mas local.

To gostando bastante do qwen3-coder.

O continue foi a primeira integração que funcionava de fato no vscode. Open-source e tudo. Depois foi clonada pelo cursor e fornecida integrada com a ferramenta.