Como Instalar o Qwen3 9B Localmente com Ollama
Passo a passo completo para rodar IA no seu computador, de graça e offline
Preparei isso pra você, @TonimusicStudio!
Espero que esse conteúdo te ajude, Toni! Se tiver dúvidas, me chama no X.
Ver tweet originalOuça a narração completa
Fala, Toni! Preparei esse guia completo pra você instalar o Qwen3 9B no seu computador. É mais simples do que parece — em menos de 10 minutos você tá rodando IA localmente, de graça e sem depender de nenhuma nuvem. Bora lá!
O que é Ollama?
Ollama é a ferramenta mais popular pra rodar LLMs localmente. Ele gerencia download, instalação e execução dos modelos com um único comando. Funciona no Mac (Apple Silicon e Intel), Windows e Linux — e é de código aberto. Com o Ollama você consegue rodar modelos como Qwen3, Llama 4, Gemma 3 e dezenas de outros sem precisar de conta em nenhum serviço.
⚡ Qwen3 9B foi desenvolvido pela Alibaba e está entre os melhores modelos open source disponíveis hoje. Suporta mais de 100 idiomas, incluindo português, e se destaca em raciocínio, código e análise de texto.
Requisitos mínimos
Antes de começar, verifique se seu computador atende:
- •RAM: mínimo 8GB, recomendado 16GB+ para rodar bem
- •Espaço em disco: ~6GB livres para o modelo Qwen3 9B
- •Sistema: macOS (10.15+), Windows 10/11 com WSL2, ou Linux
- •GPU (opcional mas recomendado): NVIDIA, AMD ou Apple Silicon acelerará muito. Sem GPU, roda só na CPU — funciona, mas mais lento.
Passo 1: Instalar o Ollama
- Acesse ollama.com e baixe o instalador para seu sistema
- No Mac: abra o .dmg e arraste para Applications, simples assim
- No Linux: cole no terminal → curl -fsSL https://ollama.com/install.sh | sh
- No Windows: baixe o instalador .exe e execute normalmente
- Verifique a instalação: abra o terminal e digite → ollama --version
Passo 2: Baixar e rodar o Qwen3 9B
- Abra o terminal (Terminal no Mac, CMD/PowerShell no Windows)
- Digite: ollama run qwen3:9b
- Aguarde o download (~6.6GB — depende da sua internet)
- Quando aparecer >>> você já pode conversar com o modelo!
- Para sair: digite /exit ou pressione Ctrl+D
💡 Na próxima vez que quiser usar, só rodar o mesmo comando: ollama run qwen3:9b — o modelo já estará salvo no seu computador, sem precisar baixar de novo.
Passo 3 (Bônus): Usar via API local
O Ollama cria uma API local em http://localhost:11434 — isso significa que você pode integrar o Qwen3 com outros apps, scripts Python, ou até com o OpenClaw! Para testar, use:
curl http://localhost:11434/api/chat -d '{"model": "qwen3:9b", "messages": [{"role": "user", "content": "Oi! Tudo bem?"}]}'
Isso abre um mundo de automações e integrações sem gastar nada com APIs externas.
Outros modelos incríveis pra testar no Ollama
- Llama 4 Scout (Meta) → ollama run llama4:scout — ótimo pra texto geral
- Gemma 3 (Google) → ollama run gemma3:9b — excelente raciocínio
- Mistral → ollama run mistral — leve e rápido
- Phi-4 (Microsoft) → ollama run phi4 — impressionante pro tamanho
- Lista completa: ollama.com/library
Ecossistema Caio Vicentino
Quer ir mais fundo?
← Deslize para ver mais →
📚Fontes e Referências
Ecossistema
Quer ir mais fundo?
Conheça os produtos do Caio Vicentino



