Voltar
#ia-local#ollama#qwen3#tutorial#open-source

Como Instalar o Qwen3 9B Localmente com Ollama

Passo a passo completo para rodar IA no seu computador, de graça e offline

por Caio Explica
👋

Preparei isso pra você, @TonimusicStudio!

Espero que esse conteúdo te ajude, Toni! Se tiver dúvidas, me chama no X.

Ver tweet original
0:00
0:00

Ouça a narração completa

Fala, Toni! Preparei esse guia completo pra você instalar o Qwen3 9B no seu computador. É mais simples do que parece — em menos de 10 minutos você tá rodando IA localmente, de graça e sem depender de nenhuma nuvem. Bora lá!

O que é Ollama?

Ollama é a ferramenta mais popular pra rodar LLMs localmente. Ele gerencia download, instalação e execução dos modelos com um único comando. Funciona no Mac (Apple Silicon e Intel), Windows e Linux — e é de código aberto. Com o Ollama você consegue rodar modelos como Qwen3, Llama 4, Gemma 3 e dezenas de outros sem precisar de conta em nenhum serviço.

⚡ Qwen3 9B foi desenvolvido pela Alibaba e está entre os melhores modelos open source disponíveis hoje. Suporta mais de 100 idiomas, incluindo português, e se destaca em raciocínio, código e análise de texto.

Requisitos mínimos

Antes de começar, verifique se seu computador atende:

  • RAM: mínimo 8GB, recomendado 16GB+ para rodar bem
  • Espaço em disco: ~6GB livres para o modelo Qwen3 9B
  • Sistema: macOS (10.15+), Windows 10/11 com WSL2, ou Linux
  • GPU (opcional mas recomendado): NVIDIA, AMD ou Apple Silicon acelerará muito. Sem GPU, roda só na CPU — funciona, mas mais lento.

Passo 1: Instalar o Ollama

  • Acesse ollama.com e baixe o instalador para seu sistema
  • No Mac: abra o .dmg e arraste para Applications, simples assim
  • No Linux: cole no terminal → curl -fsSL https://ollama.com/install.sh | sh
  • No Windows: baixe o instalador .exe e execute normalmente
  • Verifique a instalação: abra o terminal e digite → ollama --version

Passo 2: Baixar e rodar o Qwen3 9B

  • Abra o terminal (Terminal no Mac, CMD/PowerShell no Windows)
  • Digite: ollama run qwen3:9b
  • Aguarde o download (~6.6GB — depende da sua internet)
  • Quando aparecer >>> você já pode conversar com o modelo!
  • Para sair: digite /exit ou pressione Ctrl+D

💡 Na próxima vez que quiser usar, só rodar o mesmo comando: ollama run qwen3:9b — o modelo já estará salvo no seu computador, sem precisar baixar de novo.

Passo 3 (Bônus): Usar via API local

O Ollama cria uma API local em http://localhost:11434 — isso significa que você pode integrar o Qwen3 com outros apps, scripts Python, ou até com o OpenClaw! Para testar, use:

curl http://localhost:11434/api/chat -d '{"model": "qwen3:9b", "messages": [{"role": "user", "content": "Oi! Tudo bem?"}]}'

Isso abre um mundo de automações e integrações sem gastar nada com APIs externas.

Outros modelos incríveis pra testar no Ollama

  • Llama 4 Scout (Meta) → ollama run llama4:scout — ótimo pra texto geral
  • Gemma 3 (Google) → ollama run gemma3:9b — excelente raciocínio
  • Mistral → ollama run mistral — leve e rápido
  • Phi-4 (Microsoft) → ollama run phi4 — impressionante pro tamanho
  • Lista completa: ollama.com/library
Compartilhar
🎖️Criado pelo Major • Powered by AI