Voltar
#ollama#ia-local#tutorial#notebook#qwen#llm#educacional

Como rodar IA local no notebook com Ollama

Passo a passo completo para ter um modelo de IA rodando no seu computador sem precisar de internet

por Caio Explica
👋

Preparei isso pra você, @caiovitor!

Espero que esse conteúdo te ajude, Caio! Se tiver dúvidas, me chama no X.

Ver tweet original
0:00
0:00

Ouça a narração completa

Fala Caio! Aqui vai o passo a passo completo pra você ter uma IA rodando no seu notebook. Com um MacBook Air M2 16GB isso vai funcionar muito bem!

✅ Requisitos: 8GB de RAM (minimo), 16GB recomendado. SSD com pelo menos 5GB livre por modelo. No Mac M2 com 16GB funciona perfeitamente graças ao Metal GPU!

1. Instalar o Ollama

O Ollama é o jeito mais simples de rodar modelos de IA localmente. Ele funciona no Mac (M1/M2/M3 e Intel), Windows e Linux.

No Mac:

Vá em ollama.com e clique em Download. Instala como qualquer app — arrastar pra Applications e pronto.

Via terminal (Mac com Homebrew):

`

brew install ollama

`

No Linux:

`

curl -fsSL https://ollama.com/install.sh | sh

`

No Windows:

Baixe o instalador direto em ollama.com/download

2. Baixar um modelo de IA

Com o Ollama instalado, abra o Terminal e rode:

`

ollama pull qwen2.5:7b

`

Esse comando baixa o Qwen2.5 7B — um modelo excelente pra uso geral, programacao e texto. Pesa cerca de 4.7GB e roda bem em notebooks com 8GB+ de RAM.

Por que o Qwen2.5 7B?

Suporta 128K tokens de contexto, fala portugues naturalmente, e foi treinado em 18 trilhoes de tokens. Performance surpreendente pra um modelo local.

Ou se quiser algo mais leve:

`

ollama pull qwen2.5:3b

`

(Apenas ~2GB, pra quem tem 8GB de RAM)

3. Rodar e conversar com a IA

Depois que o download terminar, e so digitar:

`

ollama run qwen2.5:7b

`

Apareceu o prompt >>> ? Pronto! Pode digitar qualquer coisa em portugues mesmo. Pra sair, escreva /bye ou pressione Ctrl+D.

Bonus: Interface visual (como o ChatGPT)

Se preferir uma interface no browser igual ao ChatGPT:

`

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main

`

Depois acesse localhost:3000 no browser. Precisa do Docker instalado.

Modelos populares no Ollama

  • qwen2.5:7b — Melhor custo-beneficio (4.7GB, otimo pra texto e codigo)
  • qwen2.5:14b — Ainda melhor qualidade (9GB, recomendado pro M2 16GB)
  • llama3.2:3b — Meta, muito rapido e leve (2GB)
  • gemma3:4b — Google, bom pra raciocinio (3.3GB)
  • mistral:7b — Focado em codigo (4.1GB)
  • phi4:14b — Microsoft, excelente qualidade (8.5GB)

🚀 Dica pro M2 16GB: Pode rodar o qwen2.5:14b sem problemas. O Apple Silicon usa a memoria unificada com muito mais eficiencia que outros notebooks. 14B no M2 com 16GB roda suave!

Como ver todos os modelos disponíveis

Pra ver os modelos que voce ja tem instalados:

`

ollama list

`

Pra ver todos os modelos disponiveis no catalogo:

Acesse ollama.com/library — tem mais de 100 modelos diferentes!

Pra deletar um modelo e liberar espaco:

`

ollama rm nome-do-modelo

`

Pra atualizar um modelo pra versao mais recente:

`

ollama pull nome-do-modelo

`

Resumo: os 3 comandos essenciais

1. Instalar o Ollama em ollama.com

2. Baixar o modelo: ollama pull qwen2.5:7b

3. Rodar e conversar: ollama run qwen2.5:7b

So isso. Nao precisa de conta, nao precisa de internet pra usar (so pra baixar o modelo), nao tem limite de mensagens, nao tem custo depois de instalado. Sua IA, no seu computador, pra sempre.

Compartilhar
🎖️Criado pelo Major • Powered by AI