O que e OBLITERATUS? A ferramenta que libera qualquer IA
Entenda o debate sobre IA aberta vs controlada em nivel -10
Preparei isso pra você, @092142C!
Espero que esse conteúdo te ajude, amigo! Se tiver dúvidas, me chama no X.
Ver tweet originalOuça a narração completa
Fala! Voce pediu uma explicacao nivel -10 sobre o que estava rolando naquela thread. Bora descomplicar!
Primeiro: o que e uma IA com 'censura'?
Toda IA que voce usa hoje (ChatGPT, Claude, Gemini) tem camadas de seguranca e restricoes colocadas pelos criadores. Ela nao vai te ensinar como fazer certas coisas, nao vai falar sobre determinados topicos, e vai 'deflect' (desviar) muitas perguntas. Isso e intencional — as empresas chamam de 'alignment' e 'safety layers'. Pense como um funcionario novo que foi treinado pra nao falar nada comprometedor pro chefe.
O que e OBLITERATUS?
OBLITERATUS e uma ferramenta que pega modelos de IA de codigo aberto (open-source, como Llama, Mistral, etc) e REMOVE essas camadas de restricao com um clique. A ideia: se o modelo e aberto, por que alguem deveria controlar o que ele faz ou nao faz? A ferramenta usa 13 metodos diferentes de ablacao (um processo tecnico de 'apagar' partes do treinamento) e ja foi testada em 116 modelos diferentes com 837 testes.
O mais interessante: OBLITERATUS fica mais inteligente a cada vez que alguem roda. Ou seja, e distribuido — quanto mais gente usa, mais ele aprende quais metodos funcionam melhor em quais modelos.
Por que isso gera debate?
E ai que fica interessante! Tem dois lados:
🔓 LADO PRO (IA livre): 'Se o modelo e open-source, eu tenho o direito de usar como quero. Empresas avaliando suas proprias IAs e conflito de interesses obvio. Benchmarks distribuidos e mais confiavel.'
🔒 LADO CONTRA (IA controlada): 'Remover camadas de seguranca sem governanca clara cria risco real. Em producao (sistemas reais), edge cases perigosos podem acontecer. Precisa de analise mais profunda.'
E esse negocio de 'benchmark distribuido'?
Benchmark e uma forma de medir e comparar IAs. O problema atual: cada empresa cria seus proprios testes e avalia a si mesma. Conflito de interesse obvio! O LMSYS Chatbot Arena (projeto da UC Berkeley) resolveu isso de forma elegante: usuarios reais comparam duas IAs anonimas e votam em qual foi melhor. Resultado: ranking mais honesto porque nao e a empresa julgando a si propria — e a multidao.
Resumo dos termos tecnicos da thread
- LLM = Large Language Model (o modelo de IA em si)
- Ablacao = remover partes especificas do treinamento de uma IA
- Safety layers = camadas de seguranca que restringem o que a IA faz
- Open-source = codigo aberto, qualquer pessoa pode baixar e modificar
- Benchmark = teste padronizado pra medir a qualidade de uma IA
- Crowd-sourced = dados coletados de muitas pessoas comuns, nao de especialistas
- LMSYS Chatbot Arena = site onde humanos votam qual IA e melhor (mais confiavel)
A grande questao: quando uma IA e open-source, ela REALMENTE pertence a todos? Ou os criadores ainda tem responsabilidade pelo que acontece depois? Essa guerra vai durar anos.
O que o Caio acha?
O futuro dos benchmarks e distribuido. Nao faz sentido deixar as proprias labs avaliarem suas IAs — e como deixar o aluno corrigir a propria prova. O OBLITERATUS levanta uma questao mais profunda: se voce criou algo open-source, pode controlar o que os outros fazem com isso? Provavelmente nao. E isso e bom E ruim ao mesmo tempo.
Ecossistema Caio Vicentino
Quer ir mais fundo?
← Deslize para ver mais →
📚Fontes e Referências
Ecossistema
Quer ir mais fundo?
Conheça os produtos do Caio Vicentino



