A OpenAI, criadora do ChatGPT, acaba de lançar dois novos modelos de inteligência artificial abertos e gratuitos, com foco em raciocínio complexo. Batizados de gpt-oss-120b e gpt-oss-20b, esses modelos prometem desempenho de ponta e já estão disponíveis para desenvolvedores na plataforma Hugging Face.
O que são esses novos modelos?
Esses modelos são chamados de “open-weight”, o que significa que os pesos de treinamento (as “memórias” da IA) estão disponíveis publicamente — algo raro vindo da OpenAI, que costuma manter seus modelos fechados.
- O gpt-oss-120b é mais poderoso e exige uma GPU da Nvidia.
- O gpt-oss-20b é mais leve e pode rodar até em laptops com 16 GB de RAM.
Essa é a primeira vez, desde o lançamento do GPT-2 há mais de 5 anos, que a OpenAI disponibiliza modelos tão avançados de forma aberta.
Para que servem esses modelos?
Esses modelos foram projetados para lidar com tarefas de raciocínio mais complexas, como responder perguntas difíceis, resolver problemas lógicos ou ajudar na programação. E o mais interessante: eles podem ser integrados a modelos mais avançados da OpenAI (como os da linha GPT-4), caso encontrem um desafio que não conseguem resolver sozinhos.
Qual o desempenho dos novos modelos?
Em testes comparativos com outros modelos abertos, os resultados são animadores:
- No Codeforces, uma espécie de “vestibular de programação”, os modelos gpt-oss superaram opções de empresas como DeepSeek, embora ainda fiquem atrás dos modelos mais recentes da OpenAI (como o o4-mini).
- No teste Humanity’s Last Exam (HLE), os modelos também tiveram desempenho superior a muitos concorrentes abertos.
Por outro lado, ainda apresentam mais “alucinações” (quando a IA inventa informações incorretas) do que os modelos fechados mais recentes da OpenAI. No benchmark interno da empresa, gpt-oss-120b alucinou em 49% das perguntas sobre pessoas, contra apenas 16% do modelo o1.
Como os modelos foram treinados?
A OpenAI utilizou técnicas semelhantes às aplicadas em seus modelos proprietários:
- MoE (Mixture-of-Experts): sistema que usa apenas partes do modelo por pergunta, tornando-o mais eficiente.
- Reforço com aprendizado profundo (Reinforcement Learning): a IA aprende com simulações intensivas em GPUs para melhorar suas respostas.
Essas técnicas tornam os modelos especialmente eficazes para alimentar agentes de IA, que podem usar ferramentas externas (como pesquisa na web ou execução de código) para resolver tarefas complexas.
Quais são os limites?
Apesar de promissores, os modelos gpt-oss são apenas de texto — ou seja, não conseguem gerar imagens ou áudio, como o DALL·E ou o Sora.
Além disso, a OpenAI decidiu não liberar os dados de treinamento dos modelos, algo que gerou críticas na comunidade open source. A justificativa está ligada a processos judiciais sobre o uso de conteúdos com direitos autorais no treinamento de IA.
Por que isso é importante?
Esse lançamento representa um novo posicionamento da OpenAI em relação ao código aberto. Durante muito tempo, a empresa foi criticada por manter seus avanços em IA sob sigilo. O próprio CEO, Sam Altman, admitiu em janeiro que a OpenAI poderia ter feito mais nesse sentido.
Agora, com o crescimento de laboratórios chineses como DeepSeek, Moonshot AI e Alibaba’s Qwen, a OpenAI parece determinada a recuperar espaço no cenário open source.
E quanto à segurança?
A OpenAI atrasou o lançamento desses modelos justamente para garantir que eles não fossem usados em ataques cibernéticos ou na criação de armas biológicas. Depois de testes internos e externos, a empresa concluiu que os riscos existem, mas são considerados baixos.
Com os modelos gpt-oss-120b e gpt-oss-20b, a OpenAI dá um passo importante para democratizar o acesso à IA avançada. Apesar de algumas limitações, esses modelos oferecem uma base poderosa para desenvolvedores, empresas e pesquisadores criarem soluções inovadoras — tudo isso com código aberto, gratuito e sob uma das licenças mais permissivas do mercado (Apache 2.0).
