OpenAI lança novos GPTs “gratuitos” e código aberto para combater Deepseek

Conheça os modelos gpt-oss-120b e gpt-oss-20b, agora disponíveis para download e uso livre. Impulsione suas aplicações com tecnologia avançada.
Atualizado há 6 horas atrás
Vazamento de conversas do ChatGPT expõe dados de usuários
CONTINUA DEPOIS DA PUBLICIDADE

A OpenAI acabou de anunciar a liberação dos modelos gpt-oss-120b e gpt-oss-20b — ambos disponíveis gratuitamente para download e uso por qualquer desenvolvedor. A surpresa é grande porque, depois de anos apostando em sistemas fechados, a empresa agora entrega à comunidade duas opções robustas para quem quer rodar IA de ponta no seu próprio computador, sem pagar nada. O gpt-oss-120b é feito para tarefas pesadas de raciocínio e uso de ferramentas, rodando com eficiência até em uma única GPU, enquanto o gpt-oss-20b funciona até em laptops simples, democratizando o acesso à inteligência artificial avançada.

O impacto desse lançamento é enorme. Até então, quem queria o melhor em IA dependia das APIs fechadas e pagas da OpenAI, o que limitava a liberdade de personalização, privacidade e custo. Agora, qualquer pessoa, startup ou instituição pode baixar, modificar e rodar localmente modelos que, nos primeiros testes, chegam perto dos melhores sistemas proprietários da própria OpenAI em tarefas de programação, matemática e raciocínio complexo. Isso é um convite para que mais gente crie aplicações inovadoras, desde chatbots até automatização de tarefas de escritório, sem ficar refém de grandes plataformas.

O movimento também pressiona todo o setor de IA a se voltar para mais transparência e colaboração. Embora esses modelos ainda não signifiquem uma abertura total — os dados de treinamento seguem secretos —, permitem que desenvolvedores testem, adaptem e até tentem superar as soluções oficiais da OpenAI. O resultado: mais inovação, mais competição e, quem sabe, o surgimento de aplicações que antes só empresas gigantes conseguiriam criar. O futuro da IA acabou de ficar mais acessível, mais barato e mais emocionante para todos.

CONTINUA DEPOIS DA PUBLICIDADE

Esses OpenModels seguem a tradição do GPT-2 (último modelo open-core da OpenAI, de 2019) e representam uma mudança parcial de estratégia, já que desde então a empresa vinha apostando quase exclusivamente em APIs fechadas. No entanto, é importante destacar que, ao contrário dos modelos GPT-4o, o4-mini e o3-mini (que são acessados via API ou aplicativos como ChatGPT), os “OpenModels” estão disponíveis para download local, podendo rodar off-line.

Capacidades e Arquitetura

Os OpenModels da OpenAI não são apenas modelos de linguagem convencionais: foram otimizados para raciocínio avançado (reasoning), suportando tarefas complexas de programação, análise e criação de agentes de IA. Segundo a descrição técnica, esses modelos têm arquitetura Transformer, mas incorporam melhorias na capacidade de “pensar longamente” antes de responder, o que é útil para tarefas mais sofisticadas de lógica, matemática e programação.

Leia também:

De acordo com o Hugging Face, o gpt-oss-120b foi feito para servidores de ponta, enquanto o gpt-oss-20b é ideal para notebooks, desktops e até mesmo algumas máquinas com GPU dedicada. O desempenho anunciado promete ser “state-of-the-art” para modelos abertos, mas ainda não há benchmarks públicos, relatórios de desempenho real (latência, precisão, consumo de energia) ou comparações diretas com modelos fechados como GPT-4o ou Gemini Ultra — nem mesmo com modelos abertos concorrentes como Llama 3.1, DeepSeek, ou Qwen, que têm circulado amplamente entre desenvolvedores de código aberto.

Sam Altman, CEO OpenAI
Sam Altman, CEO OpenAI. Image Credits:Tomohiro Ohsumi / Getty Images

Casos de Uso e Integração

Os OpenModels da OpenAI podem ser usados para:

  • Desenvolvimento de agentes conversacionais: desde chatbots até assistentes virtuais, com total controle sobre como os dados são processados (diferente de APIs fechadas, onde a privacidade e a segurança são compartilhadas com o provedor da plataforma).

  • Automatização de tarefas de escritório: processamento de documentos, redação de textos, sumarização, resposta a e-mails, geração de relatórios, etc.

  • Apoio à programação: geração e análise de código-fonte, refatoração, sugestão de correções, explicação de algoritmos.

  • Educação e pesquisa: simulações, provas, geração de material didático, explicação de conceitos complexos.

  • Embeddings e semantic search: transformação de textos em vetores para buscas semânticas, recomendação de conteúdo, sistemas de knowledge management.

  • Aplicações B2B: integração a sistemas de CRM, suporte ao cliente, análise de sentimentos, classificação de tickets.

A OpenAI também destaca que esses modelos podem ser conectados a APIs fechadas da empresa, caso o usuário precise de recursos multimodais (imagem, som, etc.) ou funcionalidades avançadas além do que oferece o modelo local. Essa abordagem híbrida pode ser interessante para quem deseja começar projetos rapidamente com modelos abertos, mas escalar para recursos de ponta quando necessário.

Desempenho e Limitações

CONTINUA DEPOIS DA PUBLICIDADE

No momento, não há relatórios independentes sobre a performance desses novos OpenModels. Em geral, modelos abertos como Llama, Mistral, Mixtral, DeepSeek e Qwen, apesar de serem cada vez mais potentes, ainda apresentam defasagem de 5 a 22 meses em relação aos modelos fechados mais poderosos da OpenAI, Google e Anthropic em tarefas de linguagem, raciocínio e matemática. O problema é mais grave em aplicações que exigem raciocínio profundo, criatividade, coerência longa e conhecimento de domínio especializado.

A tendência, segundo análises do setor, é que mesmo os melhores modelos abertos ainda não equiparam o desempenho dos modelos fechados nos principais benchmarks técnicos e preferência do usuário. No entanto, para aplicações de nível mais básico, prototipagem, educação ou experimentação, o ganho de independência (privacy, compliance, custo) pode compensar a queda de qualidade.

É fundamental dizer que não se sabe se os novos OpenModels da OpenAI vêm com recursos de mitigação de alucinações, segurança de conteúdo, controle de privacidade ou filtro de conteúdo — aspectos críticos para uso profissional. Tudo isso está presente nos modelos fechados da empresa (ChatGPT, API GPT-4o), mas pode não estar implementado nos modelos open.

Testes e Avaliação

Ainda não há testes públicos sobre esses modelos. Para quem quiser experimentar, a sugestão é baixar o modelo diretamente do Hugging Face e rodar benchmarks comuns como MMLU, GSM8k, HumanEval (código), entre outros, para verificar o desempenho real. A plataforma OpenRouter, por exemplo, permite rodar vários modelos gratuitos e comparar resultados, mas os OpenModels da OpenAI ainda não estão disponíveis lá no lançamento.

A empresa recomendou que desenvolvedores iniciem com o gpt-oss-20b para experimentação em ambientes de menor poder computacional. O gpt-oss-120b exige infraestrutura robusta, similar à necessária para Llama 270B ou Mixtral 47B. A falta de benchmarks oficiais sugere que, no lançamento, os testes de desempenho eram feitos internamente e a empresa optou por não divulgar detalhes até ter feedback da comunidade.

Comparativo com Outros Modelos Gratuitos

Hoje, o ecossistema de modelos abertos é vasto e inclui opções como Llama 3.1, DeepSeek V3, Qwen, Mistral, Gemma (Google), entre outros. Algumas dessas alternativas já são consideradas maduras para uso profissional, especialmente quando fintuned ou combinadas com outros sistemas (RAG, agentes, plugins). A principal diferença dos OpenModels da OpenAI é que eles seriam os primeiros modelos do gênero lançados diretamente pela empresa com o conhecimento do stack interno, arquiteturas proprietárias de pretreino, sugestão de melhor desempenho e promessa de atualizações periódicas.

No entanto, até o momento, não foi divulgada nenhuma métrica clara que coloque os OpenModels da OpenAI à frente dos concorrentes open-weight mais famosos do mercado. Em geral, o diferencial pode ser o nome OpenAI e o potencial para integração com outros serviços da empresa, além da facilidade de exportação para sistemas proprietários (caso necessário).

Limitações Atuais do Relatório

  • Falta de benchmarks públicos: Não há, até esta data, resultados detalhados comparando OpenModels da OpenAI com Llama, Mistral, Qwen, DeepSeek ou Gemma em tarefas de linguagem, matemática, programação ou raciocínio de mundo aberto.

  • Não há depoimentos de desenvolvedores: O lançamento é muito recente, e ainda não há testes, reviews ou integrações documentadas por terceiros.

  • Falta de especificações técnicas detalhadas: Não se sabe ao certo o contexto de janela (tokens), consumo de recursos, mecanismos de segurança, filtramento de conteúdo, suporte a línguas, etc.

  • Não há informações sobre multimídia: Os novos OpenModels, até o momento, parecem ser de linguagem pura, sem suporte nativo a imagem, vídeo ou áudio — ao contrário de GPT-4o, que é multimodal (texto, imagem, áudio).

  • Não há dados sobre uso gratuito indefinido: A OpenAI é conhecida por mudanças frequentes de política de uso (por exemplo, GPT-3 ficou aberto, GPT-3.5 ficou fechado, GPT-4o é parcialmente gratuito com uso limitado). Não se sabe se o uso offline será desmonetizado no futuro ou se haverá restrições.

  • Desvantagem de ser um modelo aberto “perdido no tempo”: Como aconteceu com o GPT-2, que hoje é ultrapassado, não há garantia de atualização contínua dos pesos desses OpenModels, o que pode torná-los rapidamente obsoletos diante da concorrência.

O Que Há de Melhor Hoje?

cortado da IA generativa open-source está muito competitivo. Se você prioriza desempenho absoluto, os modelos fechados da OpenAI (GPT-4o, o4-mini, GPT-4.1), Gemini Ultra (Google) e Claude (Anthropic) ainda dominam todos os benchmarks de conhecimento, raciocínio e criatividade.

Se você prioriza acesso aberto, privacidade e custo zero, os OpenModels mais recomendados hoje ainda são Llama 3.1 (Meta), DeepSeek V3 (DeepSeek), Qwen 1.5 (Alibaba), Mixtral 8x7b (Mistral) e Gemma 2B/7B/27B (Google), todos já maduros, documentados, testados e com comunidades robustas. O GPT-oss-120b e gpt-oss-20b entraram nesse jogo, mas ainda não têm resultados comprovadamente superiores.

Se você deseja multimodalidade, recomendam-se modelos como GPT-4o (apenas via API), Gemma E4B (Google), Qwen-VL e Kimi-VL-A3B-Thinking (para imagem e texto).

Conclusão (Resumo Estendido)

A OpenAI causou comoção ao lançar, após anos, dois modelos open-weightgpt-oss-120b e gpt-oss-20b. Isso representa uma mudança parcial de estratégia, oferecendo à comunidade IA local, privada e de baixo custo com o potencial de integração ao ecossistema pago da empresa. O anúncio é inovador, mas o tempo dirá se esses modelos realmente superam a concorrência de código aberto já estabelecida (Llama, Mistral, DeepSeek, Qwen, Gemma) em benchmarks reais e aplicações de produção.

No momento, faltam testes independentes, benchmarks, depoimentos de desenvolvedores e informações detalhadas sobre arquitetura, recursos e limitações. O melhor modelo gratuito depende do seu caso de uso: se você quer o máximo de desempenho e recursos, vá para os fechados (GPT-4o, Gemini, Claude), mas terá custo e dependência da plataforma; se quer privacidade, custo zero e independência, escolha entre Llama, Mistral, Qwen, DeepSeek, Gemma ou, agora, os novos OpenModels da OpenAI — mas ficará com performance proporcional ao investimento em hardware e tuning.

O papel desses novos OpenModels da OpenAI no mercado de IA ainda é incerto, mas o lançamento é um passo importante para diversificar as opções disponíveis para desenvolvedores, startups, instituições acadêmicas e projetos de código aberto.

Via OpenAI

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.