OpenAI Lança Modelos Open-Source GPT-OSS e Desafia Hegemonia Chinesa em IA

Descubra como os novos modelos GPT-OSS da OpenAI se comparam aos gigantes da IA chinesa no mercado de código aberto. Saiba o impacto global dessa novidade!
Atualizado há 8 horas atrás
OpenAI Lança Modelos Open-Source GPT-OSS e Desafia Hegemonia Chinesa em IA
(Imagem/Reprodução: Wccftech)
Resumo da notícia
CONTINUA DEPOIS DA PUBLICIDADE

A OpenAI deu um passo importante ao lançar seus primeiros modelos de peso aberto, marcando sua entrada em um setor de inteligência artificial que tem sido amplamente dominado por modelos chineses. Essa iniciativa demonstra uma nova direção para empresas americanas no desenvolvimento de IA.

Os Modelos Open Source com GPT-OSS visam competir diretamente no cenário global, oferecendo alternativas robustas para aplicações de IA. Essa movimentação da OpenAI pode redefinir o equilíbrio de forças no campo da inteligência artificial global, incentivando mais inovações de código aberto.

Os Primeiros Modelos de Peso Aberto da OpenAI

Empresas americanas de inteligência artificial começaram a seguir um caminho que as suas contrapartes chinesas já exploram há anos: a integração de um ecossistema de código aberto com Modelos de Linguagem Grande (LLMs). É interessante notar que o “plano de ação de IA” do então presidente Trump já priorizava modelos de IA de código aberto.

CONTINUA DEPOIS DA PUBLICIDADE

A OpenAI, com o lançamento dos modelos GPT-OSS, cumpriu essa diretriz. Estes são os primeiros modelos de peso aberto da empresa desde o GPT-2. Eles vêm em duas configurações principais: o GPT-OSS-20B e o GPT-OSS-120B.

O modelo GPT-OSS-20B possui 21 bilhões de parâmetros e utiliza uma arquitetura MoE transformer (Mistura de Especialistas). Ele oferece uma janela de contexto de até 131.072 tokens e pode rodar eficientemente em plataformas com 16GB de VRAM. Isso significa que a maioria das GPUs de consumo atuais pode executá-lo localmente.

Já o GPT-OSS-120B é um modelo maior, com 117 bilhões de parâmetros. Ele se destaca por seu forte desempenho em raciocínio, mas para executá-lo, é preciso pelo menos uma plataforma NVIDIA H100. Essa flexibilidade de requisitos atende a diferentes necessidades de uso.

IA Aberta: Licença e Competição Global

Um ponto crucial é que esses modelos são lançados sob a licença Apache 2.0. Essa é uma licença permissiva que permite uso comercial, modificação e redistribuição, conferindo-lhes uma natureza de código totalmente aberto, similar aos modelos chineses. Para a OpenAI, este lançamento é estratégico, provavelmente visando os desenvolvimentos chineses.

Empresas de IA chinesas, como DeepSeek e Alibaba, têm ecossistemas de código aberto funcionando há vários anos. Nos EUA, tirando o LLaMA da Meta, poucos modelos convencionais haviam chegado a um ecossistema aberto como este. Este movimento da OpenAI preenche uma lacuna importante.

Com a inclusão dos modelos de peso aberto, espera-se que a OpenAI faça novos lançamentos no futuro. No entanto, vamos analisar agora como os modelos GPT-OSS se comparam com as alternativas chinesas, usando os parâmetros de contagem como métrica inicial.

CONTINUA DEPOIS DA PUBLICIDADE

Em termos de contagem de parâmetros, os modelos chineses, como DeepSeek V2 e Qwen 3, superam as opções da OpenAI. Eles apresentam números maiores, mesmo quando consideramos os parâmetros ativos. Abaixo, uma comparação com os principais modelos de IA da China da DeepSeek e Alibaba.

Categoria GPT‑OSS 120B / 20B DeepSeek-V2 / R1 Qwen3 / Qwen2.5 / QwQ
Organização OpenAI DeepSeek (China) Alibaba (China)
Tipo de Modelo Sparse MoE (Mistura de Especialistas) Sparse MoE Híbridos Densa & MoE
Total de Parâmetros 120B / 20B 236B / 67B 235B / 72B / 32B / outros
Parâmetros Ativos ~5.1B / ~3.6B ~21B / ~6.7B ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B)
Janela de Contexto 128K tokens 128K tokens 128K (Qwen3), 32K (Qwen2.5)

Desempenho e Aplicabilidade dos Modelos

A contagem total ou ativa de parâmetros não é o único fator para determinar a superioridade de um modelo. Para fins de relações públicas, os modelos chineses têm uma vantagem considerável sobre a OpenAI, principalmente por estarem no mercado há vários anos. Agora, vamos considerar o desempenho desses modelos de IA em tempo real em diversas cargas de trabalho conhecidas.

Os testes incluem MMLU (Massive Multitask Language Understanding), AIME Math (American Invitational Mathematics Exam) e outros, cujos dados foram retirados de avaliações feitas pela Clarifai. Isso nos dá uma visão mais prática de como cada modelo se comporta em diferentes tarefas.

Tarefa de Benchmark GPT‑OSS‑120B GLM‑4.5 Qwen‑3 Thinking DeepSeek R1 Kimi K2
MMLU‑Pro (Raciocínio) ~90.0% 84.6% 84.4% 85.0% 81.1%
AIME Math (c/ferramentas) ~96.6–97.9% ~91% ~92.3% ~87.5% ~49–69%
GPQA (Ciência de PhD) ~80.9% 79.1% 81.1% 81.0% 75.1%
SWE‑bench (Programação) 62.4% 64.2% ~65.8% ~65.8%
TAU‑bench (Agentes) ~67.8% 79.7% ~67.8% ~63.9% ~70.6%
BFCL‑v3 (Chamada de Função) ~67–68% 77.8% 71.9% 37%

Os resultados indicam que o GPT-OSS supera a concorrência em cargas de trabalho de raciocínio e operações matemáticas. Além disso, possui uma pegada de parâmetros ativos menor do que muitos modelos densos, o que oferece opções mais eficientes em termos de custo para quem deseja usar o modelo de IA localmente. Para o contexto da inteligência artificial em celulares, isso pode ser um diferencial.

No entanto, os benchmarks mostram que para cargas de trabalho de agentes e capacidade multilíngue, o GPT-OSS-120B fica atrás das alternativas chinesas. Mesmo assim, ele se mantém como uma opção de ponta nesse ecossistema. Outros desenvolvimentos em IA, como o Claude 4.1 da Anthropic, também estão moldando o cenário.

Os modelos de peso aberto são o caminho a seguir na indústria de IA, pois trazem vários benefícios para o ecossistema geral. Os esforços da OpenAI certamente fortalecerão a posição dos EUA neste segmento, que antes era dominado por empresas de IA chinesas. O avanço da inteligência artificial é contínuo e diversificado.

A entrada da OpenAI com seus modelos de peso aberto sinaliza uma nova fase na corrida global da inteligência artificial. Isso não só intensifica a competição, mas também pode acelerar a inovação em todo o setor. A disponibilidade de mais opções de código aberto beneficia desenvolvedores e empresas, promovendo um ambiente mais dinâmico para o progresso da IA.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.