O Modelo Gemma 3, a mais recente inovação do Google, chega para otimizar processos de inteligência artificial, equilibrando custo e performance. Projetado para rodar em dispositivos menores como smartphones e laptops, este modelo de código aberto apresenta janelas de contexto expandidas e maiores parâmetros, oferecendo capacidades de raciocínio multimodal aprimoradas. Com versões que variam de 1B a 27B de parâmetros, o Modelo Gemma 3 promete revolucionar a forma como as organizações utilizam a IA, sem comprometer a eficiência energética e os custos operacionais.
Enquanto modelos de linguagem grandes continuam populares, empresas estão buscando alternativas menores para executar processos de IA, visando diminuir gastos com energia e custos operacionais. Nesse cenário, provedores como o Google lançam modelos de linguagem pequenos (SLMs) como uma alternativa aos modelos de linguagem grandes (LLMs), que podem ser mais caros sem necessariamente entregar melhor performance ou precisão.
O Google lançou a versão mais recente de seu modelo pequeno, o Gemma, que inclui janelas de contexto ampliadas, parâmetros maiores e mais recursos de raciocínio multimodal. O Modelo Gemma 3 tem o mesmo poder de processamento dos modelos Gemini 2.0, e é ideal para dispositivos menores, como telefones e laptops. O novo modelo está disponível em quatro tamanhos: 1B, 4B, 12B e 27B de parâmetros.
Com uma janela de contexto maior de 128 mil tokens, em comparação com os 80 mil do Gemma 2, o Modelo Gemma 3 consegue entender mais informações e solicitações complexas. O Google atualizou o Modelo Gemma 3 para funcionar em 140 idiomas, analisar imagens, textos e vídeos curtos, além de suportar o uso de funções para automatizar tarefas e fluxos de trabalho.
Desempenho Aprimorado do Modelo Gemma 3
Para reduzir ainda mais os custos de computação, o Google introduziu versões quantizadas do Gemma. Modelos quantizados são essencialmente modelos compactados, obtidos através da redução da precisão dos valores numéricos nos pesos de um modelo, sem comprometer a precisão.
Leia também:
Segundo o Google, o Modelo Gemma 3 oferece “desempenho de ponta para seu tamanho” e supera LLMs líderes como Llama-405B, DeepSeek-V3 e o3-mini. Especificamente, o Modelo Gemma 3 27B ficou em segundo lugar nos testes de pontuação Chatbot Arena Elo, atrás apenas do DeepSeek-R1. Ele superou o modelo menor da DeepSeek, o DeepSeek v3, o o3-mini da OpenAI, o Llama-405B da Meta e o Mistral Large.
Ao quantizar o Modelo Gemma 3, os usuários podem melhorar o desempenho, executar o modelo e construir aplicações que se encaixam em uma única GPU e unidade de processamento de tensor (TPU). O Modelo Gemma 3 integra-se com ferramentas de desenvolvedor como Hugging Face Transformers, Ollama, JAX, Keras, PyTorch e outras. Os usuários também podem acessar o Modelo Gemma 3 através do Google AI Studio, Hugging Face ou Kaggle. Empresas e desenvolvedores podem solicitar acesso à API do Modelo Gemma 3 através do AI Studio.
Segurança Reforçada com Shield Gemma
O Google implementou protocolos de segurança no Modelo Gemma 3, incluindo um verificador de segurança para imagens chamado ShieldGemma 2. O desenvolvimento do Modelo Gemma 3 incluiu governança de dados, alinhamento com políticas de segurança através de ajuste fino e avaliações de benchmark robustas.
Testes rigorosos informaram a avaliação de modelos menos capazes, e o desempenho STEM aprimorado do Modelo Gemma 3 levou a avaliações específicas focadas em seu potencial para uso indevido na criação de substâncias nocivas. Os resultados indicaram um baixo nível de risco.
ShieldGemma 2 é um verificador de segurança de imagem de 4B parâmetros construído sobre a base do Modelo Gemma 3. Ele identifica e impede que o modelo responda com imagens contendo conteúdo sexualmente explícito, violência e outros materiais perigosos. Os usuários podem personalizar o ShieldGemma 2 para atender às suas necessidades específicas.
A Ascensão dos Modelos Pequenos e da Destilação
Desde que o Google lançou o Gemma em fevereiro de 2024, os SLMs têm visto um aumento no interesse. Outros modelos pequenos como o Phi-4 da Microsoft e o Mistral Small 3 indicam que as empresas querem construir aplicações com modelos tão poderosos quanto os LLMs, mas sem necessariamente usar toda a amplitude do que um LLM é capaz.
Para quem busca saber mais sobre modelos de linguagem, vale entender como funciona a Inteligência Artificial e seus riscos.
Empresas também começaram a usar versões menores dos LLMs que preferem através da destilação. É importante notar que o Gemma não é uma destilação do Gemini 2.0; em vez disso, ele é treinado com o mesmo conjunto de dados e arquitetura. Um modelo destilado aprende de um modelo maior, o que não acontece com o Gemma.
Organizações frequentemente preferem adaptar certos casos de uso a um modelo específico. Em vez de implantar um LLM como o3-mini ou Claude 3.7 Sonnet em um editor de código simples, um modelo menor, seja um SLM ou uma versão destilada, pode facilmente realizar essas tarefas sem sobrecarregar um modelo enorme. Uma das ferramentas que auxiliam os desenvolvedores é o Microsoft aprimora TypeScript, aumentando a eficiência dos desenvolvedores.
Primeira: Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.
Segunda: Via VentureBeat