▲
- A JetBrains anunciou a liberação do modelo de IA Mellum para conclusão de código.
- Com essa iniciativa, desenvolvedores poderão acessar uma ferramenta especializada para suas codificações.
- A abertura do código busca promover colaboração e inovação na área de IA.
- O modelo ajuda a melhorar a precisão e rapidez na finalização de tarefas de programação.
A JetBrains anunciou que está liberando o código fonte do seu modelo de linguagem Mellum open source da JetBrains, disponibilizando uma versão base da inteligência artificial focada em código no Hugging Face. Essa iniciativa visa impulsionar a colaboração e a transparência no desenvolvimento de ferramentas de IA para desenvolvedores.
O que é Mellum?
Mellum é um modelo de linguagem especializado da JetBrains, criado especificamente para auxiliar desenvolvedores. Seu principal objetivo é otimizar a conclusão de código, tornando-a mais rápida, precisa e inteligente dentro dos IDEs da JetBrains, como IntelliJ IDEA e PyCharm.
Ao contrário de modelos de IA maiores e de propósito geral, o Mellum foi projetado para uma tarefa específica, o que permite oferecer sugestões mais rápidas e relevantes para o código que você está escrevendo. A JetBrains relata melhorias significativas na velocidade e precisão da conclusão de código do seu AI Assistant ao utilizar o Mellum em comparação com implementações anteriores.
Por que a JetBrains está tornando o Mellum open source?
A JetBrains acredita que a transparência e a colaboração são fundamentais para o avanço da tecnologia. Inspirada por projetos open source como Linux e Git, a empresa espera que o open source na área de IA possa impulsionar o progresso da mesma forma.
Ao disponibilizar o modelo base do Mellum, a JetBrains busca fornecer a pesquisadores, educadores e equipes avançadas uma visão detalhada de um modelo construído especificamente para tarefas de código.
Leia também:
Mellum: Um modelo focal
A JetBrains descreve o Mellum como um “modelo focal”, ou seja, uma IA que se destaca em uma única tarefa específica, em vez de tentar abranger uma ampla gama de funções como um modelo generalista. Essa abordagem oferece vantagens como maior precisão para tarefas direcionadas, menores custos operacionais, uma pegada ambiental reduzida e melhor acessibilidade para pesquisadores e equipes menores que não possuem os recursos necessários para modelos gerais de grande escala.
A versão do Mellum disponível no Hugging Face é o modelo base de 4 bilhões de parâmetros. Ele é multilingue e otimizado para a conclusão de código. A JetBrains compartilhou dados de benchmark comparando o Mellum com outros modelos de código:
HumanEval Infilling | RepoBench 1.1 (2K context, py) | SAFIM (avg) | ||
---|---|---|---|---|
single-line | multi-line | |||
Mellum-4B-base | 66.2 | 38.5 | 28.2 | 38.1 |
InCoder-6B | 69.0 | 38.6 | — | 33.8 |
CodeLlama-7B-base | 83.0 | 50.8 | 34.1 | 45.0 |
CodeLlama-13B-base | 85.6 | 56.1 | 36.2 | 52.8 |
DeepSeek-Coder-6.7B | 80.7 | — | — | 63.4 |
A tabela acima mostra o desempenho do Mellum em diferentes benchmarks de codificação. Embora não supere os modelos CodeLlama maiores em todos os testes, ele apresenta um desempenho sólido para seu tamanho e natureza especializada, principalmente considerando seu foco em velocidade e eficiência para conclusão de código integrado.
Para quem é este modelo?
A JetBrains deixa claro que este modelo base open source provavelmente não será algo que o desenvolvedor comum irá baixar e executar para sua codificação diária. Em vez disso, ele é direcionado a pesquisadores de IA e aprendizado de máquina que investigam a IA de código, engenheiros e educadores que desejam aprender ou ensinar sobre a construção de modelos de linguagem específicos de domínio, ou equipes avançadas interessadas em adaptar tais modelos.
O futuro do Mellum
De acordo com a JetBrains, este é apenas o começo para o Mellum. A empresa planeja transformá-lo em uma família de modelos focais, cada um construído para diferentes tarefas de codificação específicas além da conclusão, talvez até mesmo prevendo mudanças de código ou diffs.
Além disso, a empresa anunciou recentemente uma atualização do seu AI Assistant, com a introdução de um novo nível gratuito, permitindo que mais desenvolvedores experimentem alguns dos recursos de IA sem uma assinatura, embora com limites de uso. O AI Assistant também adicionou suporte para mais modelos de IA além do OpenAI, incluindo o Google Gemini, oferecendo aos usuários mais opções para alimentar sua assistência de codificação dentro do IDE.
Primeira: Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.
Segunda: Via Neowin