▲
- Gerar uma imagem com inteligência artificial consome energia equivalente a 240 lâmpadas acesas por uma hora.
- O objetivo é alertar sobre o alto consumo energético das tecnologias de IA e seu impacto no meio ambiente.
- O uso crescente de IA pode aumentar significativamente a demanda por energia e recursos hídricos nos próximos anos.
- Empresas e pesquisadores buscam soluções para tornar a IA mais eficiente e sustentável.
Você já parou para pensar quanta energia gastamos ao usar inteligência artificial? Um estudo recente revelou que a energia usada para IA para gerar uma única imagem poderia manter 240 lâmpadas acesas por uma hora. Neste artigo, vamos explorar esse consumo energético e o impacto que ele pode ter no nosso dia a dia e no meio ambiente.
O Consumo Surpreendente da Inteligência Artificial
Um simples e-mail de cem palavras, criado com auxílio de IA, consome a mesma energia que quatro lâmpadas de LED gastariam em uma hora. E quando falamos em gerar imagens, o consumo dispara: sessenta vezes mais energia, o equivalente a 240 lâmpadas acesas no mesmo período.
Desde que o ChatGPT se popularizou, no final de 2022, esses usos se tornaram comuns. No Brasil, a geração semanal de e-mails com IA, durante um ano, consumiria a mesma quantidade de eletricidade que uma cidade de 82 mil habitantes usa anualmente. É muita coisa, não é?
Para chegar a esses números, a Folha utilizou uma metodologia criada por pesquisadores da plataforma Hugging Face, que reúne diversas IAs. A análise também se baseou em informações de programadores que usam o modelo Llama 3.1 405 b da Meta em seus computadores, o que permite monitorar o consumo real.
Os preços de provedores de nuvem indicam que o modelo da Meta tem um gasto computacional parecido com o do GPT-4o, que equipa o ChatGPT. Afinal, o custo para usar as duas tecnologias é bem similar.
Leia também:
Empresas e a Transparência no Consumo de Energia
Entre as grandes empresas de IA, apenas Meta e Deepseek divulgam dados sobre o consumo de energia de suas tecnologias. Por isso, cientistas desenvolveram métodos para medir indiretamente a pegada energética — incluindo água e carbono — de ferramentas como ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic).
A Folha procurou as empresas citadas, mas não obteve resposta sobre o tema.
Cada vez que pedimos algo para uma IA, computadores especializados precisam fazer trilhões de cálculos para encontrar as melhores palavras para a resposta. Essas máquinas ficam em data centers, que o governo planeja isentar de impostos para atrair investimentos. Com isso, a demanda por eletricidade para processar dados disparou.
Quanto mais complexa a tarefa que solicitamos à IA, maior será o consumo de energia. Uma pesquisa da Universidade de Carnegie Mellon, nos Estados Unidos, mostra que criar imagens com IA consome, em média, 60 vezes mais energia do que gerar texto.
Por que Imagens Gastam Mais Energia?
“A geração de texto exige menos poder computacional para manipular sequências de caracteres, diferente da geração de imagem. A diferença está basicamente na carga de trabalho”, explica André Micelli, CEO da MIT Technology Review Brasil.
Outro fator que pesa no consumo é o tempo de processamento. Criar um texto de cem palavras leva poucos segundos no ChatGPT, enquanto gerar uma imagem pode levar até um minuto, segundo a OpenAI.
Ainda segundo a OpenAI, gerar uma imagem de qualidade média custa aos programadores o mesmo valor que 42 e-mails de cem palavras. E adivinha qual recurso é o mais usado? As tendências virais, como filtros de fotografia inspirados no Studio Ghibli e na Turma da Mônica, impulsionaram o uso da plataforma da OpenAI.
Modelos mais complexos, como o o1 da OpenAI e o GPT-4.5, também consomem mais energia. O GPT4o custa US$ 10 por pacote de palavras, enquanto o o1 cobra US$ 60, o o3, US$ 40, e o GPT-4.5, US$ 150 — preços diretamente influenciados pela demanda de eletricidade.
A Eficiência Crescente da IA
A boa notícia é que as IAs estão se tornando mais eficientes. O GPT-4, que tinha desempenho parecido com o GPT-4o, consumia o equivalente a 14 lâmpadas de LED acesas por uma hora, segundo o professor de engenharia da computação Shaolei Ren, da Universidade da Califórnia. Se você está pensando em adquirir um novo smartphone, fique de olho nos modelos que oferecem melhor gerenciamento de energia e recursos de IA, como o iPhone Air, que promete ser o mais fino da Apple, otimizando o consumo de bateria.
Ren também aponta que o uso de IA afeta as reservas de água, já que os supercomputadores precisam de refrigeração líquida, mais eficiente que o ar-condicionado. Ele estima que o GPT-4 gastava uma garrafa de água para gerar um texto de cem palavras.
A Agência Internacional de Energia prevê que o gasto de água com IA deve aumentar 80% entre 2023 e 2030. O consumo de energia em data centers, onde rodam os modelos de IA, deve saltar de 415 TWh (terawatt hora) por ano em 2024 para 945 TWh em 2030 — quase o dobro do que o Brasil gastou em 2024 (532 TWh). Os Estados Unidos, com 60% da matriz elétrica vinda de combustíveis fósseis, devem concentrar 45% desse gasto em 2030.
“O consumo absoluto tende a crescer por um bom tempo devido ao aumento da demanda. Mas novas tecnologias vão tornar esse consumo relativamente menor devido ao aumento de eficiência dos algoritmos”, explica Hudson Mendonça, CEO do Energy Summit.
Inovações para Reduzir o Consumo de Energia
O lançamento da Deepseek, por exemplo, trouxe uma técnica chamada destilação, que diminui a energia gasta no desenvolvimento da tecnologia. Essa técnica pode ser crucial para equilibrar o avanço da IA com a sustentabilidade, especialmente em áreas como o desenvolvimento de código, onde a eficiência é fundamental.
Antes de uma IA ser lançada, os modelos precisam ser testados e treinados para responder corretamente e rápido. Na destilação, um modelo de IA “cru” é orientado por outro já calibrado.
Com essa estratégia, a Meta conseguiu reduzir em um quinto o consumo de energia no treinamento do Llama 4, em comparação com o Llama 3.1, que não usou destilação.
Segundo Sasha Luccioni, pesquisadora do Hugging Face, o treinamento tem mais impacto em termos de energia e carbono do que o uso diário. “No entanto, esse gasto pode ser alcançado rapidamente no caso de um modelo popular usado por milhões de usuários, como o ChatGPT.”
Metodologia da Reportagem
Como as empresas de IA não divulgam o consumo elétrico de seus modelos, a reportagem usou a técnica de Luccioni, que comparou o consumo do GPT-3 ao de uma IA de código aberto de mesmo tamanho, com 175 bilhões de parâmetros.
A Folha escolheu o Llama 3.1 405b com base no custo cobrado por provedores de nuvem para usá-lo — similar ao de GPT-4o e Claude 3.5 Sonnet.
Além disso, existem relatos e vídeos de pessoas que rodam o modelo da Meta em seus supercomputadores, com informações sobre a potência das máquinas e o desempenho da IA.
Com esses dados, é possível estimar o gasto de energia para realizar uma tarefa. A metodologia foi revisada pelo professor Shaolei Ren, da Universidade da Califórnia.
A Meta informou que tem dados oficiais de consumo energético apenas da fase de treinamento da IA.
O uso crescente de inteligência artificial traz consigo um desafio importante: o consumo de energia. A boa notícia é que empresas e pesquisadores estão buscando alternativas para tornar essa tecnologia mais eficiente e sustentável. Fique de olho nessas inovações e contribua para um futuro mais consciente!
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Folha de S.Paulo