▲
- Solicitar respostas mais curtas em ferramentas de IA pode diminuir seu gasto de energia significativament.
- Praticar respostas objetivas beneficia o meio ambiente ao reduzir a demanda por eletricidade.
- Empresas e usuários contribuem para a sustentabilidade ao adotarem interações mais concisas.
Pedir respostas mais curtas para ferramentas de inteligência artificial generativa pode ser um grande passo para reduzir o gasto de energia. Um estudo recente da University College London (UCL) em parceria com a UNESCO mostra que essa mudança simples é capaz de diminuir o consumo dos bots em até 54%. Isso destaca como pequenas alterações na interação podem ter um impacto ambiental significativo.
De acordo com a UNESCO, plataformas como o ChatGPT usam cerca de 310 GWh de eletricidade por ano apenas para gerar textos. Esse número não inclui a energia demandada para criar imagens. Para ter uma ideia, esse volume de eletricidade seria suficiente para abastecer 3 milhões de pessoas na Etiópia por um ano. É um dado que faz a gente pensar na pegada energética da inteligência artificial.
Os avanços da IA resultaram em um aumento considerável nos gastos de energia. A Agência Internacional de Energia (IEA) aponta que o consumo de eletricidade relacionado à inteligência artificial está dobrando a cada 100 dias. Essa aceleração mostra a urgência de debater globalmente o tema do gasto energético das IAs.
Estratégias para Diminuir o Consumo de energia da IA
No estudo realizado pela UCL, pesquisadores utilizaram suas próprias máquinas para operar modelos de IA de grande porte. Isso permitiu que monitorassem o gasto de eletricidade da tecnologia em cada equipamento e plataforma. Essa abordagem prática foi fundamental para entender o impacto real do uso dessas ferramentas.
Os cientistas da computação envolvidos nos testes identificaram passos claros para reduzir o gasto energético dos bots. O primeiro é bem direto: opte por prompts mais curtos ao interagir com a inteligência artificial. Isso faz com que a IA seja mais objetiva em suas respostas.
Leia também:
Ao solicitar respostas mais concisas, a IA processa menos informações, o que leva a uma redução no gasto de energia. Essa diminuição pode ser superior a 50%, segundo o estudo. É uma dica simples, mas com um potencial enorme para economizar energia.
A UNESCO, inclusive, fez uma recomendação importante para as empresas desenvolvedoras de IA. A entidade sugere que elas criem campanhas de conscientização para os usuários, incentivando a prática de usar prompts mais curtos. Assim, mais pessoas podem contribuir para a eficiência energética.
Além disso, o relatório sugere que as empresas de IA comecem a usar ferramentas que consigam comprimir os resultados gerados pelos chatbots. Esse tipo de recurso é interessante porque diminui o tempo de processamento das informações. O melhor é que essa compressão não compromete a qualidade do que é entregue pela IA.
Leona Verdadero, especialista da UNESCO, destacou a importância da ação individual, mas sem tirar a responsabilidade das empresas. Ela explicou que, se a prática de pedir respostas curtas for adotada em larga escala, pode gerar economias energéticas significativas. Isso aconteceria mesmo sem grandes mudanças estruturais nas plataformas.
É importante lembrar que os cálculos do estudo focam apenas na interação entre o usuário e a plataforma. O treinamento dos modelos de linguagem, que é a base para o funcionamento da IA, consome milhares de GWh de energia separadamente. Isso mostra a complexidade do cenário energético da inteligência artificial.
O Potencial dos Modelos de IA Menores
A pesquisa também revelou que modelos de linguagem menores, desenvolvidos para tarefas específicas, podem ser ainda mais eficazes na redução do consumo de energia. Dependendo da aplicação, eles podem ter um desempenho similar ao de modelos maiores, mas gastando muito menos eletricidade. Isso abre novas possibilidades.
Em alguns cenários, esses modelos pequenos chegam a consumir apenas 10% da energia usada por plataformas como ChatGPT, Gemini e Claude, conforme apontado por Verdadero. No estudo, as versões mais compactas tiveram um desempenho parecido com o das IAs grandes em tarefas como resumir textos e realizar traduções. Eles realmente se mostraram eficientes.
Além de gastar menos energia, esses modelos surgem como uma alternativa interessante para países que não possuem investimentos avançados em poder computacional ou têm conectividade limitada. Com eles, nações na África e na América Latina podem desenvolver suas próprias ferramentas de IA acessíveis, segundo a autora principal da pesquisa. Isso pode democratizar o acesso à tecnologia.
A Agência Internacional de Energia (IEA) ressaltou a urgência de debater o tema do gasto energético da IA globalmente. Isso se deve ao fato de que o consumo de eletricidade associado à inteligência artificial tem dobrado a cada 100 dias. A interação com a IA, mesmo para modelos de linguagem, está em constante crescimento, o que pede soluções e discussões sobre sustentabilidade.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.