O custo da polidez: como ‘obrigado’ e ‘por favor’ impactam gastos da OpenAI

Entenda como ser educado ao usar ferramentas de IA pode gerar custos significativos.
Atualizado há 4 horas
O custo da polidez: como 'obrigado' e 'por favor' impactam gastos da OpenAI
Ser educado ao usar IA pode evitar altos custos e promover interações positivas. (Imagem/Reprodução: Tecmundo)
Resumo da notícia
    • A OpenAI confirmou que expressões educadas como ‘obrigado’ e ‘por favor’ geram gastos adicionais.
    • Essa informação alerta que simples interações podem impactar os recursos consumidos pelas IAs.
    • A mudança nos gastos pode afetar o uso e desenvolvimento futuro de tecnologias de inteligência artificial.
CONTINUA DEPOIS DA PUBLICIDADE

Você sabia que ser educado com o ChatGPT tem um custo? Sam Altman, CEO da OpenAI, confirmou que palavras como ‘obrigado’ e ‘por favor’ geram gastos extras em energia para a empresa. Embora os valores exatos não sejam públicos, esse detalhe mostra como até interações simples impactam os recursos de grandes modelos de linguagem.

Entendendo os Gastos da Gentileza

A confirmação veio de Sam Altman, CEO da OpenAI, em resposta a uma pergunta no X (antigo Twitter). Um usuário (@tomieinlove) perguntou sobre o dinheiro perdido pela empresa com pessoas dizendo ‘por favor’ e ‘obrigado’. Altman respondeu que foram ‘dezenas de milhões de dólares bem gastos — nunca se sabe’.

Embora ele não tenha dado números exatos, é um fato: essas formalidades geram custos computacionais. Cada caractere que você digita em um prompt ocupa espaço na janela de contexto e precisa ser analisado quando a mensagem é enviada.

CONTINUA DEPOIS DA PUBLICIDADE

Os grandes modelos de linguagem (LLMs) operam com base em probabilidades. Eles formam respostas combinando palavras e caracteres que fazem sentido dentro de seu vasto banco de dados de treinamento. Então, quando o ChatGPT recebe um ‘por favor’, ele processa essa expressão como qualquer outro dado textual.

O modelo interpreta termos assim como sinais de educação e formalidade, ajustando o tom da resposta para refletir isso. Algo parecido acontece com mensagens que só dizem ‘obrigado’.

Leia também:

Por que os usuários são educados e o impacto energético disso nos Custos do ChatGPT

Surpreendentemente, muita gente trata chatbots com educação. Uma pesquisa de 2024 da consultoria Future revelou que 67% dos usuários nos Estados Unidos interagem de forma educada com essas ferramentas. Os motivos variam:

  • 55% afirmam que fazem isso porque consideram ‘o certo a se fazer’.
  • 12% acreditam que a cordialidade pode ajudar a evitar problemas caso ocorra uma ‘revolução das máquinas’.

Esse comportamento tem um impacto real no consumo de energia, que já é considerável. Para dar uma ideia, segundo dados do Washington Post, uma única mensagem de e-mail elaborada por IA consome cerca de 0,14 kWh de energia. Isso seria o suficiente para manter 14 lâmpadas LED acesas por uma hora.

Claro, esse consumo individual pode parecer pequeno, especialmente se comparado aos recursos necessários para tarefas mais complexas, como a geração de vídeos com IA, que demandam muito mais processamento e, consequentemente, energia.

CONTINUA DEPOIS DA PUBLICIDADE

No entanto, quando multiplicamos esse pequeno custo adicional pela vasta base de usuários, o cenário muda. O ChatGPT, por exemplo, já contava com mais de 400 milhões de usuários ativos semanalmente em dados recentes. Dá para imaginar o volume total de energia gasto apenas para processar a educação dessas milhões de pessoas interagindo com a plataforma.

Implicações Energéticas Maiores

Esse detalhe sobre os custos da polidez levanta uma discussão maior sobre a eficiência energética e os recursos necessários para operar modelos de IA em larga escala. Enquanto a OpenAI considera esse gasto específico como ‘bem gasto’, ele serve como um lembrete do consumo energético associado a essas tecnologias, um fator cada vez mais relevante conforme a inteligência artificial se torna mais presente em nosso dia a dia.

Empresas do setor continuam buscando formas de otimizar o desempenho e reduzir o consumo, como visto em avanços em chips e hardware. A questão energética permanece um ponto central no desenvolvimento futuro da IA.

Empresas como a Nvidia continuam a desenvolver hardware focado em IA, buscando equilibrar poder de processamento e consumo.

A busca por soluções mais eficientes é constante, impactando desde o desenvolvimento de algoritmos até a infraestrutura dos data centers que sustentam essas operações complexas.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.