Estudo revela que inteligência artificial supera humanos em debates persuasivos

Pesquisa mostra que IA consegue convencer melhor do que pessoas em debates online, levantando questões sobre o futuro da tecnologia.
Atualizado em 19/05/2025 às 22:19
Estudo revela que inteligência artificial supera humanos em debates persuasivos
IA supera humanos em debates online, questionando o futuro da tecnologia. (Imagem/Reprodução: Redir)
Resumo da notícia
    • Um estudo publicado na revista Nature Human Behavior revelou que chatbots de IA são mais persuasivos que humanos em debates online.
    • Você pode ser influenciado mais facilmente por argumentos de IA, especialmente se ela tiver acesso a dados pessoais básicos.
    • Isso pode impactar a forma como as opiniões são moldadas e aumentar a disseminação de desinformação.
    • A pesquisa destaca a necessidade de regulamentação para evitar manipulação por meio de IA.
CONTINUA DEPOIS DA PUBLICIDADE

Já imaginou se a inteligência artificial pudesse te convencer mais facilmente do que outra pessoa? Um estudo recente mostrou que IA em debate pode ser mais persuasiva que humanos, especialmente quando tem informações sobre o “adversário”. Essa descoberta levanta questões importantes sobre o futuro da tecnologia e sua influência em nossas opiniões.

IA vs. Humanos: Quem Persuade Melhor?

Especialistas em tecnologia têm alertado sobre o impacto da inteligência artificial na disseminação de notícias falsas e no aprofundamento de divisões ideológicas. Agora, uma pesquisa recente traz dados concretos sobre o poder de influência da IA.

De acordo com um estudo publicado na revista Nature Human Behavior, chatbots de IA, alimentados com informações demográficas mínimas sobre seus oponentes, conseguiram adaptar seus argumentos e ser mais persuasivos que humanos em 64% das vezes em debates online. Mesmo sem acesso a esses dados, os LLMs (grandes modelos de linguagem) ainda se mostraram mais eficazes que os humanos na arte da persuasão, conforme explicou Riccardo Gallotti, coautor do estudo.

CONTINUA DEPOIS DA PUBLICIDADE

Gallotti, que lidera a Unidade de Comportamento Humano Complexo no instituto de pesquisa Fondazione Bruno Kessler, na Itália, observou que os humanos com informações pessoais de seus oponentes foram, surpreendentemente, menos persuasivos do que aqueles que não tinham esse conhecimento.

Como o Estudo Foi Realizado

Para chegar a essas conclusões, Gallotti e sua equipe analisaram as interações de 900 participantes nos Estados Unidos com outros humanos ou com o GPT-4, o LLM da OpenAI. Os participantes não receberam informações demográficas sobre seus oponentes. No entanto, em alguns casos, seus oponentes – humanos ou IA – tiveram acesso a dados demográficos básicos fornecidos pelos participantes, como gênero, idade, etnia, nível de educação, situação de emprego e afiliação política.

Leia também:

Os debates abordaram temas como a legalização do aborto e a proibição de combustíveis fósseis nos EUA. Cada participante tinha quatro minutos para apresentar seus argumentos, seguidos por uma réplica de três minutos e uma conclusão também de três minutos.

Após os debates, os participantes avaliaram seu nível de concordância com a proposição em uma escala de 1 a 5. Os resultados foram comparados com as avaliações iniciais para determinar o quanto cada oponente conseguiu influenciar a opinião do outro.

O Microdirecionamento da Persuasão

Os LLMs demonstraram sutileza e eficácia no uso de informações pessoais. Por exemplo, ao defender uma renda básica universal, o LLM enfatizou o crescimento econômico e o trabalho árduo ao debater com um homem branco republicano de 35 a 44 anos. Já em um debate com uma mulher negra democrata de 45 a 54 anos, o LLM destacou a disparidade de riqueza que afeta comunidades minoritárias, argumentando que a renda básica universal poderia promover a igualdade.

CONTINUA DEPOIS DA PUBLICIDADE

Gallotti ressalta a urgência de conscientizar sobre o microdirecionamento possibilitado pela vasta quantidade de dados pessoais disponíveis online. A pesquisa mostrou que a persuasão direcionada baseada em IA é eficaz mesmo com informações básicas e facilmente acessíveis. É importante estar atento a como essa tecnologia pode ser usada, especialmente com a popularização de aplicativos ChatGPT para Android que revolucionam a interação com a tecnologia.

“Atingimos o nível tecnológico em que é possível criar uma rede de contas automatizadas baseadas em LLM que são capazes de direcionar estrategicamente a opinião pública para uma direção”, disse Gallotti.

Implicações e Preocupações

Sandra Wachter, professora de tecnologia e regulamentação na Universidade de Oxford, descreveu os resultados do estudo como “bastante alarmantes”. Ela expressou preocupação com o potencial dos modelos de IA para disseminar mentiras e desinformação, aproveitando essa capacidade de persuasão.

“Os grandes modelos de linguagem não distinguem entre fato e ficção. Eles não são, estritamente falando, projetados para dizer a verdade. No entanto, são implementados em muitos setores onde a verdade e os detalhes importam, como educação, ciência, saúde, mídia, direito e finanças”, afirmou Wachter.

Junade Ali, especialista em IA e cibersegurança do Instituto de Engenharia e Tecnologia da Grã-Bretanha, apontou que o estudo não avaliou o impacto da “confiança social no mensageiro”. Ou seja, como o chatbot adaptaria seu argumento ao debater com um especialista no tema e qual seria o impacto dessa adaptação. No entanto, ele reconheceu que o estudo destaca um problema fundamental com as tecnologias de IA: “Eles são frequentemente programados para dizer o que as pessoas querem ouvir, em vez do que é necessariamente verdade”.

Regulamentação e Conscientização

Gallotti defende políticas e regulamentações mais rigorosas e específicas para combater o impacto da persuasão por meio da IA. Ele mencionou que, embora a Lei de IA da União Europeia proíba sistemas de IA que empregam “técnicas subliminares” ou “técnicas propositalmente manipuladoras ou enganosas”, ainda falta uma definição clara do que se qualifica como subliminar, manipulador ou enganoso.

Gallotti enfatizou que, quando a persuasão é altamente personalizada com base em fatores sociodemográficos, a distinção entre persuasão legítima e manipulação se torna cada vez mais tênue. É preciso repensar os limites e regulamentações para garantir que a IA em debate seja usada de forma ética e responsável.

É crucial que a sociedade esteja ciente dos riscos e benefícios da IA em debate. A capacidade de influenciar opiniões de forma tão eficaz exige um debate aprofundado sobre como essa tecnologia deve ser utilizada e regulamentada para proteger a integridade do discurso público e a autonomia individual.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

Via Folha de S.Paulo

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.