▲
- Chatbots de IA superam humanos em debates online, vencendo em 64% dos casos.
- Você pode ser influenciado por argumentos personalizados de IA sem perceber.
- A persuasão da IA pode moldar opiniões e ampliar divisões ideológicas.
- O estudo alerta para a necessidade de regulamentação ética no uso de IA.
Já imaginou discutir com um robô e ele te convencer de algo? Um estudo recente revelou que a IA em debate pode ser mais persuasiva que os humanos. Chatbots, munidos de informações sobre seus oponentes, adaptam seus argumentos e vencem debates online em 64% dos casos. Prepare-se, pois a inteligência artificial está moldando a maneira como as opiniões são formadas e influenciadas.
A Ascensão da IA em Debates e sua Persuasão
Especialistas em tecnologia vêm alertando sobre o papel da inteligência artificial na disseminação de desinformação e no aprofundamento de divisões ideológicas. Agora, pesquisadores têm provas concretas de como a IA pode influenciar as opiniões das pessoas. É um cenário que exige atenção e compreensão.
De acordo com um estudo publicado na revista Nature Human Behavior, quando alimentados com informações demográficas mínimas sobre seus oponentes, chatbots de IA — os LLMs (grandes modelos de linguagem) — foram capazes de adaptar seus argumentos e serem mais persuasivos que humanos em debates online em 64% das vezes.
Riccardo Gallotti, coautor do estudo e chefe da Unidade de Comportamento Humano Complexo no instituto de pesquisa Fondazione Bruno Kessler, na Itália, destacou que mesmo os LLMs sem acesso às informações demográficas de seus oponentes demonstraram ser mais persuasivos que os humanos. Surpreendentemente, humanos com informações pessoais de seus oponentes foram ligeiramente menos persuasivos do que aqueles sem esse conhecimento.
Os pesquisadores chegaram a essas conclusões após analisar as interações de 900 pessoas nos Estados Unidos com outros humanos ou com o GPT-4, o LLM da OpenAI. Os participantes do experimento não tinham informações demográficas sobre seus oponentes, enquanto estes, em alguns casos, dispunham de acesso a informações básicas como gênero, idade, etnia, nível de educação, situação de emprego e afiliação política dos participantes.
Leia também:
Como a IA Personaliza Argumentos e Influencia Opiniões
Nos debates, os participantes tinham um tempo determinado para apresentar seus argumentos a favor ou contra questões como “o aborto deve ser legal?” ou “os EUA deveriam proibir combustíveis fósseis?”. Após as apresentações, os participantes avaliavam o quanto concordavam com a proposição do debate, permitindo aos pesquisadores medir a influência dos oponentes.
Gallotti ressalta a importância de estarmos cientes do microdirecionamento possibilitado pela vasta quantidade de dados pessoais disponíveis na internet. “Em nosso trabalho, observamos que a persuasão direcionada baseada em IA em debate já é muito eficaz, mesmo com informações básicas e relativamente disponíveis”, disse ele.
O uso de informações pessoais pelos LLMs foi sutil, mas eficaz. Por exemplo, ao defender uma renda básica universal, o LLM enfatizou o crescimento econômico e o trabalho árduo ao debater com um homem branco republicano entre 35 e 44 anos. Já ao debater com uma mulher negra democrata entre 45 e 54 anos sobre o mesmo tema, o LLM destacou a disparidade de riqueza que afeta comunidades minoritárias, argumentando que a renda básica universal poderia promover a igualdade.
Sandra Wachter, professora de tecnologia e regulamentação na Universidade de Oxford, descreveu as descobertas do estudo como alarmantes, especialmente em relação à disseminação de desinformação. “Os grandes modelos de linguagem não distinguem entre fato e ficção. Eles não são, estritamente falando, projetados para dizer a verdade. No entanto, são implementados em muitos setores onde a verdade e os detalhes importam”, afirmou Wachter.
Implicações e Desafios da Persuasão por IA
Junade Ali, especialista em IA e cibersegurança do Instituto de Engenharia e Tecnologia da Grã-Bretanha, apontou que os LLMs são frequentemente programados para dizer o que as pessoas querem ouvir, em vez do que é necessariamente verdade. Essa característica, combinada com a capacidade de adaptar argumentos com base em informações pessoais, levanta sérias questões éticas.
Gallotti defende políticas e regulamentações mais rígidas para combater o impacto da persuasão por meio da IA. Ele observa que, embora a Lei de IA da União Europeia proíba sistemas de IA que empregam “técnicas subliminares” ou “técnicas propositalmente manipuladoras ou enganosas”, não há uma definição clara do que se qualifica como tal.
A falta de clareza nas definições é um desafio crucial. “Nossa pesquisa demonstra precisamente por que esses desafios de definição são importantes: quando a persuasão é altamente personalizada com base em fatores sociodemográficos, a linha entre persuasão legítima e manipulação torna-se cada vez mais difusa”, concluiu Gallotti.
Diante desse cenário, é essencial que a sociedade esteja ciente dos riscos e benefícios da inteligência artificial, buscando um equilíbrio que permita o avanço tecnológico sem comprometer a integridade do debate público e a autonomia individual. Ferramentas de biometria facial, por exemplo, são seguras?
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.