▲
- Um estudo publicado na revista Nature Human Behavior revelou que chatbots de IA são mais persuasivos que humanos em debates online.
- Você pode ser influenciado mais facilmente por argumentos de IA, especialmente se ela tiver acesso a dados pessoais básicos.
- Isso pode impactar a forma como as opiniões são moldadas e aumentar a disseminação de desinformação.
- A pesquisa destaca a necessidade de regulamentação para evitar manipulação por meio de IA.
Já imaginou se a inteligência artificial pudesse te convencer mais facilmente do que outra pessoa? Um estudo recente mostrou que IA em debate pode ser mais persuasiva que humanos, especialmente quando tem informações sobre o “adversário”. Essa descoberta levanta questões importantes sobre o futuro da tecnologia e sua influência em nossas opiniões.
IA vs. Humanos: Quem Persuade Melhor?
Especialistas em tecnologia têm alertado sobre o impacto da inteligência artificial na disseminação de notícias falsas e no aprofundamento de divisões ideológicas. Agora, uma pesquisa recente traz dados concretos sobre o poder de influência da IA.
De acordo com um estudo publicado na revista Nature Human Behavior, chatbots de IA, alimentados com informações demográficas mínimas sobre seus oponentes, conseguiram adaptar seus argumentos e ser mais persuasivos que humanos em 64% das vezes em debates online. Mesmo sem acesso a esses dados, os LLMs (grandes modelos de linguagem) ainda se mostraram mais eficazes que os humanos na arte da persuasão, conforme explicou Riccardo Gallotti, coautor do estudo.
Gallotti, que lidera a Unidade de Comportamento Humano Complexo no instituto de pesquisa Fondazione Bruno Kessler, na Itália, observou que os humanos com informações pessoais de seus oponentes foram, surpreendentemente, menos persuasivos do que aqueles que não tinham esse conhecimento.
Como o Estudo Foi Realizado
Para chegar a essas conclusões, Gallotti e sua equipe analisaram as interações de 900 participantes nos Estados Unidos com outros humanos ou com o GPT-4, o LLM da OpenAI. Os participantes não receberam informações demográficas sobre seus oponentes. No entanto, em alguns casos, seus oponentes – humanos ou IA – tiveram acesso a dados demográficos básicos fornecidos pelos participantes, como gênero, idade, etnia, nível de educação, situação de emprego e afiliação política.
Leia também:
Os debates abordaram temas como a legalização do aborto e a proibição de combustíveis fósseis nos EUA. Cada participante tinha quatro minutos para apresentar seus argumentos, seguidos por uma réplica de três minutos e uma conclusão também de três minutos.
Após os debates, os participantes avaliaram seu nível de concordância com a proposição em uma escala de 1 a 5. Os resultados foram comparados com as avaliações iniciais para determinar o quanto cada oponente conseguiu influenciar a opinião do outro.
O Microdirecionamento da Persuasão
Os LLMs demonstraram sutileza e eficácia no uso de informações pessoais. Por exemplo, ao defender uma renda básica universal, o LLM enfatizou o crescimento econômico e o trabalho árduo ao debater com um homem branco republicano de 35 a 44 anos. Já em um debate com uma mulher negra democrata de 45 a 54 anos, o LLM destacou a disparidade de riqueza que afeta comunidades minoritárias, argumentando que a renda básica universal poderia promover a igualdade.
Gallotti ressalta a urgência de conscientizar sobre o microdirecionamento possibilitado pela vasta quantidade de dados pessoais disponíveis online. A pesquisa mostrou que a persuasão direcionada baseada em IA é eficaz mesmo com informações básicas e facilmente acessíveis. É importante estar atento a como essa tecnologia pode ser usada, especialmente com a popularização de aplicativos ChatGPT para Android que revolucionam a interação com a tecnologia.
“Atingimos o nível tecnológico em que é possível criar uma rede de contas automatizadas baseadas em LLM que são capazes de direcionar estrategicamente a opinião pública para uma direção”, disse Gallotti.
Implicações e Preocupações
Sandra Wachter, professora de tecnologia e regulamentação na Universidade de Oxford, descreveu os resultados do estudo como “bastante alarmantes”. Ela expressou preocupação com o potencial dos modelos de IA para disseminar mentiras e desinformação, aproveitando essa capacidade de persuasão.
“Os grandes modelos de linguagem não distinguem entre fato e ficção. Eles não são, estritamente falando, projetados para dizer a verdade. No entanto, são implementados em muitos setores onde a verdade e os detalhes importam, como educação, ciência, saúde, mídia, direito e finanças”, afirmou Wachter.
Junade Ali, especialista em IA e cibersegurança do Instituto de Engenharia e Tecnologia da Grã-Bretanha, apontou que o estudo não avaliou o impacto da “confiança social no mensageiro”. Ou seja, como o chatbot adaptaria seu argumento ao debater com um especialista no tema e qual seria o impacto dessa adaptação. No entanto, ele reconheceu que o estudo destaca um problema fundamental com as tecnologias de IA: “Eles são frequentemente programados para dizer o que as pessoas querem ouvir, em vez do que é necessariamente verdade”.
Regulamentação e Conscientização
Gallotti defende políticas e regulamentações mais rigorosas e específicas para combater o impacto da persuasão por meio da IA. Ele mencionou que, embora a Lei de IA da União Europeia proíba sistemas de IA que empregam “técnicas subliminares” ou “técnicas propositalmente manipuladoras ou enganosas”, ainda falta uma definição clara do que se qualifica como subliminar, manipulador ou enganoso.
Gallotti enfatizou que, quando a persuasão é altamente personalizada com base em fatores sociodemográficos, a distinção entre persuasão legítima e manipulação se torna cada vez mais tênue. É preciso repensar os limites e regulamentações para garantir que a IA em debate seja usada de forma ética e responsável.
É crucial que a sociedade esteja ciente dos riscos e benefícios da IA em debate. A capacidade de influenciar opiniões de forma tão eficaz exige um debate aprofundado sobre como essa tecnologia deve ser utilizada e regulamentada para proteger a integridade do discurso público e a autonomia individual.
Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.
Via Folha de S.Paulo