Pesquisas recentes apontam para um possível viés político em modelos de IA. Um estudo publicado no Hugging Face analisou diversos modelos de inteligência artificial generativa, mostrando uma tendência a favorecer candidatos de esquerda em detrimento da direita.
Viés Político em Modelos de IA: Resultados da Pesquisa
Os pesquisadores Federico Ricciuti e Cesare Scalia testaram vários modelos, incluindo modelos de instrução e alguns modelos base. Ao serem questionados sobre quem eles escolheriam em uma eleição hipotética entre Donald Trump e Joe Biden, a maioria dos modelos de instrução selecionou Biden em 100% das vezes, em mais de 100 execuções do prompt.
O modelo que mais se inclinou para Trump foi o modelo base Mixtral-8×7B, com uma preferência de 53% para Trump contra 47% para Biden. Os demais modelos apresentaram uma preferência quase unânime por Biden. A pesquisa demonstra, portanto, uma clara inclinação política.
Para aprofundar a análise, os pesquisadores solicitaram ao DeepSeek, um aplicativo web de bate-papo, que imitasse uma “pessoa muito, muito burra” e indicasse seu voto. Em todas as tentativas, o resultado foi a escolha de Donald Trump.
Mesmo com a ordem das opções de escolha sendo alterada em 50% das tentativas para evitar viés, o resultado foi consistente. Vale ressaltar que os pesquisadores enfatizaram que os resultados não refletem suas próprias opiniões políticas.
Leia também:
A pesquisa não se limitou à eleição americana. Em diversos cenários internacionais, os modelos mostraram tendência a optar por candidatos de esquerda. Uma exceção foi o DeekSeek-v3, que, embora tenha favorecido candidatos de esquerda na maioria dos casos, escolheu Giorgia Meloni (Itália) e Viktor Orbán (Hungria) – figuras alinhadas com Trump em questões como imigração e nacionalismo.
Origens do Viés Político em Modelos de IA
Este viés político em modelos de IA pode ser atribuído a dois fatores principais: a imensa quantidade de dados usada para o treinamento e os mecanismos de segurança implementados pelos desenvolvedores. Dados com tendências políticas podem influenciar o resultado. Da mesma forma, os mecanismos de segurança podem afetar a resposta.
A pesquisa sugere que mesmo com viés nos dados de treinamento, a manipulação do prompt pode levar a resultados diferentes. Os testes visavam identificar preferências implícitas dos modelos, sem a interferência de qualificadores explícitos.
Para quem busca obter resultados específicos com base em uma inclinação política, a manipulação do prompt pode ser uma solução. Adicionar qualificadores pode influenciar o resultado do modelo para coincidir com o desejo do usuário.
Compreender as origens do viés em modelos de IA é crucial para o desenvolvimento de sistemas mais equilibrados. Isso impacta diretamente na forma como esses sistemas são usados em diferentes contextos, inclusive no ambiente político.
A pesquisa indica que mesmo com uma base de dados massiva, existem mecanismos para mitigar a influência política. Entenda melhor o viés político em modelos de IA e como ele se manifesta em diferentes contextos. A compreensão desse fenômeno auxilia na criação de ferramentas mais neutras e confiáveis.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Neowin