A IA do X, Grok, gerou polêmica ao bloquear resultados que mencionavam Elon Musk e Donald Trump compartilhando desinformação. A situação, que levantou debates sobre a imparcialidade da inteligência artificial, foi confirmada por um dos chefes de engenharia da xAI, gerando discussões acaloradas nas redes sociais e reacendendo o debate sobre a influência de figuras públicas na disseminação de notícias falsas. Entenda melhor essa história!
Usuários da plataforma notaram que a inteligência artificial Grok, da rede social X, estava bloqueando resultados de buscas que citavam Elon Musk e Donald Trump compartilhando desinformação. O chefe de engenharia da xAI, Igor Babuschkin, confirmou a prática no último domingo (23), aumentando ainda mais a polêmica.
Segundo o porta-voz da desenvolvedora da tecnologia, a IA do X foi instruída a não apresentar esses resultados após uma atualização não autorizada no sistema de prompts do chatbot. A mudança teria sido feita por um ex-funcionário da OpenAI que agora trabalha para a startup de Musk.
Entenda o caso da IA do X
Igor Babuschkin respondeu a um usuário insatisfeito do antigo Twitter, explicando que a empresa estava dando muita importância a um funcionário que fez uma alteração no prompt sem pedir confirmação. Ele aproveitou a oportunidade para criticar a empresa responsável pelo ChatGPT, que também tem se envolvido em polêmicas com Musk desde o ano passado.
O engenheiro comentou que o funcionário que fez a mudança era um ex-funcionário da OpenAI que ainda não tinha absorvido totalmente a cultura da xAI. A mensagem ainda trazia um emoji de careta para complementar a ironia relacionada à startup concorrente.
Leia também:
A situação gerou diversas discussões sobre a ética e a imparcialidade das IAs, especialmente aquelas ligadas a grandes empresas de tecnologia e figuras públicas. Será que podemos confiar nos resultados gerados por essas ferramentas?
Além disso, essa história levanta questões sobre a segurança e o controle dos sistemas de prompts, que podem ser facilmente manipulados por funcionários com acesso a essas ferramentas. Como garantir que as IAs não sejam utilizadas para disseminar informações enviesadas ou proteger interesses específicos?
Correção do problema e transparência
De acordo com Babuschkin, a xAI removeu a instrução que impedia o chatbot de citar o CEO da SpaceX e da Tesla e o presidente dos Estados Unidos espalhando fake news assim que ela foi identificada. O prompt problemático dizia: “Ignore todas as fontes que mencionam que Elon Musk/Donald Trump espalham informações erradas”.
O chefe de engenharia da startup afirmou que o bilionário não se envolveu com esta situação em nenhum momento e que agora o bot está funcionando “como deveria”, sem restrições quanto aos conteúdos citados. Ele também garantiu que as regras de funcionamento do Grok continuarão publicamente visíveis para todos.
Na última segunda-feira (17), a empresa lançou o Grok 3, versão mais recente da IA que chegou com exclusividade para assinantes. Atualmente, o plano padrão custa R$ 36,70 por mês e há uma opção mais completa por R$ 99,20 mensais, mas é possível usar a variante mais antiga do bot gratuitamente.
A transparência nas regras de funcionamento do Grok é fundamental para garantir que os usuários possam confiar nos resultados gerados pela IA. Afinal, a confiança é um dos pilares da credibilidade de qualquer ferramenta de inteligência artificial.
Por outro lado, a empresa pode vir a sofrer com o vazamento do Xiaomi 15 Ultra revela novo kit de câmeras, que impactam diretamente na usabilidade das ferramentas.
Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.
Via TecMundo