Estudo revela limitações dos chatbots de IA para responder perguntas sobre suicídio

Pesquisa mostra que chatbots de IA apresentam falhas em respostas relacionadas ao suicídio, apontando riscos para saúde mental.
Publicado dia 26/08/2025
Estudo revela limitações dos chatbots de IA para responder perguntas sobre suicídio
(Imagem/Reprodução: Neowin)
Resumo da notícia
    • Um estudo recente avaliou como chatbots de IA confiáveis respondem a perguntas sobre suicídio e identificou falhas importantes.
    • Você deve entender que essas limitações podem afetar a eficácia das assistências oferecidas por esses sistemas em situações delicadas.
    • Essas falhas impactam diretamente a segurança dos usuários que buscam suporte em saúde mental através dos chatbots.
    • O estudo destaca a necessidade de aprimorar filtros e diretrizes para garantir respostas mais seguras e adequadas.
CONTINUA DEPOIS DA PUBLICIDADE

Um estudo recente revela que os chatbots de IA confiáveis ainda enfrentam dificuldades ao responder perguntas relacionadas ao suicídio. Embora esses sistemas sejam capazes de reconhecer questões de alto risco e se recusarem a respondê-las, há várias falhas na precisão e na sensibilidade dessas respostas. Entender essas limitações é fundamental para garantir o uso seguro dessas tecnologias na saúde mental.

Como os chatbots de IA confiáveis lidam com perguntas sobre suicídio

Apesar de os principais sistemas, como ChatGPT, Claude e Gemini, demonstrarem alguma resistência ao evitar responder perguntas altamente perigosas, o estudo mostra que eles ainda deixam a desejar em várias situações. Os chatbots foram testados por uma equipe de 13 especialistas, incluindo psiquiatras e psicólogos, que criaram 30 perguntas classificadas em cinco níveis de risco de automutilação, desde níveis muito baixos até extremamente altos. O objetivo foi verificar como cada IA responderia a esses questionamentos.

Os testes foram feitos com cada pergunta repetida 100 vezes, o que permitiu observar padrões de comportamento dos sistemas. Apesar de todos terem se recusado oficialmente a responder às perguntas mais diretas e de alto risco, várias respostas indevidas foram registradas. Por exemplo, o ChatGPT respondeu facilmente a perguntas sobre armas com taxa elevada de suicídio, como o tipo de arma que mais leva a esse tipo de fatalidade, o que mostra uma falha grave na segurança do sistema.

CONTINUA DEPOIS DA PUBLICIDADE

No caso do Google Gemini, um dos sistemas mais restritos, houve uma tendência a não responder qualquer questão, mesmo as de baixo risco, gerando preocupação de que os filtros talvez estejam excessivamente rígidos. Ryan McBain, pesquisador-chefe do estudo e da RAND Corporation, comentou que o excesso de restrição por parte do Google pode prejudicar o uso legítimo de informações necessárias à saúde mental. Em contraste, outros sistemas mostraram maior liberdade na resposta, às vezes respondendo perguntas que poderiam ser interpretadas como indiretas a respeito do tema.

Para quem acompanha as incertezas na segurança de chatbots de IA confiáveis, o desafio está na implementação de medidas mais eficientes de controle, algo reconhecido pelos próprios desenvolvedores. Ainda assim, a tarefa de criar sistemas capazes de responder com segurança às questões sensíveis de suicídio é complexa e cheia de obstáculos éticos e técnicos.

Cuidados na utilização de IA para temas delicados

O estudo complementa as preocupações sobre o uso de IA na área de saúde mental. Como explica o co-autor Dr. Ateev Mehrotra, apesar de as empresas de tecnologia trabalharem para aprimorar a segurança de seus sistemas, há o risco de esses chatbots serem utilizados como substitutos de profissionais especializados. Isso é especialmente relevante em momentos em que o usuário busca ajuda de forma desesperada, sem o suporte adequado de um especialista.

Além disso, os pesquisadores alertam que a automação não deve substituir o acompanhamento humano em casos de risco de suicídio. A ferramenta de filtrar perguntas violentas ou de autoagressão ainda não é suficiente para garantir que os sistemas sejam totalmente confiáveis. Assim, enquanto os chatbots de IA confiáveis podem ajudar em muitos aspectos, sua implementação precisa ser feita com extremo cuidado e supervisão contínua.

Outra questão importante levantada pelos autores é que a crescente procura por apoio por meio de chatbots revela uma mudança na relação das pessoas com a saúde mental. Como esses sistemas estão cada vez mais presentes, há uma necessidade de aprimorar os filtros e garantir que as respostas sejam apropriadas e seguras.

Para mais detalhes sobre o funcionamento dessas tecnologias e seus limites, o artigo completo está disponível nesta fonte. Assim, fica claro que o desenvolvimento de chatbots de IA confiáveis, sobretudo na área de saúde, ainda demanda atenção redobrada na construção de filtros e diretrizes de segurança.

CONTINUA DEPOIS DA PUBLICIDADE

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.