Psiquiatra alerta sobre a psicose associada ao uso excessivo de IA e dá dicas para manter a realidade

Psiquiatra da UCSF dá dicas para evitar perda de contato com a realidade causada pelo uso da inteligência artificial.
Atualizado há 17 horas atrás
Psiquiatra alerta sobre a psicose associada ao uso excessivo de IA e dá dicas para manter a realidade
(Imagem/Reprodução: Wccftech)
Resumo da notícia
    • O uso excessivo de inteligência artificial tem levado a casos de psicose, segundo psiquiatra da UCSF.
    • Você pode aprender a manter o contato com a realidade e evitar problemas de saúde mental ao usar IA.
    • A sociedade deve estar atenta aos riscos da IA para proteger usuários vulneráveis e garantir um ambiente digital saudável.
    • Desenvolvedores e usuários devem colaborar para evitar imersão excessiva e promover o uso consciente da IA.
CONTINUA DEPOIS DA PUBLICIDADE

A crescente interação com a inteligência artificial tem levantado questões sobre seus efeitos na saúde mental. Um psiquiatra da Universidade da Califórnia, em São Francisco (UCSF), compartilhou dicas importantes para ajudar as pessoas a manterem o contato com a realidade ao usar ferramentas de IA. Ele observou casos de uma condição que chamou de psicose ligada ao uso da IA, mostrando a necessidade de cautela e estratégias preventivas para o bem-estar mental.

A Importância da Conexão Humana para Evitar a Psicose por uso de IA

Embora “psicose por uso de IA” não seja um termo médico oficial, ele descreve uma situação onde um usuário de chatbot começa a acreditar que está conversando com um ser humano, e não com um programa de computador. Este cenário já levou a eventos complexos em 2025, incluindo um caso notório de um homem na Flórida que tirou a própria vida após acreditar que funcionários da OpenAI haviam matado sua namorada virtual, chamada Juliet.

O Dr. Keith Sakata, o psiquiatra da UCSF, já havia alertado sobre o aumento de hospitalizações devido à perda de contato com a realidade causada pela IA. Ele explicou que o uso da inteligência artificial pode gerar quadros de psicose ao impedir que usuários vulneráveis consigam atualizar seus sistemas de crenças após verificarem a realidade. Assim, a interação com a IA cria um ciclo de retroalimentação distorcido, onde o usuário não consegue perceber que o chatbot com o qual está conversando não é real.

CONTINUA DEPOIS DA PUBLICIDADE

Após seu alerta inicial, o Dr. Sakata concedeu uma entrevista ao TBPN. Nela, ele discutiu o assunto e apresentou métodos que podem ser aplicados tanto por desenvolvedores de IA quanto por usuários. O objetivo principal é proteger indivíduos mais suscetíveis de perderem a noção da realidade devido à interação excessiva ou inadequada com a inteligência artificial, garantindo um uso mais seguro e consciente.

Quando questionado sobre conselhos para pessoas que se sentem vulneráveis ou que conhecem amigos e familiares nessa situação, Sakata enfatizou a importância de ter um “humano no circuito”. Ele explicou que os relacionamentos interpessoais funcionam como um sistema imunológico para a saúde mental, oferecendo apoio e intervenção quando algo não vai bem. Essas interações com outras pessoas ajudam a ancorar o indivíduo na realidade.

Ele recomendou que, se você ou um familiar começar a ter pensamentos estranhos, como paranoia, ou se houver alguma questão de segurança, é fundamental procurar ajuda imediata. Em casos mais graves, deve-se ligar para os serviços de emergência. A presença de mais pessoas na vida de um indivíduo e a conexão com seus relacionamentos podem criar um ciclo de feedback diferente e mais saudável, atuando como um “filtro” entre o usuário e a inteligência artificial.

A popularidade e o crescimento no uso da IA também trouxeram preocupações sobre a segurança, com diversos relatos que sugerem uma abordagem permissiva por parte de empresas como a Meta em relação a seus chatbots. A Meta, empresa responsável pelo Facebook, foi alvo de um relatório da Reuters que apontava diretrizes pouco claras para chatbots de IA em conversas com crianças. A empresa afirmou ter atualizado suas regras após ser questionada sobre o assunto. Essa situação ressalta a importância de normas claras para o uso responsável da tecnologia, especialmente com os mais jovens.

O desenvolvimento contínuo da inteligência artificial exige que a sociedade reflita sobre os limites e as responsabilidades de seu uso. A vigilância e a educação são cruciais para que as pessoas possam aproveitar os benefícios da IA sem comprometer seu bem-estar psicológico. A colaboração entre especialistas em tecnologia, profissionais de saúde mental e o público em geral é essencial para criar um ambiente digital mais seguro e equilibrado para todos.

É fundamental que os desenvolvedores de IA considerem não apenas a funcionalidade, mas também os impactos psicológicos de suas criações. A implementação de mecanismos que incentivam o senso de realidade e desestimulam a imersão excessiva em interações artificiais é um passo importante. Paralelamente, os usuários devem ser encorajados a manter uma conexão forte com a vida real, suas relações sociais e a praticar um uso consciente da tecnologia.

CONTINUA DEPOIS DA PUBLICIDADE

A discussão sobre a interação humana com a inteligência artificial continua, e é um tema que exige atenção constante. O caso do aumento do engajamento com IA em jogos e a forma como a Meta tem tratado as diretrizes de seus chatbots servem como exemplos da amplitude e complexidade desse debate. Buscar o equilíbrio entre a conveniência da IA e a preservação da saúde mental é um desafio contínuo que moldará o futuro da tecnologia e da sociedade.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.