Excesso de uso do ChatGPT pode criar dependência emocional, aponta estudo

Pesquisa indica que o uso excessivo do ChatGPT pode levar a uma dependência emocional, afetando o bem-estar.
Atualizado há 4 semanas
Dependência emocional do ChatGPT
Dependência emocional do ChatGPT
CONTINUA DEPOIS DA PUBLICIDADE

O uso excessivo do ChatGPT pode levar à dependência emocional do ChatGPT, de acordo com um estudo recente. A pesquisa, conduzida pela OpenAI em colaboração com o MIT Media Lab, explora as possíveis ramificações psicológicas do uso contínuo de chatbots de inteligência artificial. Os resultados apontam para uma ligação entre o aumento do uso do ChatGPT e o aumento dos sentimentos de solidão entre os usuários.

A OpenAI, conhecida por seus avanços em modelos de IA, parece estar atenta aos potenciais efeitos colaterais de sua tecnologia. Afinal, com mais de 400 milhões de usuários, o ChatGPT se tornou uma ferramenta onipresente, e entender seu impacto é crucial.

Estudos Revelam Impacto Emocional do Uso do ChatGPT

O estudo foi realizado em duas partes, com cada organização conduzindo uma pesquisa independente antes de combinar os resultados para chegar a uma conclusão consolidada. A pesquisa da OpenAI examinou mais de 40 milhões de interações com o ChatGPT ao longo de um mês, sem envolvimento humano para proteger a privacidade do usuário. Já o MIT acompanhou cerca de 1.000 participantes que usaram o ChatGPT por 28 dias. É importante notar que os estudos ainda não foram revisados por pares.

O estudo do MIT investigou diferentes funções de uso que poderiam afetar a experiência emocional dos usuários ao interagir com o ChatGPT, incluindo o uso de texto ou voz. Os resultados indicaram que ambos os meios tinham o potencial de provocar solidão ou afetar a socialização dos usuários durante o período do estudo. A inflexão da voz e a escolha do tópico também foram pontos importantes de comparação.

O estudo também observou que aqueles que relataram ver o ChatGPT como um amigo, e aqueles que já tinham uma propensão para forte apego emocional em relacionamentos, eram mais propensos a se sentirem mais solitários e mais emocionalmente dependentes do chatbot enquanto participavam do estudo. As descobertas ressaltam a necessidade de compreender melhor como diferentes padrões de uso e traços de personalidade podem influenciar a experiência emocional das pessoas ao interagir com a IA.

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

O tom de voz do ChatGPT e a escolha dos temas impactam nas emoções

Um tom neutro usado no modo de voz do ChatGPT mostrou-se menos propenso a levar a um resultado emocional negativo para os participantes. Enquanto isso, o estudo observou uma correlação entre os participantes que mantinham conversas pessoais com o ChatGPT e o aumento da probabilidade de solidão; no entanto, esses efeitos foram de curto prazo. Aqueles que usavam o bate-papo por texto, mesmo para conversar sobre tópicos gerais, experimentaram maiores casos de dependência emocional do ChatGPT.

A pesquisa da OpenAI adicionou contexto adicional, com seus resultados observando, no geral, que interagir com o ChatGPT para fins emocionais era raro. Além disso, o estudo descobriu que, mesmo entre os usuários intensivos que implementaram o recurso Advanced Voice Mode no chatbot e eram mais propensos a responder que consideravam o ChatGPT um amigo, esse grupo de participantes experimentou baixas reações emocionais ao interagir com o chatbot.

OpenAI Busca Entender os Desafios da sua Tecnologia

A OpenAI concluiu que sua intenção com esses estudos é entender os desafios que podem surgir devido à sua tecnologia, bem como ser capaz de definir expectativas e exemplos de como seus modelos devem ser usados.

Embora a OpenAI sugira que seu estudo baseado em interação simula os comportamentos de pessoas reais, mais do que alguns humanos reais admitiram em fóruns públicos, como o Reddit, usar o ChatGPT em vez de ir a um terapeuta com suas emoções.

Os resultados do estudo indicam que, embora o uso de IA para suporte emocional possa parecer uma solução conveniente, é importante estar ciente dos riscos potenciais. A dependência emocional do ChatGPT pode levar ao isolamento e à solidão, especialmente para aqueles que já têm dificuldades com relacionamentos interpessoais.

CONTINUA DEPOIS DA PUBLICIDADE

É crucial que os desenvolvedores de IA considerem as implicações éticas e sociais de suas tecnologias e trabalhem para criar ferramentas que promovam o bem-estar humano.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

Via Digital Trends

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.