Excesso de uso do ChatGPT pode criar dependência emocional, aponta estudo

Pesquisa indica que o uso excessivo do ChatGPT pode levar a uma dependência emocional, afetando o bem-estar.
Atualizado há 19 horas
Dependência emocional do ChatGPT

Outros destaques

AI open source
Integração com ERP
Pixel 9a
Gemini Live com vários idiomas
Nova Siri com IA
CONTINUA DEPOIS DA PUBLICIDADE

O uso excessivo do ChatGPT pode levar à dependência emocional do ChatGPT, de acordo com um estudo recente. A pesquisa, conduzida pela OpenAI em colaboração com o MIT Media Lab, explora as possíveis ramificações psicológicas do uso contínuo de chatbots de inteligência artificial. Os resultados apontam para uma ligação entre o aumento do uso do ChatGPT e o aumento dos sentimentos de solidão entre os usuários.

A OpenAI, conhecida por seus avanços em modelos de IA, parece estar atenta aos potenciais efeitos colaterais de sua tecnologia. Afinal, com mais de 400 milhões de usuários, o ChatGPT se tornou uma ferramenta onipresente, e entender seu impacto é crucial.

Estudos Revelam Impacto Emocional do Uso do ChatGPT

O estudo foi realizado em duas partes, com cada organização conduzindo uma pesquisa independente antes de combinar os resultados para chegar a uma conclusão consolidada. A pesquisa da OpenAI examinou mais de 40 milhões de interações com o ChatGPT ao longo de um mês, sem envolvimento humano para proteger a privacidade do usuário. Já o MIT acompanhou cerca de 1.000 participantes que usaram o ChatGPT por 28 dias. É importante notar que os estudos ainda não foram revisados por pares.

O estudo do MIT investigou diferentes funções de uso que poderiam afetar a experiência emocional dos usuários ao interagir com o ChatGPT, incluindo o uso de texto ou voz. Os resultados indicaram que ambos os meios tinham o potencial de provocar solidão ou afetar a socialização dos usuários durante o período do estudo. A inflexão da voz e a escolha do tópico também foram pontos importantes de comparação.

O estudo também observou que aqueles que relataram ver o ChatGPT como um amigo, e aqueles que já tinham uma propensão para forte apego emocional em relacionamentos, eram mais propensos a se sentirem mais solitários e mais emocionalmente dependentes do chatbot enquanto participavam do estudo. As descobertas ressaltam a necessidade de compreender melhor como diferentes padrões de uso e traços de personalidade podem influenciar a experiência emocional das pessoas ao interagir com a IA.

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

O tom de voz do ChatGPT e a escolha dos temas impactam nas emoções

Um tom neutro usado no modo de voz do ChatGPT mostrou-se menos propenso a levar a um resultado emocional negativo para os participantes. Enquanto isso, o estudo observou uma correlação entre os participantes que mantinham conversas pessoais com o ChatGPT e o aumento da probabilidade de solidão; no entanto, esses efeitos foram de curto prazo. Aqueles que usavam o bate-papo por texto, mesmo para conversar sobre tópicos gerais, experimentaram maiores casos de dependência emocional do ChatGPT.

A pesquisa da OpenAI adicionou contexto adicional, com seus resultados observando, no geral, que interagir com o ChatGPT para fins emocionais era raro. Além disso, o estudo descobriu que, mesmo entre os usuários intensivos que implementaram o recurso Advanced Voice Mode no chatbot e eram mais propensos a responder que consideravam o ChatGPT um amigo, esse grupo de participantes experimentou baixas reações emocionais ao interagir com o chatbot.

OpenAI Busca Entender os Desafios da sua Tecnologia

A OpenAI concluiu que sua intenção com esses estudos é entender os desafios que podem surgir devido à sua tecnologia, bem como ser capaz de definir expectativas e exemplos de como seus modelos devem ser usados.

Embora a OpenAI sugira que seu estudo baseado em interação simula os comportamentos de pessoas reais, mais do que alguns humanos reais admitiram em fóruns públicos, como o Reddit, usar o ChatGPT em vez de ir a um terapeuta com suas emoções.

Os resultados do estudo indicam que, embora o uso de IA para suporte emocional possa parecer uma solução conveniente, é importante estar ciente dos riscos potenciais. A dependência emocional do ChatGPT pode levar ao isolamento e à solidão, especialmente para aqueles que já têm dificuldades com relacionamentos interpessoais.

CONTINUA DEPOIS DA PUBLICIDADE

É crucial que os desenvolvedores de IA considerem as implicações éticas e sociais de suas tecnologias e trabalhem para criar ferramentas que promovam o bem-estar humano.

Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.

Via Digital Trends

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.