O uso excessivo do ChatGPT pode levar à dependência emocional do ChatGPT, de acordo com um estudo recente. A pesquisa, conduzida pela OpenAI em colaboração com o MIT Media Lab, explora as possíveis ramificações psicológicas do uso contínuo de chatbots de inteligência artificial. Os resultados apontam para uma ligação entre o aumento do uso do ChatGPT e o aumento dos sentimentos de solidão entre os usuários.
A OpenAI, conhecida por seus avanços em modelos de IA, parece estar atenta aos potenciais efeitos colaterais de sua tecnologia. Afinal, com mais de 400 milhões de usuários, o ChatGPT se tornou uma ferramenta onipresente, e entender seu impacto é crucial.
Estudos Revelam Impacto Emocional do Uso do ChatGPT
O estudo foi realizado em duas partes, com cada organização conduzindo uma pesquisa independente antes de combinar os resultados para chegar a uma conclusão consolidada. A pesquisa da OpenAI examinou mais de 40 milhões de interações com o ChatGPT ao longo de um mês, sem envolvimento humano para proteger a privacidade do usuário. Já o MIT acompanhou cerca de 1.000 participantes que usaram o ChatGPT por 28 dias. É importante notar que os estudos ainda não foram revisados por pares.
O estudo do MIT investigou diferentes funções de uso que poderiam afetar a experiência emocional dos usuários ao interagir com o ChatGPT, incluindo o uso de texto ou voz. Os resultados indicaram que ambos os meios tinham o potencial de provocar solidão ou afetar a socialização dos usuários durante o período do estudo. A inflexão da voz e a escolha do tópico também foram pontos importantes de comparação.
O estudo também observou que aqueles que relataram ver o ChatGPT como um amigo, e aqueles que já tinham uma propensão para forte apego emocional em relacionamentos, eram mais propensos a se sentirem mais solitários e mais emocionalmente dependentes do chatbot enquanto participavam do estudo. As descobertas ressaltam a necessidade de compreender melhor como diferentes padrões de uso e traços de personalidade podem influenciar a experiência emocional das pessoas ao interagir com a IA.
Leia também:
O tom de voz do ChatGPT e a escolha dos temas impactam nas emoções
Um tom neutro usado no modo de voz do ChatGPT mostrou-se menos propenso a levar a um resultado emocional negativo para os participantes. Enquanto isso, o estudo observou uma correlação entre os participantes que mantinham conversas pessoais com o ChatGPT e o aumento da probabilidade de solidão; no entanto, esses efeitos foram de curto prazo. Aqueles que usavam o bate-papo por texto, mesmo para conversar sobre tópicos gerais, experimentaram maiores casos de dependência emocional do ChatGPT.
A pesquisa da OpenAI adicionou contexto adicional, com seus resultados observando, no geral, que interagir com o ChatGPT para fins emocionais era raro. Além disso, o estudo descobriu que, mesmo entre os usuários intensivos que implementaram o recurso Advanced Voice Mode no chatbot e eram mais propensos a responder que consideravam o ChatGPT um amigo, esse grupo de participantes experimentou baixas reações emocionais ao interagir com o chatbot.
OpenAI Busca Entender os Desafios da sua Tecnologia
A OpenAI concluiu que sua intenção com esses estudos é entender os desafios que podem surgir devido à sua tecnologia, bem como ser capaz de definir expectativas e exemplos de como seus modelos devem ser usados.
Embora a OpenAI sugira que seu estudo baseado em interação simula os comportamentos de pessoas reais, mais do que alguns humanos reais admitiram em fóruns públicos, como o Reddit, usar o ChatGPT em vez de ir a um terapeuta com suas emoções.
Os resultados do estudo indicam que, embora o uso de IA para suporte emocional possa parecer uma solução conveniente, é importante estar ciente dos riscos potenciais. A dependência emocional do ChatGPT pode levar ao isolamento e à solidão, especialmente para aqueles que já têm dificuldades com relacionamentos interpessoais.
É crucial que os desenvolvedores de IA considerem as implicações éticas e sociais de suas tecnologias e trabalhem para criar ferramentas que promovam o bem-estar humano.
Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.
Via Digital Trends