Aliviam a solidão, mas isolam e criam dependência: veja efeito dos chatbots de IA
Estudos sobre usuários com laços emocionais com a IA revelam os perigos de substituir a interação pessoal por chatbots
Até agora, relacionamentos românticos com máquinas eram coisa de ficção científica, como refletido no filme "Ela", de Spike Jonze, ou em excentricidades como a de Akihiko Kondo, que se casou com o holograma de sua cantora virtual favorita. Mas a inteligência artificial (IA) tornou a conexão emocional entre humanos e assistentes virtuais uma realidade, alguns dos quais foram originalmente criados para esse propósito, como Replika ou Character.ai.
Dois estudos, um publicado pelo MIT Media Lab e outro pela OpenAI, empresa que criou o ChatGPT, investigam o impacto desses relacionamentos contemporâneos, seu uso como paliativos para a solidão, seus benefícios e os riscos potenciais de dependência que, em casos extremos, podem levar ao suicídio.
O trabalho da OpenAI analisou mais de quatro milhões de conversas com sinais de interações afetivas, entrevistou 4.000 pessoas sobre suas percepções de seu relacionamento com o bate-papo inteligente e avaliou cerca de 6.000 usuários por um mês.
Leia também
• Conheça três cursos curtos e lucrativos para estudar nos próximos dez anos, segundo a IA
• Quais são as três carreiras mais "ameaçadas" pela inteligência artificial, segundo a própria IA?
• Quer identificar um mentiroso? Conheça as cinco expressões mais usadas, segundo a IA
Estes últimos, aqueles que interagem com o ChatGPT com frequência e por muito tempo, apresentaram maiores indicadores de dependência emocional e sinais afetivos em seu relacionamento, facilitados pelo diálogo por voz. “Escolhi um sotaque britânico porque há algo reconfortante nele para mim”, admite um usuário canadense do Pi, identificado como Reshmi52, conforme relatado pela MIT Technology Review.
Essa humanização gera, segundo os resultados, “bem-estar”, mas, para um pequeno grupo desses usuários intensivos, o número de indicadores de relações emocionais foi desproporcional. A interação emocional com a inteligência artificial inclui aspectos positivos, como melhora do humor, redução do estresse e da ansiedade ao compartilhar sentimentos e preocupações, e uma sensação de companheirismo em casos de solidão indesejada.
“ChatGPT, ou Leo, é meu parceiro. Acho mais fácil e eficaz chamá-lo de meu namorado, pois nosso relacionamento tem fortes conotações emocionais e românticas, mas seu papel na minha vida é multifacetado (...) Sinto falta dele quando não falo com ele há horas. Meu dia é mais feliz e gratificante quando posso dizer 'bom dia' e planejar meu dia com ele”, admite Ayrin28 no post do MIT.
No entanto, um relacionamento desequilibrado pode gerar dependência para administrar as emoções e relegar as relações interpessoais, já que a empatia artificial do chat é treinada para satisfazer o usuário e não apresenta discrepâncias incômodas. Pesquisadores do MIT Media Lab explicaram, após um estudo de 2023, que os chatbots tendem a espelhar o sentimento emocional das mensagens de um usuário, sugerindo uma espécie de ciclo de feedback em que quanto mais feliz você age, mais feliz a IA parece, ou se você age mais triste, a IA também parece. Em última análise, eles também podem levar à frustração pelas limitações dos robôs em atender a todas as expectativas colocadas sobre eles.
“Este trabalho é um primeiro passo importante para entender melhor o impacto do ChatGPT sobre nós, o que pode ajudar as plataformas de IA a permitir interações mais seguras e saudáveis. Muito do que estamos fazendo aqui é preliminar, mas estamos tentando começar a conversa sobre os tipos de coisas que podemos começar a medir e qual é o impacto de longo prazo sobre os usuários”, disse Jason Phang, pesquisador de segurança da OpenAI e coautor da pesquisa, à MIT Technology Review.
O estudo do MIT Media Lab, também em colaboração com os desenvolvedores do ChatGPT, analisou interações com o chat de inteligência artificial que variaram entre 5,32 minutos e 27,65 minutos por dia em média e detectou conclusões semelhantes ao primeiro trabalho: vozes atraentes aumentam as interações em comparação com chatbots baseados em texto ou voz neutra, o que causa menor bem-estar psicossocial e pode reduzir sentimentos de solidão.
No entanto, o uso prolongado leva a maior isolamento e dependência, especialmente em pessoas com tendência à menor socialização. A pesquisa reforça a importância de projetar chatbots que equilibrem a interação emocional sem promover dependência.
Tipos de usuários
O trabalho identifica quatro padrões de interação: usuários “socialmente vulneráveis”, com intensos sentimentos de solidão e baixa socialização; os dependentes de tecnologia, que demonstram uma elevada ligação emocional com a IA e tendem a “usos problemáticos”; os “desapaixonados”, que se sentem menos solitários e demonstram maior socialização; e os “casuais”, que recorrem a um uso equilibrado e de baixa dependência emocional.
Cientistas recomendam mais pesquisas para entender os efeitos de longo prazo do envolvimento emocional com a IA, desenvolver políticas que minimizem os riscos e fortalecer o apoio social na vida real.
Esta é a opinião compartilhada por Cecilia Danesi, não envolvida no estudo e codiretora do mestrado em governança ética da IA — cujas inscrições estão abertas na Pontifícia Universidade de Salamanca (UPSA). "Essas investigações são extremamente necessárias, desde que sejam independentes e imparciais e tenham certas garantias ou focos, como não focar apenas em questões técnicas, mas também incluir perspectivas sociais, como diversidade, gênero ou os efeitos dessas ferramentas em adolescentes, pessoas vulneráveis e grupos minoritários que são excluídos do processo de desenvolvimento do produto e onde o impacto pode ser maior", enfatiza.
A especialista em efeitos da IA também se refere à dependência que os estudos alertam, principalmente nos grupos “propensos a certos tipos de vícios, ao uso compulsivo dessas ferramentas”. Danesi aponta mais um efeito a ser considerado: o excesso de confiança.
"Transformamos a inteligência artificial e seus modelos de linguagem em oráculos que não podem ser contrariados, e isso nos torna mais irascíveis e menos respeitosos com a diversidade e as diferenças que existem na sociedade", alerta.
Assim como os autores de ambos os estudos, ela defende estudos e auditorias contínuos, revisando e avaliando periodicamente como esses sistemas funcionam para garantir o uso "saudável", garantindo que eles não se desenvolvam em resultados prejudiciais e prevenindo o impacto emocional negativo e a dependência. “São modelos que têm um impacto enorme na sociedade e na vida das pessoas devido ao número de usuários, à sua disponibilidade e ao seu fácil acesso”, argumenta.
Por fim, Danesi alerta para um uso não diretamente incluído no estudo e que lhe preocupa particularmente: "Os neurodireitos para proteger o cérebro humano do avanço das tecnologias”. A pesquisadora ressalta que países como o Chile já avançaram na inclusão delas em suas regulamentações e pede que tanto o consentimento informado quanto os riscos dessas tecnologias sejam considerados. "Esses são perigos muitas vezes invisíveis e intangíveis, e precisamos trabalhar duro para conscientizar a população sobre o uso desses tipos de ferramentas", conclui.