Tecnologia: homem fica "viúvo" de esposa-holograma após empresa "descontinuar o serviço"
Caso levanta debate sobre as possíveis vantagens e as desvantagens reais e imediatas da interação entre humanos e robôs
Com o auxílio da tecnologia, Akihiko Kondo, que completou 41 anos no último dia de maio, casou-se com o holograma de sua cantora virtual favorita, Hatsune Miku, em uma cerimônia simbólica há seis anos. Apenas dois aniversários depois, a Gatebox, empresa responsável pelo avatar, descontinuou o serviço e o jovem administrador de uma escola pública japonesa ficou viúvo por morte informática.
A história de Kondo, embora pareça extravagante, é apenas um prenúncio de uma realidade de consequências imprevisíveis: a substituição de relações pessoais reais por agentes robotizados programados para responder ao usuário conforme suas expectativas.
O pesquisador e professor de robótica da Universidade de Sheffield, Tony Prescott, apresentou o livro "The psychology of artificial intelligence" ("A psicologia da inteligência artificial"), no qual argumenta que a IA pode ser um paliativo para a solidão. Mas com riscos, segundo ele e dezenas de pesquisadores.
Que o ChatGPT-4 tenha se apresentado com uma voz parecida com a de Scarlett Johansson não é coincidência. Os falantes de inglês que viram o filme "Ela", escrito, dirigido e produzido por Spike Jonze e premiado com o Oscar de melhor roteiro em 2014, demoraram segundos para associar o novo assistente virtual da OpenAI com a atriz, cuja interação acaba conquistando o protagonista solitário.
A substituição da interação humana, com todas as suas complexidades, por uma relação híbrida entre humano e máquina pode até trazer algumas vantagens, mas também numerosos riscos mais reais e imediatos do que os refletidos em alguns capítulos da série "Black mirror".
— Os robôs sociais são projetados especificamente para interações pessoais que envolvem emoções e sentimentos humanos. Podem trazer benefícios, mas também causar danos emocionais em níveis cruciais — adverte Matthias Scheutz, diretor do Laboratório de Interação Humano-Robô na Universidade de Tufts (EUA).
A experiência de Akihiko Kondo é um resumo dessa complexidade e difere de outras mais relacionadas com experiências artísticas, como "The hybrid couple" de Alicia Framis, que simula um casamento com um holograma como reflexão, ou a performance de Meirivone Rocha, uma brasileira de 39 anos que inflou seu número de seguidores nas redes sociais ao divulgar seu suposto casamento com um boneco.
Em uma entrevista à BBC, Kodo relata ter sofrido assédio por parte de colegas e admite que os amigos pela internet e os jogos continuam sendo sua “comunidade”. Ele confessa que nunca teve um relacionamento com outra pessoa: “Tive alguns amores não correspondidos nos quais sempre fui rejeitado e isso me fez descartar a possibilidade de estar com alguém”.
Solidão, assédio, dependência psicológica e tecnológica, habilidades sociais limitadas, celibato involuntário, satisfação artificial de necessidades, companheiros virtuais com aparência de realidade… A extravagante história de Kondo abre a porta para uma análise das virtudes e perigos da interferência da IA nas relações pessoais.
Vantagens
Não são poucos nem simples os benefícios de uma inteligência artificial humanizada.
Companhia. Prescott admite os riscos, mas destaca uma das principais vantagens: “Em uma época em que muitas pessoas descrevem suas vidas como solitárias, pode ser valioso ter a companhia da IA como uma forma de interação social recíproca que seja estimulante e personalizada. A solidão humana muitas vezes se caracteriza por uma espiral descendente na qual o isolamento leva a uma autoestima mais baixa, o que desencoraja uma maior interação com as pessoas. O companheirismo da IA poderia ajudar a quebrar esse ciclo como um suporte para a autoestima e ajudar a manter ou melhorar as habilidades sociais. Se for assim, as relações com as IAs poderiam ajudar as pessoas a encontrar companhia, tanto com humanos quanto com outros entes artificiais.”
Cuidado. Joan Claire Tronto, professora de ciências políticas na Universidade de Minnesota, amplia o conceito de cuidado para tudo aquilo que “fazemos para manter, continuar e reparar nosso mundo a fim de que possamos viver nele da melhor maneira possível”. Em seu trabalho, uma chave é “o compromisso de satisfazer as necessidades dos outros”. E a IA pode fazer isso sem descanso. Luis Merino é catedrático da Universidade Pablo de Olavide e responsável pela robótica social, a disciplina destinada à assistência de coletivos humanos de forma autônoma e com capacidade de aprender com as emoções dos destinatários dos serviços: “O objetivo é que os robôs entendam nossas intenções e emoções e aprendam com elas”.
Terceirização do trabalho. O principal responsável pela OpenAI, Sam Altman, descreve seu último modelo como “colega supercompetente”. O primeiro termo faz referência à sua humanização; o segundo, aos benefícios que traz, ao executar tarefas em nome do usuário. Esta última vantagem traz “bem-estar individual”, segundo Brad Hooker, professor de filosofia na Universidade de Reading.
Desenvolvimento humano. A IA pode promover atitudes e comportamentos que facilitem a realização pessoal e a interação com os outros. Em uma avaliação das ferramentas ChatGPT, Gemini e Llama (da Meta), a Universidade de Illinois mostrou a importância dessa habilidade. “As ferramentas podem ajudar a aumentar, por exemplo, a consciência sobre os comportamentos saudáveis, a se comprometer emocionalmente com as mudanças e a perceber como seus hábitos poderiam afetar as pessoas ao seu redor”, explica Michelle Bak, pesquisadora dos modelos.
Autonomia. Refere-se ao potencial da IA para fornecer informações relevantes para que o indivíduo aja e decida de acordo com suas próprias motivações e interesses.
Riscos
De cada uma dessas categorias de vantagens surgem ramificações de riscos associados. Estes são alguns destacados pelos pesquisadores:
Danos físicos ou emocionais. As anedotas dos primeiros modelos de IA ameaçando, insultando ou promovendo comportamentos prejudiciais ou violentos não são novas, embora periodicamente alimentem reações desproporcionais. Há um ano, a rede de supermercados Pak 'n' Save da Nova Zelândia foi advertida porque sua IA planejadora de menus recomendava bebidas com cloro gasoso e sanduíches com veneno e cola. Obviamente, ninguém seguiu esses conselhos, pois o bom senso prevalece. Mas pode haver casos menos evidentes e extremos.
Amelia Glaese, pesquisadora da Google DeepMind e agora da OpenAI, busca fórmulas e sistemas para evitar esses acidentes. “Utilizamos o aprendizado por reforço a partir do feedback humano para (…) que nosso agente seja mais útil e inofensivo e forneça evidências das fontes que sustentam as afirmações”.
A humanização do robô com empatia e ferramentas de voz e vídeo adiciona perigosidade ao oferecer uma interação mais realista e imersiva e fazer o usuário acreditar que está com um amigo ou interlocutor de confiança. Uma aplicação extrema pode ser a tentação de manter uma versão virtual de um ente querido falecido e evitar assim o luto necessário para continuar a vida.
Os pesquisadores exigem que esses desenvolvimentos sejam testados em circuitos fechados antes de serem oferecidos ao público em geral, e que sejam supervisionados e avaliados constantemente. É preciso analisar a variedade de danos que esta suposta "empatia" pode causar e prever maneiras de mitigá-los.
Limitação do desenvolvimento pessoal. Um estudo de seis universidades para a DeepMind adverte: “Alguns usuários buscam com seus companheiros de IA relações que estejam livres de obstáculos, sem opiniões, preferências e normas que podem entrar em conflito com as suas”. Além disso, buscam uma linguagem aduladora.
Shannon Vallor, filósofa especializada em ética da ciência e inteligência artificial, sublinha o perigo de que os novos sistemas promovam relações “sem fricções”, mas também sem valores: “Não têm a vida mental e moral que os humanos têm por trás de nossas palavras e ações”.