inteligência artificial

Imagens falsas de Taylor Swift nua, criadas por inteligência artificial, inundam redes sociais

Caso reacendeu discussão da necessidade de legislação específica sobre deepfake; no Brasil, PL relacionado ao tema é debatido em comissão do Senado

Taylor Swift - Michael Tran/AFP

Imagens falsas e sexualmente explícitas de Taylor Swift, provavelmente geradas por inteligência artificial, espalharam-se rapidamente pelas redes sociais esta semana, enfurecendo os fãs da cantora e reacendendo apelos aos legisladores para proteger as mulheres e reprimir as plataformas e as tecnologias que espalham essas imagens.

Uma foto compartilhada por um usuário no X (antigo Twitter) foi visualizada 47 milhões de vezes antes de a conta ser suspensa na última quinta-feira. O X suspendeu vários perfis que postavam as imagens de Swift, mas elas continuaram sendo reproduzidas em outras redes, apesar dos esforços das empresas para removê-las.

Enquanto o X dizia que estava trabalhando na remoção, fãs da estrela pop inundaram a plataforma com mensagens de protesto. Eles postaram a frase “Proteja Taylor Swift” e palavras-chave relacionadas, num esforço para abafar as imagens explícitas e torná-las mais difíceis de serem encontradas.

A Reality Defender, empresa de segurança cibernética focada na detecção de IA, determinou com 90% de confiança que as imagens foram criadas usando um modelo de difusão, uma tecnologia orientada por IA acessível através de mais de 100 mil aplicativos e modelos disponíveis publicamente, disse Ben Colman, co-diretor e fundador da empresa.

À medida que a indústria da IA crescia, as empresas correram para lançar ferramentas que permitissem aos usuários criar imagens, vídeos, texto e gravações de áudio com instruções simples. Essas ferramentas já são muito populares e tornam mais fácil e barato do que nunca a criação dos chamados deepfakes, que retratam pessoas fazendo ou dizendo coisas que nunca fizeram.

Os investigadores temem agora que os deepfakes se tornem uma poderosa força de desinformação, ao permitir que pessoas comuns criem imagens falsas de nudez ou retratem candidatos políticos em situações embaraçosas. A inteligência artificial foi usada para criar falas falsas do presidente Joe Biden durante as eleições americanas e a própria Taylor Swift foi destaque este mês em anúncios irreais vendendo utensílios de cozinha.

"A pornografia não consensual de vários tipos sempre foi uma tendência sombria na Internet", diz Oren Etzioni, professor de ciência da computação da Universidade de Washington, que trabalha na detecção de deepfake. "Agora é uma nova variedade particularmente nociva. Veremos um tsunami dessas imagens explícitas geradas por IA. As pessoas que criam isso percebem como um sucesso."

O X afirma ter uma política de tolerância zero em relação a esse tipo de conteúdo. “Nossas equipes estão removendo ativamente todas as imagens identificadas e tomando as medidas apropriadas contra as contas responsáveis por publicá-las”, disse um representante em comunicado. “Estamos monitorando de perto a situação para garantir que quaisquer outras violações sejam tratadas imediatamente e que o conteúdo seja removido.”

Houve um aumento em conteúdos problemáticos, incluindo assédio, desinformação e discurso de ódio, desde que Elon Musk comprou O Twitter em 2022. Ele flexibilizou as regras de conteúdo do site e demitiu funcionários que trabalhavam na remoção de mensagens problemáticas. A plataforma também restabeleceu contas que haviam sido anteriormente banidas por violarem regras.

Embora muitas das empresas que produzem ferramentas generativas de IA proíbam os seus utilizadores de criar imagens explícitas, as pessoas encontram formas de quebrar as regras. “É uma corrida e, sempre que surge uma barreira de proteção, alguém descobre como derrubá-la”, diz Etzioni.

As imagens de Taylor tiveram origem em um canal do Telegram, segundo o 404 Media, site de notícias de tecnologia. Mas os deepfakes atraíram ampla atenção depois de serem postados no X e em outros serviços de mídia social, onde se espalharam rapidamente.

Alguns estados americanos proibiram deepfakes pornográficos e políticos. Mas as restrições não tiveram um impacto forte e não existem regulamentações federais para tais deepfakes, diz Colman. As plataformas tentam lidar com isso pedindo aos usuários que os denunciem, mas esse método tem falhas. No momento em que são denunciados, milhões de usuários já os viram.

A assessora de imprensa de Swift, Tree Paine, não respondeu imediatamente aos pedidos de comentários na quinta-feira.

Os deepfakes de Swift geraram apelos por ação dos legisladores. O deputado Joe Morelle, de Nova York, que apresentou um projeto de lei no ano passado que tornaria o compartilhamento de tais imagens um crime federal, disse no X que a disseminação das imagens era “terrível”, acrescentando: “Está acontecendo com mulheres em todos os lugares, a cada dia."

A deputada Yvette D. Clarke, também de Nova York, disse que os avanços na inteligência artificial tornaram a criação de deepfakes mais fácil e barata.

“O que aconteceu com Taylor Swift não é novidade”, disse ela.

No Brasil, o projeto n° 2338, de 2023, que regulamenta o uso da inteligência artificial, proposto pelo senador Rodrigo Pacheco (PSD/MG), está tramitando no Senado e tem como relator Eduardo Gomes (PL-TO). Foi criada uma comissão temporária para analisar o texto, prevista para funcionar até abril deste ano.