CELEBRIDADES

X bloqueia buscas por "Taylor Swift" após fotos pornográficas falsas feitas com IA viralizarem

Uma dessas imagens foi vista 47 milhões de vezes na plataforma antes de ser removida na quinta-feira

Taylor Swift - Michael Tran/AFP

A plataforma X, antigo Twitter, bloqueou as pesquisas por "Taylor Swift" após fotos pornográficas falsas da cantora, geradas por inteligência artificial, viralizarem na rede. Fãs da cantora pop e políticos americanos expressaram indignação na sexta-feira com as falsas imagens, que ainda estavam disponíveis em outras plataformas.

Uma dessas imagens foi vista 47 milhões de vezes no X, antigo Twitter, antes de ser removida na quinta-feira. Segundo a mídia americana, a publicação ficou visível na plataforma por aproximadamente 17 horas.

Imagens pornográficas “deepfake” – falsas, mas extremamente realistas – de celebridades não são novidade. Mas os activistas e as autoridades estão preocupados com o facto de ferramentas fáceis de usar que empregam inteligência artificial (IA) generativa criarem uma inundação incontrolável de conteúdos tóxicos ou prejudiciais.

O ataque a Swift, o segundo artista mais ouvido do mundo na plataforma Spotify, depois do rapper canadense Drake, pode lançar uma nova luz sobre o fenômeno.

“A única fresta de esperança para isso acontecendo com Taylor Swift é que ela provavelmente tem poder suficiente para aprovar uma legislação para derrubá-la. Vocês estão doentes”, escreveu a influenciadora Danisha Carter no X.

X é uma das maiores plataformas de conteúdo pornográfico do mundo, dizem alguns analistas, já que suas políticas de nudez são mais flexíveis do que as das plataformas de propriedade da Meta, Facebook ou Instagram.
 

Em comunicado, X esclareceu que “a publicação de imagens de nudez não consensual (NCN) é estritamente proibida” em sua plataforma. “Temos uma política de tolerância zero em relação a esse conteúdo”.

A plataforma, de propriedade do magnata Elon Musk, disse que estava “removendo ativamente todas as imagens identificadas e tomando as medidas apropriadas contra as contas responsáveis por publicá-las”.

Além disso, sublinhou que estava a “monitorizar de perto a situação para garantir que quaisquer novas violações sejam resolvidas imediatamente e que o conteúdo seja removido”.

Os representantes de Swift não responderam imediatamente a um pedido de comentários da AFP.

Yvette Clarke, uma congressista democrata de Nova Iorque que apoiou legislação para combater fotos pornográficas falsas, destacou que “com os avanços na IA, criar deepfakes é mais fácil e barato”.

O legislador republicano Tom Keane alertou que “a tecnologia de inteligência artificial está a avançar mais rapidamente do que as barreiras necessárias”. “Quer a vítima seja Taylor Swift ou qualquer jovem do nosso país, devemos implementar salvaguardas para combater esta tendência alarmante”, acrescentou.

De acordo com uma pesquisa citada pela revista Wired, nos primeiros nove meses de 2023, 113 mil vídeos “deepfake” foram carregados nos sites pornográficos mais populares.