pornografia deepfake

Estudantes são alvo de pornografia falsa criada com IA nos EUA

Pornografia deepfake provocou escândalos e casos de assédio em várias escolas dos EUA

Inteligência Artificial (IA) faz com que os chamados "deepfakes" sejam cada vez mais realistasInteligência Artificial (IA) faz com que os chamados "deepfakes" sejam cada vez mais realistas - Foto: Stefani Reynolds/AFP

Ao acordar em uma manhã de outubro, Ellis, uma adolescente de 14 anos do Texas, tinha várias chamadas perdidas e mensagens de texto com imagens dela nua que circulavam nas redes sociais.

As fotos falsas (baseadas em seu rosto real e um corpo nu sobreposto) foram enviadas a colegas de sala que poderiam imaginar o engano.

É que a Inteligência Artificial (IA) faz com que os chamados “deepfakes” (vídeos, imagens e áudios generativos que imitam a aparência e filhos de uma pessoa) sejam cada vez mais realistas.

As imagens originais de Ellis e sua amiga, que também foi vítima, foram capturadas pelo Instagram, contou um estudante à AFP.

Outros colegas de sala também foram vítimas. Depois, as fotos foram compartilhadas pelo aplicativo Snapchat.

"Parecia real, como se os corpos (nus) parecem sem corpos reais", disse um adolescente. “Lembrou que ficou muito, muito assustado”.

Com o desenvolvimento da IA, cresce também a pornografia deepfake, com fotos e vídeos muito realistas que podem ser criados com um mínimo de esforço e dinheiro, o que provocou escândalos e casos de assédio em várias escolas dos Estados Unidos.

As autoridades tentam suprir a falta de legislação federal que proíba a prática.

"As meninas não paravam de chorar e chorar. Estão muito envergonhadas", declarou Anna McAdams, mãe de Ellis. "Não quero ir para a escola".

- Um telefone e alguns dólares -
A prática se expandiu, embora não se saiba quanto. No final do mês, outro caso foi registrado em Nova Jersey.

“Isto ocorre com cada vez mais frequência”, afirmou Dorota Mani, mãe de uma das vítimas, também de 14 anos.

Afirmou que pode haver deepfakes pornográficos na internet de uma pessoa mesmo que ela não saiba e que apenas são investigados os casos relatados pelas vítimas.

Segundo os especialistas, a lei tardou em se atualizar em relação à tecnologia, apesar de já existirem casos de versões mais grosseiras de pornografia falsa há anos, muitas vezes de pessoas famosas.

Agora, no entanto, qualquer pessoa com uma foto no Linkedin pode ser uma vítima.

Sabia-se “que seria utilizado desta forma”, declarou à AFP Henry Farid, professor de informática na Universidade da Califórnia em Berkeley.

No mês passado, o presidente americano Joe Biden assinou um decreto sobre a IA que pede ao governo para criar barreiras "contra a produção de material de abuso sexual infantil e contra a produção de imagens íntimas não consensuais de indivíduos reais".

Em muitos casos, tem sido difícil encontrar os autores, mas isso não deveria impedir que as empresas de Inteligência Artificial e as plataformas das redes sociais prestassem contas, estima Farid.

O problema é que não existe uma lei federal que restrinja esta pornografia e apenas alguns estados aprovaram leis neste sentido.

“Embora se sobreponha a seu rosto, o corpo não é realmente seu”, disse Renee Cummings, especialista em ética da IA.

Isto pode criar uma "contradição na lei", explicada à AFP por uma professora da Universidade de Virgínia, já que é possível argumentar que as leis existentes proíbem a distribuição de fotografias sexuais não autorizadas, não se aplicam a deepfakes.

Além disso, qualquer um que tenha “um ‘smartphone’ e alguns dólares” pode fazer as fotos.

A pornografia deepfake "pode destruir a vida de alguém", revelou Cummings, citando vítimas que sofrem com ansiedade, depressão e estresse pós-traumático.

Veja também

Vale: Esperamos chegar a um acordo final no processo de mediação em outubro
Vale

Vale: Esperamos chegar a um acordo final no processo de mediação em outubro

Quem são os advogados que o X (Twitter) contratou no Brasil
Twitter

Quem são os advogados que o X (Twitter) contratou no Brasil

Newsletter