TECNOLOGIA

Meta identificará em suas redes sociais áudios, imagens e vídeos gerados por IA

Conteúdos serão marcados se plataforma detectar "indicadores de imagem de IA conforme normas da indústria" ou se "pessoas indicarem que estão carregando conteúdos gerados por IA"

Meta - Kirill Kudryavtsev/AFP

A Meta identificará, a partir de maio, áudios, imagens e vídeos gerados por inteligência artificial (IA) em suas redes sociais, informou nesta sexta-feira a gigante tecnológica americana, matriz do Facebook, Instagram e Threads.

"Prevemos começar a marcar o conteúdo gerado por IA em maio de 2024", indicou em seu blog Monika Bickert, vice-presidente de conteúdo da Meta, acrescentando que a menção "Made with AI", já usada em imagens fotorrealistas, seria aplicada a "um maior número de conteúdos de vídeo, áudio e de imagens".

Estes conteúdos serão marcados se a plataforma detectar "indicadores de imagem de IA conforme as normas da indústria" ou se "as pessoas indicarem que estão carregando conteúdos gerados por IA", destacou. De forma geral, o grupo californiano anuncia que modificará sua forma de tratar os conteúdos criados com IA, depois de consultar seu conselho de supervisão, que considera "a transparência e um maior contexto como a melhor forma de tratar os conteúdos manipulados".

Com isso, evita-se "o risco de restringir sem necessidade a liberdade de expressão". Em vez de eliminá-los, como era feito até agora, serão acrescentados "etiquetas e contexto" a estes conteúdos. No entanto, advertiu a Meta, qualquer conteúdo, seja criado por um humano ou por IA, que viole as regras "contra a interferência nos processos eleitorais, a intimidação, o assédio, a violência (...) ou qualquer outra política em nossas normas comunitárias" será retirado.

A Meta reafirmou que confia em sua rede de "aproximadamente 100 verificadores de dados independentes" para detectar conteúdos gerados por IA "falsos ou enganosos". A empresa matriz do Facebook anunciou em fevereiro seu desejo de etiquetar todas as imagens geradas por IA para lutar contra a desinformação.

Outros gigantes como Microsoft, Google e OpenAI têm assumido compromissos similares. O temor é de que as pessoas utilizem estas ferramentas para semear o caos político, especialmente através da desinformação ou informação errada. Há várias eleições importantes este ano, especialmente nos Estados Unidos.

Para além das datas eleitorais, o desenvolvimento de programas de IA generativa leva a produção de um fluxo de conteúdo degradante, segundo muitos especialistas e reguladores, como as falsas imagens ("deepfakes") pornográficas de mulheres famosas, um fenômeno que também afeta pessoas anônimas.