Inteligência artificial

YouTube vai obrigar usuários a identificar vídeos feitos com inteligência artificial

O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo

YouTube vai obrigar usuários a identificar vídeos feitos com IA - YouTube/Reprodução

O YouTube passou a exigir dos criadores a inclusão de um aviso na publicação de conteúdos realistas feitos com inteligência artificial (IA). A intenção da plataforma é evitar a confusão de vídeos manipulados e fictícios com eventos, locais e pessoas reais.

Agora, durante a publicação de vídeos, o criador é obrigado a indicar, com sim ou não, se o conteúdo faz uma pessoa real dizer ou fazer algo que ela não fez, se altera algum registro visual, evento real ou lugar e se gera uma cena realista que nunca existiu. Ao selecionar sim, um aviso de que o conteúdo é sintético ou alterado aparece na descrição do vídeo em questão.

O sistema se baseia na honestidade do usuário em declarar o conteúdo de seu vídeo. Contudo, o YouTube afirma que pode adicionar um aviso mesmo se o criador não o fizer. Outros rótulos serão incluídos em vídeos com conteúdos sensíveis como saúde, eleições e finanças.

A medida, que foi implementada nesta segunda-feira, 18, foi originalmente anunciada em novembro de 2023 na forma de uma atualização das políticas do YouTube para conteúdos baseados em IA. Vídeos gerados por IA mas que não usam a aparência ou voz de uma pessoa real nem alteram eventos ou locais reais, não são afetados pela medida.

Outro recurso mencionado em novembro mas que ainda não foi implementado na última atualização da plataforma é a possibilidade de uma pessoa comum solicitar um pedido de avaliação em vídeos de deepfake que usam sua imagem.