Instagram e Facebook vão usar reconhecimento facial para barrar anúncios falsos com celebridades
Empresa também irá aplicar a tecnologia para tentar agilizar a retomada de contas hackeadas; Meta alega que informações biométricos dos usuários não serão armazenadas
O Instagram e o Facebook vão começar a testar um sistema de reconhecimento facial para bloquear anúncios falsos com rostos de celebridades e figuras públicas. O objetivo é barrar postagens usadas como isca para golpes, fraudes e venda de produtos.
Além do novo filtro para propaganda fake, o reconhecimento facial também será aplicado para os usuários das redes em uma ferramenta para ajudar na recuperação de contas hackeadas. Os novos recursos de segurança foram apresentados pela Meta nesta segunda-feira.
Ao adotar o reconhecimento facial, a Meta volta a aplicar a tecnologia três anos após decidir interromper seu uso, diante da pressão de reguladores e de preocupações com a privacidade dos usuários. Em julho, a gigante das redes sociais foi multada em US$ 1,4 bilhão, no Texas, por causa do uso indevido da tecnologia. Desde 2021, a empresa interrompeu o sistema que reconhecia rostos no Facebook, por exemplo.
Durante o anúncio do retorno do sistema, nesta segunda-feira, a big tech frisou que as informações de reconhecimento facial não serão armazenadas. A Meta também destacou que o sistema não será testado na União Europeia e no Reino Unido, regiões em que reguladores têm pressionado a companhia.
No caso da publicidade falsa, os testes começaram com pequenos grupos selecionados pela companhia. Nas próximas semanas, a empresa diz que irá ampliar o acesso ao filtro, com envio de notificação para celebridades, influenciadores e figuras conhecidas.
A partir de 2025, a empresa espera que a ferramenta seja amplamente implementada, afirmou Monika Bickert, vice-presidente de Políticas de Conteúdo da Meta.
O reconhecimento facial será ativado quando os sistemas de análise de anúncios da Meta identificarem que um conteúdo pode ser fraudulento, explicou ela, em conversa com jornalistas. Para bloquear a publicação, a ferramenta vai comparar o rosto no vídeo ou foto com as imagens que estão no perfil oficial dos alvos da propaganda fake.
"A tecnologia de reconhecimento facial vai avaliar o rosto usado no anúncio, analisando as características faciais e convertendo-as em uma equação, como o software de reconhecimento facial faz. Depois vai comparar essa equação com a avaliação facial das fotos reais da celebridade [...]. Se for encontrada uma correspondência, o anúncio será bloqueado", disse a executiva, que acrescentou que o processo será "muito rápido".
Em comunicado publicado em seu site, a Meta afirma que os testes iniciais com os grupos selecionados de celebridades e figuras públicas mostraram "resultados promissores" para aumentar a velocidade e a eficácia com que a plataforma detecta e bloqueia golpes com celebridades.
Resultado é incerto para 'deepfakes'
Bickert destacou que os novos filtros são adotados em um momento de "aumento global de fraudes e golpes" nas redes sociais e em sites.
No Brasil, figuras como o médico Dráuzio Varella e o apresentador Pedro Bial são algumas que já acusaram a Meta publicamente de ser leniente com a proliferação de propagandas falsas com seus rostos, frequentemente geradas por inteligência artificial. Segundo a empresa, o filtro não foi desenhado especificamente para os casos que envolvem IA, com as chamadas deepfakes.
Em conversa com jornalistas, a vice-presidente de Políticas de Conteúdo da Meta, afirmou que a tecnologia de reconhecimento facial não foi projetada especificamente para barrar deepfakes, mas destacou que ela "funciona avaliando características faciais", o que poderia funcionar também nesses casos. Ela destacou que o sistema poderia identificar anúncios fraudulentos com imagens geradas ou editadas por inteligência artificial, mas reconheceu que a Meta não sabe qual será o grau de eficiência nesses casos.
"Se você criar uma imagem gerada por IA que imite o rosto de uma figura pública e a usar em um anúncio fraudulento, a tecnologia de reconhecimento facial pode analisar essa imagem, compará-la com o rosto real da celebridade e determinar se há uma correspondência, identificando que se trata de uma fraude. Mas nós não sabemos exatamente o quão bem isso funcionaria ", afirmou a executiva.
'Vídeo selfie' para recuperar contas
No caso da recuperação de contas hackeadas, o reconhecimento facial será testado como uma forma de facilitar que o usuário recupere o perfil, um processo que pode ser demorado. Um dos usos comuns de contas "roubadas" é a aplicação de golpes em que o criminoso vende produtos se passando pela vítima.
Hoje, vítimas que têm os perfis invadidos precisam comprovar a identidade com documento oficial ou certificado, para que possam retomar o acesso. Com o recurso, a Meta vai passar a pedir o upload de uma selfie em vídeo, que será comparada com as imagens do perfil do usuário. A expectativa é que o método de verificação agilize a retomada das contas hackeadas.
"Isso já é usado em outros aplicativos, onde você grava seu rosto, e nós o comparamos com as fotos do perfil. Se encontrarmos uma correspondência, isso facilita o retorno à conta. Já começamos a testar esse método e esperamos ampliá-lo em breve ", disse Bickert.
A vice-presidente da Meta admitiu que as soluções não são "perfeitas", mas disse esperar que elas ofereçam um caminho mais "rápido e seguro" para as pessoas conseguirem acesso às contas.
A reativação do uso de reconhecimento facial pela Meta acontece em um momento em que a empresa tem coletado dados de usuários para treinar seus sistemas de inteligência artificial. A companhia, no entanto, ressaltou que o uso de dados biométricos ficarão restritos às aplicações de segurança.
Além do reconhecimento facial para anúncios, a empresa também irá aplicar o recurso para identificar perfis falsos que usem rostos de pessoas conhecidas. A expectativa é que mais aplicações com a tecnologia sejam desenvolvidas no futuro.
Inicialmente, a executiva afirmou que o Brasil ficaria de fora do lançamento dos recursos por "desafios regulatórios". A informação, depois, foi corrigida pela própria empresa.