Deepfake: especialista explica como detectar e se proteger de vídeos falsos na internet
Membro do IEEE, professor Gabriel Gomes de Oliveira alerta para a proteção contra as deepfakes
Aprender a identificar vídeos falsos, as chamadas deepfakes, é essencial para evitar e se resguardar da manipulação de informações em tempos de avanços das funcionalidades e complexidades da inteligência artificial (IA).
É também importante o cuidado com o uso cada vez mais frequente das realidades aumentada e virtual. O usuário precisa ficar atento à preservação de sua privacidade nas redes sociais e em toda a internet.
O termo deepfake nasce da combinação de "deep learning" (aprendizado profundo) e "fake" (falsificação).
As deepfakes nada mais são, portanto, do que imagens e vídeos falsos que emulam a realidade. Elas representam uma crescente preocupação em áreas como mídia, política e segurança pessoal.
É o caso, por exemplo, de materiais em que aparecem um político, um jornalista ou qualquer outra figura pública ou não pública em situações fabricadas e não reais.
Em tempos de eleição, inclusive, o tema é ainda mais eminente no debate público.
Leia Também
• Ásia lidera ranking de polos de ciência e tecnologia da ONU
• Instagram testa perfis no ''estilo TikTok'' com fotos e vídeos na vertical
• Tech Woman 2024: evento de tecnologia para mulheres oferece 700 vagas gratuitas
Com essas ferramentas baseadas em IA e outras ferramentas tecnológicas, é possível produzir vídeos em que uma pessoa parece estar dizendo ou fazendo algo que nunca aconteceu de fato.
Os conteúdos usam algoritmos e softwares para alterar aparência e voz de uma pessoa e criar uma simulação tão real que pode ser convincente.
As deepfakes tornaram-se, nos últimos anos, um foco de atenção e preocupação para governo, sociedade e meios de comunicação, como garante o professor Gabriel Gomes de Oliveira, membro do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), maior organização técnica do mundo dedicada ao avanço da tecnologia em benefício da humanidade.
“A inteligência artificial vem melhorando, vamos criando algoritmos cada vez melhores e consequentemente promovendo o bem e o mal. Isso é nítido nas deepfakes. É extremamente importante o uso de ferramentas para combatê-las para que tenhamos um cenário mais transparente possível”, pontuou Gabriel Gomes de Oliveira, que também é professor pesquisador na Universidade Estadual de Campinas (Unicamp) e no Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).
O professor ainda ressalta o esforço dos veículos de comunicação para combater as deepfakes e conscientizar a população, mas também cobra maior participação dos governos.
“Há um enorme esforço mundo afora, mas é lógico e é preciso também mais avanços do governo, de incentivos, cartilhas. O Brasil é muito grande, temos inúmeros desafios”, pontuou.
E será que existe algum lado positivo no uso das deepfakes? Para o membro do IEEE, partir do próprio significado do termo, que denota algo falso, dificulta esse entendimento:
“É muito difícil você trazer algum benefício. Eu entendo que só existem malefícios. É lógico que em algum momento ou outro para entretenimento, talvez. Isso entra basicamente no aspecto ético. No governo brasileiro, a gente trabalha com ética na política pública. Estamos vivenciando um avanço muito grande da tecnologia”.
Deepfakes: dicas para ajudar na identificação
O professor também destaca a importância de educar a população sobre as ameaças dos deepfakes e as melhores práticas para proteger a privacidade.
Características sutis nos vídeos podem ajudar o usuário a detectar se o material é uma deepfake ou não.
A detecção da ameaça envolve o reconhecimento de anomalias digitais como a forma que a pessoa fala e o piscar de olhos, por exemplo. Confira:
- Elementos digitais na imagem: pequenas inconsistências que não estariam presentes em vídeos autênticos;
- Iluminação da cena: variações não naturais na iluminação de um quadro para o outro;
- Movimentos bruscos: movimentos que parecem mecânicos ou fora do ritmo natural;
- Tom de pele: mudanças abruptas no tom de pele que podem indicar manipulação;
- Aspecto piscante dos olhos: frequência de piscadas que não correspondem a um comportamento humano normal;
- Sincronia labial com a fala: lábios que não se movem de forma sincronizada com o áudio.
“Nada adianta a gente ter tecnologias, eficiência e um ecossistema inteligente sendo que o usuário final não está usando da forma correta. Eu preciso que aquele cidadão esteja informado da forma correta e isso parte muito da comunicação eficiente do governo. Tem quer simples, fácil e rápida. Dependemos realmente do governo, que é o ponto principal para explicar de forma fácil e compreensiva para qualquer cidadão”, acrescentou o professor ao falar sobre a atenção que deve ser dada ao usuário final.
Legislação
Projeto de Lei que tramita no Congresso Nacional busca restringir a manipulação de imagens com inteligência artificial. O texto prevê a hipótese qualificada para o crime de falsa identidade.
Segundo a Agência Senado, quem criar imagem ou vídeo falso com deepfake para atribuir falsa identidade a si ou a outra pessoa poderá ser condenado a entre um e cinco anos de reclusão e multa.
“A pena será reduzida em um terço ou até a metade para quem divulgar dolosamente o material criminoso. Atualmente, a falsa identidade pode gerar multa ou detenção de três meses a um ano”, explica a agência.
O PL tramita, desde fevereiro, na Câmara dos Deputados, de onde deverá seguir posteriormente, caso seja aprovado, para o Senado Federal e eventual sanção da Presidência da República.
Já o Tribunal Superior Eleitoral (TSE) proibiu este ano o uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições.
Foi a primeira vez que o tribunal regulamentou o uso da IA nas propagandas de partidos, coligações, federações partidárias, candidatas e candidatos em pleitos. A indicação de uso da inteligência artificial em conteúdos ainda passou a ser obrigatória.
Proteção da privacidade
Para mitigar os riscos da coleta de vasta quantidade de dados sensoriais, o que pode representar riscos significativos à privacidade do usuário, o professor sugere medidas como:
- Revisão de sistemas e infraestrutura;
- garantia de que todas as fontes de dados sejam seguras e confiáveis;
- emprego de especialistas em cibersegurança para fortalecer as defesas;
- contratar serviços específicos para identificar e mitigar vulnerabilidades;
- investir em treinamentos contínuos para qualificar colaboradores; e
- monitorar e analisar dados internos para detectar ameaças ou violações.
É importante também valorizar a educação sobre ameaças atuais, exercícios simulados, protocolos de relatório, aprendizado contínuo e atualizações e construção de uma cultura de segurança.
E o futuro?
O futuro passa pelo debate ainda mais ligado a questões éticas, segundo o especialista do IEEE.
Para Gabriel Gomes de Oliveira, nos próximos anos, será ainda mais frequente a presença do analista ético, profissional responsável por verificar o impacto ético em determinada sociedade ou ecossistema das ferramentas ligadas à IA.
“Num futuro tão próximo que a gente nem vai esperar muito. Realmente a ética está muito intrínseca nesse contexto. O governo tem como objetivo nos proteger, mas como vai proteger se não tem mercado? A gente vai ter um avanço significativo de mudanças nos aspectos legais, como aconteceu, por exemplo, com a LGPD [Lei Geral de Proteção de Dados]. Vamos ter leis mais duras, restrições, vamos ter algumas iniciativas. É uma sinergia importante para preservarmos o nosso futuro, no sentido de nos resguardar”.