Por Mauro Vicente*
Os seres humanos são fortemente influenciados por sua percepção visual. Rapidamente reconhecemos o que vemos com os nossos próprios olhos, como sendo algo verdadeiro. Mas o que acontece quando não podemos mais confiar nos nossos sentidos? Nos últimos anos, o número das chamadas deepfakes tem aumentado consideravelmente, assim como a sua qualidade.
O que são deepfakes?
O que começou como um software de edição de fotos simples e inocente cresceu e se tornou uma indústria, que busca distorcer o ecossistema de informações de vídeos digitais. A partir do uso de programas profissionais para edição de imagem, som e vídeo, bem como o uso de ferramentas compatíveis com Inteligência Artificial (IA), grandes avanços estão ocorrendo no desenvolvimento de gravações de áudios, imagens e vídeos falsificados (deepfakes) nos últimos anos.
O especialista em análise de imagens digitais, Professor Hany Farid, da UC Berkeley, distingue as deepfakes em quatro tipos gerais:
- A pornografia não intencional é o exemplo mais comum. O rosto de qualquer mulher ou homem é inserido em um vídeo pornô e distribuído na internet.
- As campanhas de desinformação têm como objetivo divulgar informações falsas e enganar deliberadamente o público. Freqüentemente, abordam temas polêmicos com o objetivo de alimentar as discussões que estão surgindo.
- A falsificação de evidências legais tem o objetivo de documentar eventos, como má conduta policial, que nunca realmente ocorreram.
- A fraude clássica usando novas mídias também pode ter consequências criminais ou de segurança. Um exemplo disso é uma deepfake de áudio de 2019, solicitando uma transferência para uma empresa de energia do Reino Unido. O áudio personificava o CEO da empresa.
Saiba como identificar e reconhecer as deepfakes
Mas como você pode reconhecer essas falsificações? Uma possibilidade é analisar as peculiaridades e expressões faciais com muito cuidado e identificar as peculiaridades de cada pessoa. Farid chama isso de “biometria suave”, porque não é uma ciência exata, como o DNA ou as impressões digitais, que podem identificar alguém com muita segurança. A previsibilidade aumenta com as celebridades frequentemente filmadas, para as quais há uma grande quantidade de material de vídeo e que pode ser usada para comparar com “ticks” visuais. Por exemplo, se você tentar dizer as palavras “mãe”, “irmão” e “pais” sem fechar a boca, descobrirá rapidamente que só os ventríloquos conseguem. Quando Alec Baldwin faz suas imitações do Trump, ele não entende essas peculiaridades faciais, sugerindo uma farsa.
As plataformas de mídia social devem ser proativas
Temos alguns desafios. Primeiro, a tecnologia está evoluindo rapidamente e ficando melhor na criação de deepfakes atraentes. A velocidade de transmissão nas redes sociais também está aumentando. O que costumava levar dias ou semanas, hoje é realizado em horas ou até minutos. O público está polarizado agora. Isso significa que as pessoas estão dispostas a acreditar no pior daqueles que discordam ou que não gostam particularmente delas. Há também um aumento no que o professor Farid chama de “dividendo mentiroso”, o que quer dizer que a mera afirmação de que algo é falso, geralmente é suficiente para neutralizá-lo mesmo que não seja verdadeiro. Pessoas que já foram criticadas por uma certa conduta imprópria podem, cada vez mais, alegar que os arquivos incriminatórios são falsificados. Como resultado, a credibilidade das instâncias autênticas também é questionada.
Não há solução fácil para acabar com o apocalipse da desinformação. Em vez disso, as plataformas sociais precisam assumir a responsabilidade e colocar uma marcação melhor com foco mais forte na regulação do alcance e na apresentação de pontos de vista alternativos, ao invés de simplesmente remover um conteúdo ofensivo ou falso.
*Mauro Vicente, Gerente Regional de Vendas para Latam da Avast Business.