SAIBA O QUE SÃO OS ‘DEEPFAKES’ – (ASSISTA AO VÍDEO)
Facebook
Twitter
LinkedIn
Email
WhatsApp
Print
Eleições – ‘Deepfakes’ utilizam inteligência artificial para alteração de imagens; especialistas veem risco para eleições. Tecnologia desenvolvida por Inteligência Artificial “deepfake”, permite trocar o rosto de uma pessoa pelo de outra.
Vai ficar muito difícil ou até impossível de se distinguir o real do falso. Qualquer pessoa – presidente, político, ator, celebridade pode ter sua imagem sequestrada por deepfake.
Imagine o seguinte cenário: o ano é 2020 e a situação diplomática entre Estados Unidos e Coreia do Norte é tensa. Uma rede de TV recebe um vídeo inédito, de fonte anônima, que mostra o líder Kim Jong-un discutindo com generais o lançamento de um ataque nuclear.
Na Casa Branca, o vídeo é analisado, mas a inteligência não consegue verificar a autenticidade. O presidente americano tem de agir – e ordena um contra-ataque. Uma guerra começa.
O pesquisador Giorgio Patrini, da Universidade de Amsterdã, na Holanda, imaginou o cenário acima para alertar sobre uma preocupante modalidade de informação falsa: os deepfakes.
São vídeos que simulam cenas aplicando técnicas de inteligência artificial a imagens existentes. Até pouco tempo, o fenômeno se restringia ao mundo de filmes adultos.
Mas, com a criação de novas tecnologias, existe a preocupação entre especialistas de que filmagens falsas possam comprometer também o processo eleitoral e outros aspectos da vida moderna.
“Se houver incentivo financeiro ou político suficiente para que atores mal-intencionados façam isso, é inteiramente possível que a fabricação de vídeos seja usada em futuras campanhas políticas”, diz Patrini, que trabalha no Delta Lab (Deep Learning Technologies Amsterdam), da Universidade de Amsterdã e Bosch.
Patrini afirma que, de tão forte o impacto de um vídeo falso, a mensagem manipulada tende a ser aceita por quem quer acreditar nela – mesmo que comprovada a falsidade. “Os psicólogos nos advertem de duas falácias humanas: a tendência a acreditar em informações falsas após exposição repetida (efeito de verdade ilusório) e a acreditar em informações falsas quando apenas confirmam nossas crenças anteriores.”
O cientista da computação brasileiro Virgilio Almeida, professor associado de Harvard, alerta, no entanto, que a produção de vídeos falsos sem grande refinamento já é acessível hoje.
“Se pensarmos que já em 2014 usaram bots (redução de robôs em inglês), isso certamente vai ser utilizado. Mas as pessoas acreditam muito no que veem. Muitos não vão acreditar, mas muitos vão. O processo eleitoral passa a ser muito levado por isso”, afirmou ele.
Se as eleições deste ano já podem ter o rebuliço do compartilhamento de vídeos falsos, Patrini salienta que as possíveis repercussões da manipulação audiovisual vão além da política.
Considere, por exemplo, o uso de áudios e vídeos como provas em processos criminais. Se não pudermos mais confiar em sua autenticidade, como poderemos aceitá-los como evidência?
Soluções – Se o prognóstico das deepfakes é pessimista, isso se dá, em grande parte, porque ainda não há técnica desenvolvida para identificar os audiovisuais falsos. “É muito difícil descobrir vídeos falsos e não existe detectores em larga escala. As técnicas de perícia digital estão muito atrás”, aponta Almeida.
Patrini sugere que a tecnologia de defesa contra deepfakes siga dois caminhos. O primeiro seria a criação de uma assinatura digital em vídeos – análoga a marcas d’água em notas de dinheiro -, que garantiria a autenticidade da câmera que deu origem a um filme e a ausência de edições.
No entanto, uma assinatura digital seria invalidada por qualquer tipo de edição, mesmo os “benignos” – incluindo mudança de contraste e pequenos cortes. Além disso, não haveria como assegurar a veracidade de vídeos antigos, anteriores a uma possível implementação de assinaturas.
Outra solução vai na linha do “feitiço contra o feiticeiro”: usar inteligência artificial e machine learning para criar detectores de vídeos falsos. A ideia é treinar computadores para identificar sinais de adulteração que seriam invisíveis a olhos humanos. O pesquisador considera esta a melhor opção.
“Assim como o aprendizado de máquina nos possibilita meios poderosos de manipulação da mídia, ele pode resgatar e trabalhar como um discriminador, informando-nos quando o conteúdo audiovisual parece ser uma falsificação.”