Nos últimos anos, o deepfake se juntou às fake news quando o assunto é a propagação de desinformação e conteúdo falso na internet. No entanto, o potencial do deepfake vai muito além do das fake news, já que essa tecnologia pode afetar diretamente não só empresas e governos, mas também cidadãos comuns. Mas o que […]
Nos últimos anos, o deepfake se juntou às fake news quando o assunto é a propagação de desinformação e conteúdo falso na internet. No entanto, o potencial do deepfake vai muito além do das fake news, já que essa tecnologia pode afetar diretamente não só empresas e governos, mas também cidadãos comuns.
Mas o que é o deepfake? Ele ocorre quando a inteligência artificial (IA) funde, combina, substitui ou sobrepõe áudios e imagens para criar arquivos falsos em que pessoas podem ser colocadas em qualquer situação, dizendo frases que elas nunca diriam ou fazendo coisas que não condizem com o seu caráter. São inúmeras as possibilidades: troca de rostos, clonagem de voz, sincronização labial com uma faixa de áudio diferente da original, e muitas outras.
Segundo um estudo da Accenture Technology Vision 2022, o risco de IA maliciosa levanta preocupações de segurança entre as organizações. De acordo com o levantamento, 100% dos executivos brasileiros relatam preocupação com deepfakes e/ou ataques de desinformação. A preocupação com fraudes e golpes é a maior (61%), seguida de violações de TI/segurança (58%), e ameaças e danos à reputação (47%).
O Gartner aponta que o deepfake será cada vez mais usado para roubar dinheiro ou informações valiosas. Segundo um levantamento feito este ano, em 2023, as empresas gastarão até US$ 188 bilhões em soluções de segurança cibernética.
É importante pontuar, porém, que se a inteligência artificial é o instrumento usado para criar deepfakes, é ela quem pode ser usada para identificar esse tipo de conteúdo.
Foi com esse pensamento que a Intel criou, este ano, o FakeCatcher. A ferramenta é um conjunto de diversas tecnologias da empresa trabalhando em sintonia para identificar deepfakes. Cada solução tem um papel a desempenhar no Fake Catcher: o OpenVino executa modelos de inteligência artificial para detecção de rostos e pontos de referência, enquanto o OpenCV é usado para processamento de imagens em tempo real. Outras tecnologias como o Intel Integrated Performance Primitives e o Intel Deep Learning Boost também têm papéis a desempenhar para garantir que o FakeCatcher funcione.
Quando trabalhando em conjunto, todas essas ferramentas conseguem analisar e avaliar uma característica humana que nós nunca damos muita atenção: o fluxo sanguíneo do rosto.
Embora não consigamos enxergar isso a olho nu, as nossas veias mudam de cor por causa do fluxo de sangue que passa por elas. No entanto, os sinais do fluxo sanguíneo podem ser detectados no nível dos pixels. É exatamente com base nisso que o FakeCatcher trabalha.
Os sinais de fluxo sanguíneo de alguém em um vídeo são coletados de todo o rosto e os algoritmos traduzem esses sinais em mapas espaço-temporais. É usando o deep learning que podemos detectar instantaneamente se um vídeo é real ou falso. Por isso, o FakeCatcher tem uma taxa de precisão de 96% e a plataforma é o primeiro detector de deepfake em tempo real do mundo que retorna resultados em milissegundos. O FakeCatcher é um exemplo de como podemos manter o avanço de qualquer tipo de tecnologia sob controle.
A IA tem o potencial de melhorar a qualidade de vida de pessoas ao redor do mundo, e ela é utilizada todos os dias de forma responsável e confiável. No entanto, às vezes, desdobramentos como o deepfake surgem. Por isso, vale ressaltar que o problema não está na tecnologia em si, mas sim em como a usamos.
Fabiano Sabatini é Gerente Técnico e Especialista em IoT da Intel Brasil