Conforme destacado pelo Fórum Econômico Mundial, a desinformação e as informações falsas geradas por IA estão se tornando os maiores riscos globais de curto prazo neste ano. Com metade da população mundial envolvida em processos eleitorais, a desinformação por meio de deepfakes apresenta um perigo significativo para a democracia. Antes das eleições gerais no Reino Unido, candidatos foram alertados sobre a possível circulação de desinformação gerada por IA, incluindo vídeos, áudios e imagens manipulados para difamar oponentes ou forjar apoios.
Nos últimos anos, a tecnologia de deepfakes de áudio tornou-se mais acessível e convincente. Algumas ferramentas de IA conseguem imitar a voz de uma pessoa usando apenas alguns minutos de áudio, facilmente obtidos de figuras públicas, permitindo que golpistas criem gravações manipuladas de praticamente qualquer indivíduo.
Mas essa ameaça é realmente tão grande? Será que o perigo dos deepfakes está sendo superestimado ou está passando despercebido?
Deepfakes e a disseminação de desinformação
Os deepfakes têm gerado preocupação em áreas como mídias sociais, política e setor público. Agora, com os avanços tecnológicos tornando vozes e imagens geradas por IA mais realistas do que nunca, indivíduos mal-intencionados estão usando essas ferramentas para atacar empresas.
Em um caso recente envolvendo o grupo de publicidade WPP, hackers utilizaram uma combinação de vídeos deepfake e clonagem de voz para tentar enganar executivos, fazendo-os acreditar que estavam discutindo negócios com colegas, com o objetivo de extrair dinheiro e informações sensíveis. Embora não tenham tido sucesso, esse ataque cibernético sofisticado destaca a vulnerabilidade de pessoas cujas informações estão facilmente disponíveis online.
Esse cenário reforça o temor de que o grande volume de conteúdo gerado por IA possa dificultar para os consumidores distinguirem entre informações autênticas e manipuladas. De acordo com pesquisa da Jumio, 60% das pessoas admitiram ter encontrado um deepfake no último ano, e 72% se preocupam diariamente em serem enganadas para fornecer informações sensíveis ou dinheiro. Isso evidencia a necessidade de um diálogo transparente para enfrentar esse desafio e capacitar tanto as empresas quanto os usuários com ferramentas para identificar e reportar deepfakes.
Utilizando IA para combater a própria IA
A educação sobre como detectar deepfakes é importante, mas não suficiente. Departamentos de TI estão se apressando para implementar políticas e sistemas mais eficazes para prevenir essas ameaças. Fraudadores estão empregando técnicas sofisticadas, como rostos deepfake, morphing facial e troca de faces, para personificar funcionários e clientes, tornando difícil identificar impostores.
Por outro lado, a IA avançada pode ser a chave não apenas para se defender, mas também para combater ativamente as ameaças cibernéticas dos deepfakes. Para as empresas, verificar a autenticidade das pessoas que acessam contas é crucial para prevenir atividades fraudulentas, como sequestro de contas e transações não autorizadas. Sistemas de verificação baseados em biometria são essenciais para eliminar tentativas de deepfake. Ao usar características biológicas únicas, como impressões digitais e reconhecimento facial, para verificar identidades durante logins, torna-se muito mais difícil para os fraudadores invadirem contas. Combinar múltiplos métodos biométricos fortalece ainda mais a segurança.
Além disso, a IA pode detectar atividades fraudulentas em tempo real por meio de análises preditivas. Algoritmos de aprendizado de máquina podem analisar vastas quantidades de dados para identificar padrões incomuns que indiquem fraude. Esses sistemas aprendem continuamente, comparando o comportamento de fraudadores com o de usuários legítimos. Por exemplo, a IA pode monitorar padrões de uso de dispositivos e números de telefone ao fazer login em contas críticas, como e-mails ou bancos, para detectar atividades suspeitas.
Ao cadastrar um novo usuário, não basta mais verificar seu documento de identidade e aceitar uma selfie. É necessário detectar deepfakes tanto do documento quanto da selfie usando medidas de verificação em tempo real. Isso inclui verificação avançada de selfies e detecção de vivacidade, capaz de identificar ataques de falsificação.
Para prevenir efetivamente deepfakes, a solução deve controlar o processo de captura da selfie, coletando uma série de imagens para confirmar a presença física e atenção da pessoa. A tecnologia biométrica compara então características faciais específicas—como a distância entre olhos, nariz e orelhas—com as da foto no documento, assegurando que se trata da mesma pessoa. Além disso, a verificação da selfie pode incluir estimativas de idade para sinalizar discrepâncias em relação aos dados do documento.
O futuro dos deepfakes
No restante de 2024 e além, o potencial de conteúdos gerados por IA alimentarem a desinformação, perturbarem processos democráticos, prejudicarem reputações e causarem incerteza pública não deve ser subestimado.
Em última análise, não existe uma solução única para mitigar a ameaça dos deepfakes. A lição principal para as empresas é não negligenciar o uso da IA em suas próprias defesas.
Combater IA com IA oferece às organizações a melhor chance de enfrentar o crescente volume e sofisticação das ameaças, garantindo segurança e confiança em um mundo cada vez mais digital.