
Divulgação/Globo
Na última quinta-feira, dia 16, a operação Voiceover da Polícia Civil do Distrito Federal resultou na prisão de três indivíduos suspeitos de utilizar técnicas de deepfake – que manipulam imagens e sons por meio de inteligência artificial – para enganar pessoas.
Tudo começou após 27 denúncias em um intervalo de apenas quatro dias. Um vídeo falso que apresentava o famoso Marcos Mion como garoto-propaganda de uma promoção do restaurante Outback chamou a atenção das autoridades. Infelizmente, ao clicar no link da “oferta”, as vítimas eram levadas a um site fraudulento.
A investigação revelou que o principal objetivo por trás do golpe era coletar dados pessoais dos incautos para realizar fraudes financeiras.
Segundo Fabrício Carraro, especialista em inteligência artificial e program manager na Alura, o crescente uso de figuras públicas em deepfakes se dá pelo grande engajamento que seus nomes geram. “Esses golpistas buscam causar impactos, seja para manchar a reputação da pessoa ou para aumentar visualizações com a intenção de aplicar fraudes”, explica Carraro.
A lista de celebridades brasileiras que já foram alvo desse tipo de clonagem digital é longa e inclui nomes de peso como Neymar, Anitta, Eliana, Ana Maria Braga, William Bonner, Drauzio Varella, Ivete Sangalo, Mano Brown e Jade Picon, além de figuras políticas proeminentes.
De acordo com Carraro, o fenômeno das deepfakes não se restringe apenas ao Brasil; ele se alastra mundialmente, amplificado pelo fácil acesso às ferramentas de inteligência artificial. “Hoje, qualquer pessoa com um smartphone pode criar deepfakes em questão de minutos”, destaca.
Identificando Conteúdos Falsos: Um Guia Prático
Para se proteger de armadilhas online, Carraro recomenda um enfoque de “ceticismo crítico”. Isso significa questionar sempre a veracidade de vídeos, áudios ou imagens, mesmo quando provenientes de pessoas próximas.
Algumas dicas práticas podem ajudá-lo a identificar conteúdos gerados por inteligência artificial. Veja a seguir:
- Movimentos Oculares e Labiais: Deepfakes geralmente falham em reproduzir movimentos naturais, como os olhos piscando ou a sincronia entre a fala e os lábios.
- Iluminação e Sombras: Fique atento a inconsistências nas luzes e sombras, pois isso pode indicar manipulação.
- Qualidade do Áudio: Escute com atenção; conteúdos produzidos por IA podem soar artificiais, com entonações ou pausas estranhas.
Além disso, é fundamental analisar detalhes específicos:
- Detalhes Faciais: Examine áreas como bordas do rosto, cabelo e óculos, já que podem apresentar imperfeições.
- Movimentos Corporais: Observe se gestos e posturas parecem naturais e condizem com a personalidade da pessoa.
- Evitando Sensacionalismos: Golpistas tendem a utilizar deepfakes com mensagens alarmantes para criar um senso de urgência.
- Resolução do Vídeo: Vídeos manipulados podem apresentar baixa qualidade e resolução inferior ao normal.
- Confirme com Fontes Confiáveis: Se algo parecer suspeito, ligue diretamente para as pessoas ou organizações envolvidas ou busque informações em fontes confiáveis para verificar a veracidade.
Ao navegarmos rapidamente por informações nas redes sociais, é crucial manter um olhar crítico ante conteúdos duvidosos. A conquista pela verdade e segurança online é uma responsabilidade de todos nós. Lembre-se de estar sempre um passo à frente, adotando práticas seguras e confiáveis. Você já se deparou com algum vídeo ou imagem que não parecia autêntico? Compartilhe suas experiências e reflexões sobre como lidar com esse fenômeno tão atual e desafiador!