Com o avanço da inteligência artificial (IA), distinguir vídeos reais de falsificações geradas por IA tornou-se um desafio crescente. Vídeos de baixa qualidade, com imagens borradas ou pixelizadas, podem ser um indicativo de manipulação por IA, pois essas imperfeições ajudam a esconder inconsistências. Hany Farid, especialista em forense digital, destaca que a baixa qualidade é um dos primeiros sinais a serem observados. No entanto, ele ressalta que essa não é uma regra definitiva, já que as ferramentas de IA estão evoluindo rapidamente e vídeos de alta qualidade também podem ser falsos.
Outros sinais de alerta incluem a duração do vídeo, que geralmente é curta em vídeos gerados por IA devido ao alto custo de produção. Além disso, é importante observar texturas de pele excessivamente suaves, padrões de cabelo ou roupas inconsistentes e objetos de fundo com movimentos irreais. A resolução e a compressão do vídeo também podem ser indicadores, pois a redução da qualidade é uma técnica comum para ocultar imperfeições.
Especialistas como Matthew Stamm alertam que essas dicas visuais podem se tornar obsoletas em breve, à medida que a IA se torna mais sofisticada. No entanto, técnicas forenses digitais mais avançadas estão sendo desenvolvidas para detectar traços estatísticos invisíveis a olho nu, como ‘impressões digitais’ deixadas pela IA.
Mike Caulfield, especialista em alfabetização digital, enfatiza a importância de verificar a origem e o contexto do vídeo, em vez de se concentrar apenas em suas características visuais. Assim como fazemos com o texto, devemos investigar a fonte da informação e verificar se ela é confiável. As empresas de tecnologia também estão desenvolvendo padrões para verificar a autenticidade de informações digitais, como a incorporação de metadados nas imagens para comprovar sua origem.
Apesar dos desafios, os especialistas mantêm a esperança de que uma combinação de soluções tecnológicas, educação e políticas inteligentes possa ajudar a combater a desinformação na era da IA.