Cómo detectar deepfakes y videos generados por IA
No basta ver para creer
LA NOTA ZACATECAS
FOTOS: CORTESÍA
CIUDAD DE MEXICO.- En los últimos años, los deepfakes y los videos falsos generados con inteligencia artificial (IA) han inundado las redes sociales, plataformas de noticias y hasta conversaciones familiares en WhatsApp.
La capacidad de crear imágenes y clips hiperrealistas que parecen auténticos plantea una pregunta urgente: ¿cómo saber si lo que vemos es real o ha sido fabricado por una máquina?
Detectar videos falsos con IA se ha convertido en una habilidad esencial para navegar el mundo digital actual sin caer en engaños virales o campañas de desinformación.
Desde políticos diciendo cosas que nunca dijeron hasta animales exóticos con boletos de avión, los casos de videos falsos creados por IA se multiplican.
Algunos son humorísticos, otros peligrosos. El reciente video viral del “canguro intentando abordar un avión” es sólo un ejemplo de cómo estos montajes pueden parecer convincentes y engañar a miles.
¿Qué son los deepfakes y por qué deberías preocuparte?
Los deepfakes son videos manipulados mediante inteligencia artificial para hacer parecer que alguien dijo o hizo algo que en realidad nunca ocurrió. Se crean usando técnicas como el aprendizaje profundo (deep learning), en especial redes neuronales generativas (GANs, por sus siglas en inglés).
Aunque esta tecnología comenzó como un experimento dentro del mundo del entretenimiento y los efectos especiales, ha evolucionado rápidamente hasta convertirse en una herramienta accesible para cualquier persona con un celular y conexión a internet.
El problema es que esta accesibilidad ha dado paso a fraudes, estafas, acoso, manipulación política y desinformación masiva.
Cómo detectar un video falso con IA: señales clave
Aunque los deepfakes son cada vez más sofisticados, aún existen pistas que pueden ayudar a identificarlos:
Movimientos extraños o poco naturales
Presta atención al parpadeo, los gestos y los movimientos corporales. Los videos falsos suelen tener momentos en los que la cabeza se mueve de forma poco realista o los ojos parpadean menos de lo normal.
Sincronización irregular entre voz y labios
Si los labios no coinciden perfectamente con lo que se escucha, es posible que estés ante un deepfake. Aunque los audios generados por IA son cada vez más precisos, el lip-syncing suele delatar el montaje.
Iluminación y sombras incoherentes
Un rostro bien iluminado con sombras inexistentes en el entorno, o elementos con luces que no coinciden con el resto del video, son señales comunes de que fue alterado digitalmente.
Errores en detalles como manos, dientes o pupilas
Aunque parezcan mínimos, muchos deepfakes fallan en detalles como la cantidad de dedos, la forma de las pupilas o incluso el número de dientes. Fíjate bien en lo que parece «casi real» pero no termina de encajar.
Fuente dudosa o sin contexto
Si el video no está respaldado por una fuente oficial o aparece repentinamente sin contexto alguno, es buena idea verificarlo antes de compartirlo. Utiliza herramientas de verificación como InVID, Hive Moderation, Deepware Scanner o FotoForensics.
Herramientas que te ayudan a verificar contenido
Hoy en día existen plataformas diseñadas para ayudarte a distinguir entre lo auténtico y lo generado por IA. Algunas de las más utilizadas son:
Hive Moderation: Detecta con alta precisión si una imagen o video fue generado con inteligencia artificial.
InVID: Una herramienta de análisis de videos para verificar contenido sospechoso, ideal para periodistas.
Deepware Scanner: Especializada en identificar deepfakes y contenido manipulado.
FotoForensics: Analiza metadatos y alteraciones en imágenes.
¿Por qué es importante saber diferenciar lo real de lo falso?
Caer en un engaño digital no sólo afecta tu percepción de la realidad, sino que puede tener consecuencias graves: compartir noticias falsas, dañar la reputación de alguien, ser víctima de estafas, o incluso propagar discursos de odio o manipulación política.
En países donde hay elecciones, por ejemplo, los deepfakes se han utilizado para difamar candidatos o crear situaciones falsas que alteran la opinión pública. En otros casos, personas han sido víctimas de extorsión con videos generados por IA en los que aparecen diciendo cosas que jamás dijeron.

