Atemporal 17 min de lectura

Cómo se crean los deepfakes y por qué su detección fracasa estructuralmente

Este artículo fue traducido automáticamente del inglés por una IA. Leer la versión original en inglés →
Tecnología de detección de deepfakes luchando contra rostros generados por IA avanzada
Modo de lectura

La detección de deepfakes está fallando. No porque los detectores estén mal construidos, sino porque el problema que intentan resolver se vuelve estructuralmente más difícil con cada nueva generación de modelos de IA. El volumen de deepfakes ha crecido de aproximadamente 500.000 en 2023 a un estimado de 8 millones en 2025, con un crecimiento anual cercano al 900 %. Y cada nueva falsificación es más difícil de detectar que la anterior.

Esta no es una brecha temporal que un mejor software cerrará. Es una asimetría fundamental: crear una falsificación convincente se vuelve más barato y fácil, mientras que detectarla resulta cada vez más costoso y menos confiable. Para entender por qué, hay que examinar cómo se crean realmente los deepfakes y a qué se enfrentan los sistemas de detección.

Cómo se construyen los deepfakes

En su núcleo, un deepfake reemplaza el rostro, la voz o el cuerpo de una persona en un contenido multimedia por los de otra persona. El enfoque más común utiliza un tipo de IA llamado autocodificador. Imagine un sistema de dos partes: un codificador que comprime un rostro en una especie de boceto abstracto, y un decodificador que reconstruye un rostro a partir de ese boceto.

El truco consiste en entrenar un único codificador con dos rostros diferentes, mientras cada rostro tiene su propio decodificador. Una vez entrenado, se introduce el boceto abstracto del rostro A en el decodificador del rostro B, y se obtienen los rasgos del rostro B proyectados sobre las expresiones del rostro A. El resultado: un vídeo en el que una persona parece ser alguien completamente diferente.

Un enfoque más potente utiliza las Redes Generativas Antagónicas, o GAN. En este caso, dos IA compiten: un «generador» crea falsificaciones y un «discriminador» intenta detectarlas. Se entrenan mutuamente sin descanso hasta que las falsificaciones se vuelven indistinguibles del contenido real, incluso para la propia IA discriminadora.

La generación más reciente utiliza modelos de difusión, la misma tecnología que subyace a los generadores de imágenes como Stable Diffusion. Estos modelos funcionan aprendiendo a añadir y eliminar ruido de las imágenes, y producen resultados con un nivel de detalle y coherencia sin precedentes.

Por qué los deepfakes mejoraron tan rápido

Tres cambios convergieron para acelerar el problema de forma drástica.

Primero, los modelos de vídeo modernos aprendieron a separar la identidad del movimiento. Los primeros deepfakes superponían un rostro sobre otro fotograma a fotograma, produciendo parpadeos característicos, deformaciones y distorsiones alrededor de los ojos y la mandíbula. Los modelos actuales comprenden la identidad de una persona como un concepto abstracto separado de cómo se mueve, de modo que esa misma identidad puede animarse con movimientos completamente distintos. El resultado: rostros estables y coherentes sin las distorsiones estructurales que antaño servían como prueba forensePrueba física recopilada en una escena del crimen y analizada científicamente para establecer hechos o reconstruir eventos; incluye materiales biológicos, pruebas de rastro y objetos físicos examinados por especialistas forenses. confiable.

Segundo, la clonación de voz cruzó lo que los investigadores llaman el «umbral de indistinguibilidad». Unos pocos segundos de audio bastan ahora para producir un clon convincente, con entonación natural, ritmo, pausas y ruido de respiración. Tres segundos de audio pueden producir una coincidencia de voz del 85 % con el hablante original.

Tercero, las herramientas de consumo han reducido la barrera técnica prácticamente a cero. Herramientas como Sora 2 de OpenAI y Veo 3 de Google permiten a cualquier persona describir una idea, hacer que un modelo de lenguajeSistema de aprendizaje automático entrenado en grandes cantidades de texto que predice y genera lenguaje humano. Estos sistemas como GPT y Claude muestran capacidades sorprendentes pero también cometen errores con confianza aparente. redacte un guión y generar un vídeo pulido en cuestión de minutos.

La detección de deepfakes: por qué sigue perdiendo terreno

La detección temprana de deepfakes funcionaba buscando artefactos: parpadeos antinaturales, iluminación inconsistente, bordes borrosos alrededor del rostro. A medida que las falsificaciones mejoraron, esos artefactos desaparecieron. Los detectores se adaptaron buscando firmas estadísticas más sutiles, invisibles al ojo humano. Pero este enfoque tiene un problema fundamental.

Los modelos de detección se entrenan con conjuntos de datos de deepfakes conocidos. Cuando se prueban con falsificaciones de una fuente diferente o de un modelo más reciente, su precisión se desploma. Este es el problema de generalización entre conjuntos de datos, y es el talón de Aquiles de todo el paradigma de detección. Un detector que obtiene más del 90 % de precisión con sus datos de entrenamiento puede caer significativamente al probarse con un conjunto de datos diferente, un desafío bien documentado en la investigación forense sobre deepfakes.

En condiciones reales, el panorama es aún más sombrío. Las herramientas de detección por IA pierden entre el 45 y el 50 % de su efectividad cuando se despliegan contra deepfakes fuera de entornos de laboratorio controlados. La compresión, el redimensionamiento, la recodificación en redes sociales y las capturas de pantalla eliminan las señales sutiles en las que se basan los detectores.

Los seres humanos no lo hacen mejor. Un estudio de iProov de 2025 que evaluó a 2.000 consumidores reveló que solo el 0,1 % podía identificar con precisión todos los deepfakes y todos los contenidos reales entre imágenes y vídeos. La tasa de detección humana para deepfakes de vídeo de alta calidad es de apenas el 24,5 %, apenas por encima del azar. Y a pesar de sus malos resultados, las personas siguen teniendo demasiada confianza en sus capacidades de detección, valorándose por encima del 60 % independientemente de si sus respuestas fueron correctas.

El daño en el mundo real ya está aquí

En febrero de 2024, un empleado de la empresa británica de ingeniería Arup fue engañado para transferir 25 millones de dólares tras una videollamada en la que el director financiero y otros colegas eran todos deepfakes. El empleado había desconfiado inicialmente de un correo de phishing, pero la videollamada disipó sus dudas porque los participantes se veían y sonaban exactamente como personas que conocía.

Este incidente forma parte de una tendencia más amplia. Los intentos de fraude con deepfakes han aumentado un 2.137 % en los últimos tres años. Las empresas perdieron en promedio casi 500.000 dólares por incidente de deepfake en 2024, y se proyecta que las pérdidas por fraude en Estados Unidos relacionadas con la IA generativa suban de 12.300 millones de dólares en 2023 a 40.000 millones en 2027.

La NSA, el FBI y la CISA han advertido conjuntamente que las amenazas de los medios sintéticos han «aumentado exponencialmente», representando un desafío creciente para los sistemas de seguridad nacional y las infraestructuras críticas.

Lo que viene: procedencia en lugar de detección de deepfakes

Si detectar falsificaciones a posteriori es un juego perdido, la alternativa es demostrar la autenticidad en el origen. Esta es la idea detrás de la Coalition for Content Provenance and Authenticity (C2PA), un estándar abierto que adjunta datos de procedencia criptográficos al contenido en el momento de su creación. Imagínelo como un sello a prueba de manipulaciones: no para verificar si algo es falso, sino para demostrar que algo es real.

C2PA incorpora un manifiesto firmado en imágenes, vídeos y audio, registrando dónde se creó el contenido, qué herramientas se utilizaron y si participó alguna IA. Si cualquier parte del contenido o de sus datos de procedencia es alterada, la firma se invalida. Las grandes empresas tecnológicas y de medios han comenzado a adoptar el estándar.

Pero la especificación C2PA es explícita sobre sus propias limitaciones: no es «una solución milagrosa contra la desinformación» y «complementa los enfoques de alfabetización mediática, verificación de hechos y forense digital». Solo funciona cuando toda la cadena, desde la cámara hasta la plataforma, la soporta. Un contenido sin datos de procedencia no es automáticamente falso, simplemente no es verificable.

Como señala el investigador de deepfakes Siwei Lyu: «Simplemente mirar con más atención los píxeles ya no será suficiente.» La defensa debe pasar del análisis del contenido a su autenticación.

La detección de deepfakes está perdiendo terreno estructuralmente frente a su generación. No es un problema de recursos ni de talento. Es una asimetría incorporada en las matemáticas de la propia tarea: los modelos generativos optimizan para la indistinguibilidad perceptual, mientras que los modelos de detección deben generalizarse a través de un espacio ilimitado de técnicas de generación. El volumen de deepfakes ha crecido de aproximadamente 500.000 en 2023 a un estimado de 8 millones en 2025, con un crecimiento anual cercano al 900 %, y cada generación de modelos reduce aún más la brecha entre los medios sintéticos y los auténticos.

Arquitecturas de generación: autocodificadores, GAN y modelos de difusión

El pipeline original de deepfakes utilizaba autocodificadores emparejados. Un codificador compartido proyecta imágenes faciales en un espacio latente, mientras que decodificadores separados reconstruyen identidades específicas a partir de esa representación común. El intercambio de rostros funciona enrutando el código latente de la identidad fuente a través del decodificador de la identidad objetivo. El codificador compartido obliga a ambos decodificadores a acordar una estructura latente común para atributos faciales como la pose, la expresión y la iluminación, lo que significa que el intercambio preserva las expresiones de la fuente mientras reproduce la identidad del objetivo.

Las GAN mejoraron esto al añadir entrenamiento adversarial. Un generador produce rostros sintéticos mientras un discriminador aprende a distinguirlos de las imágenes reales. Las dos redes se entrenan conjuntamente en un juego minimax: el generador minimiza la precisión del discriminador mientras el discriminador la maximiza. En la convergencia, la distribución de salida del generador debería corresponder teóricamente a la distribución de datos reales. Arquitecturas como StyleGAN introdujeron la síntesis basada en estilos, permitiendo un control fino sobre la identidad, la pose y la textura en diferentes resoluciones mediante la normalización de instancia adaptativa.

Los modelos de difusión representan el estado actual del arte. Estos modelos aprenden el inverso de una cadena de Markov fija que añade progresivamente ruido gaussiano a los datos. Durante la generación, el modelo elimina iterativamente el ruido de un vector de ruido aleatorio, condicionado por indicaciones de texto o imágenes de referencia, para producir la salida. El proceso de eliminación de ruido opera en un espacio latente aprendido (en modelos de difusión latente como Stable Diffusion) en lugar del espacio de píxeles, lo que hace la generación más rápida y controlable. Los modelos de difusión han demostrado una cobertura de modos superior comparada con las GAN, reduciendo artefactos como el colapso de modos mientras alcanzan mayor fidelidad.

Por qué la coherencia temporal lo cambió todo

Los primeros vídeos deepfake sufrían de inconsistencias a nivel de fotograma: parpadeos, deformaciones y distorsiones estructurales alrededor de regiones de alta frecuencia como los ojos y la mandíbula. Estos artefactos eran señales forenses confiables. Los modelos modernos de generación de vídeo han eliminado estas pistas al desacoplar la representación de identidad del movimiento.

La innovación arquitectónica clave consiste en separar el espacio latente en subespacios de identidad y movimiento. El codificador de identidad captura características relacionadas con la apariencia que permanecen constantes entre fotogramas, mientras que el codificador de movimiento captura la pose, la expresión y la dinámica. Este desacoplamiento significa que la misma secuencia de movimiento puede aplicarse a diferentes identidades, o que una única identidad puede animarse con movimientos arbitrarios, produciendo rostros estables y coherentes con iluminación, textura de piel y microexpresiones temporalmente consistentes.

La síntesis de voz siguió una trayectoria paralela. Los sistemas actuales necesitan apenas tres segundos de audio de referencia para generar una coincidencia de voz del 85 %, capturando no solo el tono y el timbre, sino también los patrones de entonación, el ritmo, el énfasis, las pausas y el ruido de respiración. Los investigadores describen esto como haber cruzado el «umbral de indistinguibilidad», donde las pistas perceptuales han desaparecido efectivamente para los oyentes no expertos.

La detección de deepfakes: la crisis de generalización

Los métodos de detección se dividen ampliamente en dos categorías: basados en artefactos y basados en aprendizaje. Los detectores basados en artefactos buscan inconsistencias específicas (límites de fusión, reflexiones oculares antinaturales, anomalías en el dominio de frecuencia). Los detectores basados en aprendizaje entrenan redes neuronales para clasificar los medios como reales o sintéticos.

Ambos enfoques comparten una debilidad crítica: sobreajustan el método de generación presente en sus datos de entrenamiento. Este es el problema de generalización entre conjuntos de datos. Una CNN entrenada en un benchmark puede lograr alta precisión en su conjunto de prueba pero sufrir una degradación significativa con falsificaciones de un pipeline de generación diferente. El detector aprende a reconocer la huella de un generador específico, no la propiedad general de ser sintético.

Este problema es estructural, no meramente práctico. Cada nueva arquitectura de generación deja diferentes rastros estadísticos. Un detector entrenado en artefactos GAN (patrones de frecuencia periódicos, artefactos de truncamiento en el espacio latente) pasará por alto completamente los artefactos de los modelos de difusión, y viceversa. El espacio de técnicas de generación posibles es ilimitado y se expande, mientras que cada detector se entrena en una instantánea fija y retrospectiva de ese espacio.

El despliegue en el mundo real agrava el problema. Las herramientas de detección por IA pierden entre el 45 y el 50 % de su efectividad fuera de las condiciones controladas de laboratorio. La recodificación en redes sociales (típicamente compresión JPEG con factores de calidad de 70 a 85 o recodificación H.264 con tasas de bits variables), el escalado de resolución y la captura de pantalla destruyen las firmas estadísticas sutiles en las que se basan los detectores. Las perturbaciones adversariales añaden otra dimensión: técnicas como FGSM (Fast Gradient Sign Method) pueden degradar significativamente la precisión de detección en escenarios entre conjuntos de datos al añadir ruido imperceptible que explota los límites de decisión aprendidos por el detector.

El fracaso de la detección humana

La detección automatizada no es la única línea de defensa que falla. Un estudio de iProov de 2025 que evaluó a 2.000 consumidores reveló que solo el 0,1 % podía identificar con precisión todos los deepfakes y todos los medios reales en estímulos de imagen y vídeo. Los participantes estaban preparados para buscar falsificaciones, y aun así tenían un 36 % menos de probabilidad de identificar correctamente un vídeo sintético en comparación con una imagen sintética. Para los deepfakes de vídeo de alta calidad específicamente, las tasas de detección humana son del 24,5 %, por debajo del 50 % de referencia que se esperaría de una conjetura aleatoria en un conjunto de datos equilibrado.

Esto tiene consecuencias operativas directas. En el incidente de Arup, un empleado de finanzas en Hong Kong se unió a una videollamada en la que el director financiero y varios colegas eran todos deepfakes. A pesar de la sospecha inicial por un correo de phishing, la videollamada disipó sus dudas. El resultado: 15 transacciones por un total de 200 millones de dólares de Hong Kong (aproximadamente 25,6 millones de dólares) enviadas a cuentas controladas por estafadores.

Las estadísticas de fraude más amplias reflejan esta vulnerabilidad. Los intentos de fraude con deepfakes han aumentado un 2.137 % en tres años. Las empresas perdieron en promedio casi 500.000 dólares por incidente en 2024. Los ataques que eluden la autenticación biométrica aumentaron un 704 % en 2023. La NSA, el FBI y la CISA han advertido conjuntamente que las amenazas de los medios sintéticos han «aumentado exponencialmente».

La asimetría estructural

El problema central es una asimetría en el panorama de optimización. Los generadores se entrenan con un objetivo bien definido: minimizar la distancia estadística entre las distribuciones de los datos generados y los reales. Es un proceso convergente. A medida que avanza el entrenamiento, la distribución de salida del generador se aproxima a la distribución de datos reales, y cualquier diferencia detectable entre los medios sintéticos y los reales se acerca a cero.

Los detectores, en cambio, deben resolver un problema de clasificación abierto contra un adversario en constante evolución. Cada nueva arquitectura, técnica de entrenamiento o pipeline de postprocesamiento crea una nueva distribución de medios sintéticos. El detector debe generalizarse a través de todas ellas, incluidas las que no existían cuando fue entrenado. Esto es fundamentalmente más difícil que la generación.

La dinámica del mercado lo refleja. Mientras que el desarrollo de herramientas de detección por IA crece entre un 28 y un 42 % anual, la amenaza se expande al 900 % o más. Se proyecta que las pérdidas por fraude en Estados Unidos relacionadas con la IA generativa alcancen los 40.000 millones de dólares en 2027, frente a los 12.300 millones de 2023.

La procedencia como alternativa arquitectónica

Si la detección post-hoc está estructuralmente en desventaja, la alternativa es la autenticación pre-hoc. La Coalition for Content Provenance and Authenticity (C2PA) define un estándar abierto para vincular criptográficamente metadatos de procedencia a activos digitales. Un manifiesto C2PA contiene afirmaciones sobre el origen del activo, su historial de modificaciones y la participación de IA, firmadas con la clave privada del software creador o editor. El manifiesto se incorpora típicamente directamente en el activo, con vinculación opcional mediante marcas de agua invisibles para mayor durabilidad ante las conversiones de formato.

La verificación comprueba tres propiedades: el manifiesto es estructuralmente válido (bien formado), el contenido no ha sido modificado desde la firma (integridad del hash), y el firmante figura en una lista de confianza reconocida (cadena de confianza). Si cualquier parte del activo o del manifiesto es alterada, el hash criptográfico se rompe y la verificación falla.

La especificación C2PA es explícita sobre su alcance: no es «una solución milagrosa contra la desinformación» y no emite juicios de valor sobre el contenido. Los medios sin manifiesto no se marcan como falsos; simplemente son inverificables. El enfoque desplaza la pregunta de «¿es esto sintético?» a «¿puede esto rastrearse hasta una fuente de confianza?». Solo funciona cuando toda la cadena, desde el dispositivo de captura hasta la plataforma de distribución, soporta el estándar.

La brecha de adopción sigue siendo significativa. La mayoría de los medios existentes carecen de datos de procedencia, y los actores malintencionados no tienen incentivos para adjuntar credenciales a sus producciones. Pero como señala Siwei Lyu, la línea de defensa efectiva dependerá de «protecciones a nivel de infraestructura» más que del juicio humano o el análisis de píxeles. La NSA y las agencias aliadas han recomendado las credenciales de contenido como parte de una estrategia de defensa en capas contra las amenazas de los medios sintéticos.

La detección seguirá formando parte del conjunto de herramientas, especialmente para las investigaciones forenses. Pero como mecanismo primario de control contra los medios sintéticos a escala, está estructuralmente superada. La respuesta a largo plazo no son mejores detectores. Es un ecosistema donde la autenticidad es el estándar por defecto, y los medios sin procedencia se tratan con el escepticismo apropiado.

¿Qué le pareció este artículo?
Compartir este artículo

¿Un error? Avísanos

Fuentes