
Qué es un deepfake
EVALUACIÓN DE SITUACIÓN En enero de 2022, investigadores del Reuters Institute documentaron una campaña de desinformación dirigida contra…
Durante la mayor parte de la historia humana, la frase «ver para creer» se mantuvo cierta. Las fotografías, las grabaciones de audio y los vídeos sirvieron como evidencia de oro — en tribunales, redacciones, inteligencia militar y discurso público. Esa época está terminando. Los deepfakes — medios sintéticos generados o manipulados por inteligencia artificial — han destruido la suposición de que el contenido audiovisual representa fiablemente la realidad. Un vídeo de un comandante militar emitiendo órdenes ilegales, una grabación de audio de un político haciendo comentarios racistas, o una fotografía de tropas cometiendo atrocidades pueden ahora fabricarse con tecnología de consumo.
Para los profesionales militares y de defensa, los deepfakes representan una amenaza existencial para la integridad de la información. Los adversarios pueden fabricar evidencia de crímenes de guerra, crear operaciones de bandera falsa, suplantar a comandantes y sembrar confusión durante ventanas críticas de toma de decisiones. Entender los deepfakes — cómo se hacen, cómo detectarlos y cómo defenderse de su weaponización — es esencial para la preparación en guerra cognitiva.
Los deepfakes son medios sintéticos creados usando aprendizaje profundo (deep learning) — un subconjunto de la inteligencia artificial basado en redes neuronales. El término combina «deep learning» con «fake» (falso). Los deepfakes pueden:
Intercambiar rostros: Reemplazar el rostro de una persona con el de otra en un vídeo existente.
Sincronizar labios: Alterar los movimientos de la boca para que coincidan con un nuevo audio (doblaje).
Generar personas completamente sintéticas: Crear rostros humanos realistas que no existen.
Sintetizar voz: Clonar la voz de una persona a partir de muestras limitadas.
Generar movimiento corporal completo: Crear vídeo sintético de una persona realizando acciones que nunca realizó.
La tecnología ha avanzado rápidamente. Los deepfakes tempranos (2017-2019) eran detectables por artefactos visibles — parpadeo antinatural, iluminación inconsistente, borrosidad en los bordes del rostro. Los deepfakes contemporáneos (2024+) son a menudo indistinguibles de las grabaciones auténticas a simple vista.
La arquitectura de deepfake más común. Dos redes neuronales compiten:
Generador: Crea imágenes o vídeos sintéticos.
Discriminador: Intenta distinguir lo real de lo sintético.
El generador mejora hasta que el discriminador no puede distinguir fiablemente lo real de lo falso. Este proceso antagónico produce resultados cada vez más realistas.
Los deepfakes de intercambio de rostros típicamente usan autoencoders. Un codificador común aprende a comprimir rasgos faciales de múltiples personas. Decodificadores individuales entonces reconstruyen rostros específicos. Al intercambiar decodificadores, el sistema coloca las expresiones de una persona en el rostro de otra.
Avances recientes en modelos de difusión (Stable Diffusion, DALL-E, Midjourney) han hecho que la generación de imágenes sintéticas de alta calidad sea accesible para los consumidores. La difusión de vídeo (Sora, Runway Gen-2) está cerrando rápidamente la brecha con las imágenes fijas.
Los modelos de texto a voz (ElevenLabs, Resemble AI, VALL-E) pueden clonar una voz a partir de tan solo tres segundos de muestra de audio. Estos modelos capturan no solo el tono y la altura, sino también la inflexión emocional, el acento y los patrones de habla.
El tipo de deepfake más común. El rostro de una persona se mapea sobre el cuerpo de otra mientras se preservan las expresiones faciales, la mirada y los movimientos de la boca.
Amenaza militar: Un deepfake de un comandante enemigo ordenando a sus tropas disparar contra civiles podría justificar una represalia. Un deepfake de un comandante amigo emitiendo órdenes ilegales podría socavar la confianza en el mando legítimo.
El vídeo original de una persona hablando se conserva, pero sus movimientos bucales se alteran para que coincidan con un nuevo audio. La persona parece decir palabras que nunca pronunció.
Amenaza militar: Un deepfake de un líder político anunciando la rendición, la capitulación o una política controvertida podría desencadenar consecuencias en el mundo real antes de que la verificación sea posible.
Transferencia completa de expresión facial. Los movimientos de un actor fuente se mapean sobre el rostro de una persona objetivo, haciendo que la objetivo parezca expresar emociones, reaccionar a eventos o pronunciar discursos que nunca realizó.
Rostros y personalidades generados por IA que no corresponden a ningún humano real. Los adversarios utilizan personas sintéticas como periodistas, analistas, testigos o influencers falsos.
Amenaza militar: Personas sintéticas pueden penetrar redes de intercambio de inteligencia, construir relaciones con analistas reales y extraer información o difundir desinformación.
Audio sintético de una persona específica diciendo palabras que nunca pronunció.
Amenaza militar: Una llamada telefónica con voz clonada que parece ser de un comandante ordenando movimientos de tropas. Una grabación de audio falsa de un funcionario de defensa admitiendo operaciones ilegales.
IA generativa creando escenas enteras — personas, entornos, acciones — que nunca ocurrieron. No es manipulación de material existente sino creación desde cero.
Los deepfakes hacen que la desinformación sea más vívida, emocional y compartible. Un vídeo falso de un político involucrado en corrupción tiene más impacto que una mentira basada en texto. El formato de vídeo explota la confianza en la evidencia visual.
Un deepfake lanzado días antes de una elección — un candidato haciendo comentarios ofensivos, admitiendo fraude o conspirando con potencias extranjeras — podría cambiar los resultados. Incluso si se desmiente después de la elección, el daño ya está hecho.
Los deepfakes no necesitan ser convincentes para ser efectivos. La mera posibilidad de que cualquier vídeo podría ser falso crea un «dividendo del mentiroso»: el material comprometedor auténtico puede ser descartado como generado por IA. Los adversarios pueden inundar el espacio informativo con tantos deepfakes que las audiencias no puedan distinguir lo real de lo falso, retirándose al cinismo y la desconfianza de todos los medios.
Los deepfakes pueden apoyar el engaño militar tradicional (MILDEC):
Vídeo falso de movimientos de tropas engañando a adversarios sobre ubicaciones de ataque.
Audio sintético de comandantes enemigos revelando planes operacionales.
Evidencia fabricada de atrocidades para moldear la opinión internacional.
Los deepfakes permiten una ingeniería social sofisticada:
Videollamada suplantando a un oficial superior solicitando información sensible.
Clonación de voz llamando a un familiar para facilitar una estafa de rescate.
Persona sintética construyendo relaciones a largo plazo con analistas de inteligencia.
Los deepfakes pueden crear material comprometedor de individuos que nunca tuvieron comportamientos comprometedores. Un vídeo fabricado de un funcionario con una prostituta o aceptando un soborno se convierte en una herramienta coercitiva.
| Método | Qué detecta | Limitaciones |
|---|---|---|
| Parpadeo inconsistente | Deepfakes tempranos (menos común en sistemas modernos) | Las GANs modernas generan parpadeo realista |
| Inconsistencias de iluminación y sombras | Desajuste de iluminación entre rostro y entorno | Mejorando rápidamente |
| Mirada ocular antinatural | Los deepfakes a menudo carecen de movimientos sacádicos realistas | Los modelos más nuevos abordan esto |
| Artefactos de sincronización de labios | Desajuste entre fonemas y formas de la boca | Los sistemas de alta calidad minimizan |
| Inconsistencias temporales | Artefactos que aparecen solo en fotogramas específicos | La detección requiere recursos computacionales |
| Artefactos espectrales | La manipulación deja trazas en el dominio de la frecuencia | Requiere análisis especializado |
| Marca de agua digital / firmas criptográficas | Contenido autenticado vs. no autenticado | Requiere cámaras con capacidad de firma |
La detección profesional de deepfakes utiliza:
Redes neuronales convolucionales (CNNs) entrenadas para detectar artefactos de manipulación.
Análisis en dominio de frecuencia (artefactos invisibles al ojo humano aparecen en transformadas de Fourier).
Detección de señales biológicas (latido cardíaco, pulso, microexpresiones).
Consistencia multimodal (¿el audio coincide con el vídeo? ¿Los movimientos de labios coinciden con los fonemas?).
Aunque la detección técnica es cada vez más necesaria, los humanos pueden detectar ciertas señales:
Contacto visual antinatural o mirada que nunca se desvía.
Textura de piel inconsistente (cerosa, demasiado suave, inconsistente con la iluminación).
Parpadeo extraño o ausente (parpadea demasiado frecuente, demasiado raro o asimétricamente).
Movimientos de labios que no coinciden con el audio (especialmente en fonemas específicos como «b», «m», «p»).
Artefactos en el fondo (borrosidad, distorsión, inconsistencias alrededor de los bordes del rostro).
Incongruencia emocional (la expresión facial no coincide con el contenido del discurso).
Advertencia crítica: A medida que la calidad del deepfake mejora, la detección humana se vuelve poco fiable. En contextos de alto riesgo, la verificación técnica es esencial.
Autenticación Criptográfica de Contenido:
Las cámaras y dispositivos de grabación firman criptográficamente los medios en el momento de la captura.
Cualquier manipulación rompe la firma.
Requiere implementación a nivel de hardware e infraestructura de gestión de claves.
Procedencia con Blockchain:
Metadatos de grabación (hora, ubicación, dispositivo) registrados en libro mayor inmutable.
Estándar de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA).
Permite la verificación de la cadena de custodia de los medios.
Marca de agua forense:
Marcas de agua imperceptibles incrustadas en medios auténticos.
La manipulación destruye o altera la marca de agua.
Sistemas de Detección por IA:
Inversión continua en modelos de detección (competencia antagónica entre generación y detección).
Las capacidades de detección gubernamentales y militares deben superar a las comerciales.
Protocolos de Verificación:
Ninguna decisión urgente basada únicamente en medios audiovisuales no verificados.
Verificación multicanal (ej., confirmar el vídeo a través de una ruta de comunicación independiente).
Servicios de autenticación de confianza para verificación de medios.
Pre-armado e Inoculación:
Entrenar al personal y al público sobre la existencia de deepfakes y las limitaciones de la detección humana.
Comunicar que la ausencia de artefactos visibles no garantiza la autenticidad.
Establecer canales de verificación de confianza antes de las crisis.
Respuesta Rápida:
Protocolos preplanificados para incidentes sospechosos de deepfake.
Atribución rápida: ¿este contenido es auténtico o sintético?
Comunicación pública: desmentido rápido con evidencia.
Marcos Legales y Políticos:
Criminalización de la creación y distribución maliciosa de deepfakes.
Requisitos a plataformas de etiquetado y detección de deepfakes.
Normas internacionales contra el uso de deepfakes en guerras y elecciones.
Poco después de la invasión rusa de Ucrania, circuló un deepfake mostrando al presidente ucraniano Volodymyr Zelenskyy diciendo a los soldados ucranianos que depusieran las armas y se rindieran. El deepfake era de calidad relativamente baja (mala sincronización de labios, posicionamiento de cabeza antinatural) y fue rápidamente desmentido.
Impacto: Limitado. El deepfake fue detectado y refutado públicamente en cuestión de horas. Sin embargo, demostró la intención del adversario y la velocidad a la que los deepfakes podían desplegarse durante una crisis.
Lecciones: El desmentido rápido funciona cuando existen canales de comunicación de confianza. La respuesta en vídeo auténtico de Zelenskyy en cuestión de horas reforzó su credibilidad.
Un creador de deepfakes (Chris Ume) produjo una serie de vídeos de TikTok altamente realistas de «Tom Cruise» haciendo trucos de magia, contando chistes y actuando de manera extraña. Los deepfakes eran tan convincentes que muchos espectadores creyeron que eran auténticos, a pesar de que Cruise no tiene cuenta de TikTok.
Impacto: Demostró que los deepfakes de nivel de consumo podían alcanzar un realismo casi perfecto. Aumentó la conciencia pública sobre la tecnología deepfake.
Lecciones: La inoculación pública a través de la exposición a ejemplos de alta calidad reduce la sorpresa y la vulnerabilidad.
Una clonación de voz de Michael Bloomberg, ex alcalde de Nueva York y candidato presidencial, se utilizó para hacer llamadas automáticas instando a los votantes a no votar en las primarias demócratas de New Hampshire. La llamada se rastreó hasta una empresa de telecomunicaciones de Texas.
Impacto: Primer uso documentado de clonación de voz por IA en una elección estadounidense. Demostró interferencia electoral de bajo costo y escalable.
Lecciones: La clonación de voz es accesible y difícil de rastrear. Los marcos legales para medios sintéticos relacionados con elecciones son inadecuados.
Las videollamadas en vivo pueden ahora ser deepfakeadas en tiempo real. Un adversario podría suplantar a un comandante, oficial de inteligencia o familiar durante una videollamada en vivo — no solo un mensaje grabado.
Sistemas de IA que generan deepfakes, los distribuyen a través de redes de bots, se adaptan según métricas de interacción y producen contenido de seguimiento — todo sin intervención humana. La campaña de desinformación se ejecuta sola.
A medida que la detección mejora, la generación mejora. Esta es una carrera armamentista antagónica. No existe una solución de detección permanente. Los defensores deben actualizar continuamente los modelos de detección y priorizar la autenticación sobre la detección.
El riesgo a largo plazo no son los deepfakes exitosos sino la erosión de la confianza en todos los medios. Cuando cualquier vídeo puede ser descartado como «probablemente IA», la evidencia auténtica pierde poder. Los adversarios no necesitan crear deepfakes convincentes — solo la posibilidad de que el material auténtico podría ser falso.
Los deepfakes y la manipulación audiovisual representan un cambio fundamental en el entorno informativo. La suposición de que «ver para creer» — fiable durante siglos — ya no es válida. Los adversarios pueden fabricar evidencia, suplantar líderes y sembrar confusión a una escala y velocidad sin precedentes.
La defensa requiere un enfoque multicapa: autenticación criptográfica en la captura, detección forense después de la distribución, protocolos de verificación operacional, inoculación pública mediante concienciación y marcos legales para la rendición de cuentas. Ninguna contramedida es suficiente por sí sola.
Para los profesionales militares y de defensa, la amenaza del deepfake no es hipotética. Los adversarios ya están desplegando medios sintéticos en zonas de conflicto y campañas electorales. La cuestión no es si los deepfakes serán utilizados contra sus fuerzas o su nación — sino cuándo. La preparación comienza ahora.

EVALUACIÓN DE SITUACIÓN En enero de 2022, investigadores del Reuters Institute documentaron una campaña de desinformación dirigida contra…
EVALUACIÓN DE SITUACIÓN En enero de 2022, investigadores del Reuters Institute documentaron una campaña de desinformación dirigida contra el presidente ucraniano Volodímir Zelenski mediante la […]
Informes semanales sobre guerra cognitiva, desinformación y estrategias de defensa.