
Historia de la desinformación: de la propaganda antigua a internet
EVALUACIÓN DE SITUACIÓN: EL ECOSISTEMA DE DESINFORMACIÓN EN PERSPECTIVA HISTÓRICA En febrero de 2022, investigadores del Stanford Internet…
En la era de la información, el conocimiento es poder. Pero también lo es la apariencia de conocimiento. La desinformación — la creación y difusión deliberada de información falsa con la intención de engañar — se ha convertido en un arma primaria de la guerra cognitiva. A diferencia de la misinformation, que es información falsa compartida sin intención dañina, la desinformación es estratégica. Está diseñada, producida y distribuida por adversarios que entienden que controlar lo que una población cree es a menudo más efectivo que controlar su territorio.
Las «fake news» (noticias falsas) — un término que ha sido él mismo weaponizado — se refieren específicamente a información fabricada presentada como periodismo legítimo. Ya sea producida por granjas de trolls patrocinadas por estados, propagandistas oportunistas o operadores políticos cínicos, las fake news explotan la confianza que las audiencias depositan en los formatos de medios tradicionales. Entender la desinformación y las fake news no es solo una cuestión de alfabetización mediática. Es un imperativo de seguridad nacional.
La desinformación es información falsa, inexacta o engañosa creada, presentada y difundida deliberadamente para causar daño público o para obtener ventaja política, militar o económica. El término proviene del ruso dezinformatsiya, un departamento de la KGB dedicado a las medidas activas — operaciones encubiertas diseñadas para influir en eventos y percepciones.
Características clave de la desinformación:
Intencional: A diferencia de los errores o la sátira, la desinformación se crea con propósito engañoso.
Estratégica: La desinformación sirve a objetivos específicos (interferencia electoral, división social, erosión de la confianza).
Sistemática: Las campañas de desinformación son coordinadas, no incidentes aislados.
Explotadora: La desinformación aprovecha sesgos, miedos e identidades existentes.
Negable: Los adversarios estructuran las operaciones para evitar la atribución.
La desinformación es distinta de:
| Término | Definición | Intención de engañar |
|---|---|---|
| Misinformation | Información falsa compartida sin intención dañina | No |
| Malinformation | Información genuina compartida para causar daño (ej., correos hackeados) | Sí |
| Sátira/Parodia | Contenido exagerado con humor | No (la audiencia entiende) |
| Propaganda | Información (verdadera o falsa) usada para promover una causa política | Variable |
| Desinformación | Información deliberadamente falsa creada para engañar | Sí |
La desinformación no existe en el vacío. Opera dentro de un ecosistema complejo de productores, amplificadores, plataformas y audiencias vulnerables.
Granjas de trolls patrocinadas por estados: Instalaciones financiadas por gobiernos que emplean operadores para crear y difundir desinformación (ej., Agencia de Investigación de Internet rusa, redes «Spamouflage» chinas, «Endless Mayfly» iraní).
Operadores políticos: Actores políticos domésticos que crean desinformación dirigida a oponentes.
Propagandistas mercenarios: Operadores independientes que venden servicios de desinformación al mejor postor.
Empresarios oportunistas: Individuos que crean contenido falso sensacionalista por ingresos publicitarios («granjas de clics»).
Redes de bots: Cuentas automatizadas que dan me gusta, comparten y retuitean desinformación para inflar la popularidad aparente.
Cuentas fantasma (sockpuppets) : Personas falsas que comentan, publican e interactúan como usuarios aparentemente auténticos.
Influencers y compartidores incautos: Usuarios reales que comparten desinformación creyendo que es verdadera.
Sitios de medios alternativos: Plataformas que presentan desinformación como periodismo legítimo.
Medios convencionales (involuntariamente) : Periodistas legítimos que reportan sobre desinformación como «controversia», lavándola al discurso creíble.
Redes sociales: Facebook, X (Twitter), Instagram, TikTok, YouTube, Reddit.
Aplicaciones de mensajería: Telegram, WhatsApp, Signal, WeChat.
Plataformas alternativas: Gab, Parle, 4chan, 8kun (menos moderación, mayor concentración de desinformación).
Medios tradicionales: Emisoras controladas por estados (RT, Sputnik, CGTN, Xinhua).
Comunidades basadas en identidad: Grupos con identidades fuertes (étnicas, religiosas, políticas) vulnerables al encuadre endogrupo/exogrupo.
Poblaciones de baja confianza: Individuos con baja confianza en instituciones, más receptivos a narrativas alternativas.
Usuarios de alta interacción: Aquellos que pasan mucho tiempo online, consumiendo más contenido — incluyendo desinformación.
Usuarios aislados algorítmicamente: Individuos cuyos feeds se han estrechado a través de la personalización algorítmica.
La desinformación sigue un patrón predecible que los defensores pueden reconocer e interrumpir.
La desinformación se manufactura. Puede implicar:
Documentos fabricados: Correos, memorandos o comunicaciones oficiales falsificados.
Medios manipulados: Vídeos editados, fotos fuera de contexto, deepfakes generados por IA.
Personas falsas: Expertos, testigos o víctimas fabricadas.
Marcos conspirativos: Narrativas falsas elaboradas que explican eventos como complots secretos.
Colocación inicial en espacios donde será descubierta:
Sitios web oscuros, foros o canales de Telegram.
Sitios de noticias falsas diseñados para parecerse al periodismo legítimo.
Medios controlados por estados (RT, Sputnik, Xinhua).
Cuentas de redes sociales de personas falsas.
Esfuerzos coordinados para aumentar la visibilidad:
Redes de bots que dan me gusta, comparten y retuitean.
Cuentas fantasma que comentan e interactúan.
Publicidad pagada (redes publicitarias de plataformas).
Publicación cruzada en múltiples plataformas.
La desinformación se lava a través de intermediarios aparentemente legítimos:
Sitios de noticias alternativas reempaquetan el contenido.
«Investigadores independientes» citan la desinformación.
Periodistas incautos reportan la «controversia».
La cobertura de medios convencionales legitima la narrativa.
La narrativa de desinformación se convierte en parte del discurso aceptado:
Figuras políticas hacen referencia a la narrativa.
La narrativa aparece en resultados de búsqueda.
Las verificaciones de hechos, paradójicamente, pueden difundir más la narrativa.
La desinformación se convierte en «algo de lo que la gente habla».
La narrativa se utiliza para lograr objetivos estratégicos:
Supresión o movilización de votantes.
Socavar la confianza en la integridad electoral.
Erosionar el apoyo a alianzas o acciones militares.
Exacerbar divisiones sociales.
Contenido completamente falso presentado como genuino: artículos de noticias falsas, documentos falsificados, imágenes manipuladas, citas fabricadas.
Ejemplo: Un vídeo fabricado que muestra a un político haciendo comentarios racistas, creado con síntesis de voz por IA.
Contenido genuino alterado para engañar: vídeos editados selectivamente, fotos con Photoshop, citas fuera de contexto.
Ejemplo: Un vídeo de un político editado para eliminar pausas o contexto, haciendo que una declaración razonable parezca extrema.
Personas u organizaciones falsas que se hacen pasar por reales: sitios web falsos que imitan medios legítimos, cuentas de redes sociales que suplantan a funcionarios.
Ejemplo: Un sitio web con una URL casi idéntica a la de un periódico legítimo (ej., «washingtonpost.co» en lugar de «washingtonpost.com«).
Contenido genuino presentado de manera engañosa: hechos verdaderos ordenados para implicar conclusiones falsas, cherry-picking estadístico, afirmaciones causales falsas.
Ejemplo: «El crimen aumentó bajo esta administración» — verdadero, pero omitiendo que el crimen aumentó globalmente después de la pandemia.
Contenido genuino sacado de su contexto original y colocado en un marco engañoso.
Ejemplo: Una foto antigua de un ejercicio militar presentada como «imágenes actuales de movimientos de tropas en la frontera».
Contenido satírico (The Onion, Babylon Bee) compartido como noticia genuina, ya sea por usuarios incautos o por actores maliciosos que explotan el formato.
Ejemplo: Un artículo satírico sobre un político que apoya una política extraña compartido como factual por cuentas políticas opositoras.
Una teoría conspirativa falsa que alegaba que una pizzería de Washington D.C. albergaba una red de tráfico sexual infantil vinculada a Hillary Clinton. La desinformación se originó en foros de extrema derecha, fue amplificada por bots y cuentas falsas, y se extendió a las redes sociales convencionales.
Impacto: Un creyente viajó desde Carolina del Norte a la pizzería con un rifle de asalto, disparó dentro y fue arrestado. La teoría conspirativa persiste como «QAnon» y continúa influyendo en la violencia del mundo real.
En la antesala de la invasión rusa de Ucrania, los medios estatales rusos y las redes de desinformación difundieron afirmaciones de que Ucrania operaba laboratorios de armas biológicas financiados por EE.UU. La narrativa fue lavada a través de medios alternativos y, brevemente, amplificada por algunos políticos occidentales.
Impacto: La desinformación se utilizó como justificación parcial para la invasión. También persiste, socavando la confianza en las instituciones de salud pública.
La pandemia generó un volumen sin precedentes de desinformación: orígenes (fuga de laboratorio vs. natural), tratamientos (hidroxicloroquina, ivermectina), vacunas (microchips, infertilidad, magnetismo) y medidas de salud pública (eficacia de mascarillas, propósito de confinamientos).
Actores: Adversarios estatales (Rusia, China), operadores políticos domésticos, empresarios antivacunas y compartidores incautos.
Impacto: Mortalidad excesiva por vacilación vacunal; erosión de la confianza en instituciones de salud pública; politización de la respuesta a la pandemia.
¿Quién creó este contenido? ¿Se puede verificar la fuente?
¿El dominio se parece a un medio de noticias legítimo?
¿Qué dice la página «Quiénes somos»? ¿Quién es el propietario del sitio?
Verificar el registro del dominio (WHOIS): registro reciente sugiere posible desinformación.
¿El contenido evoca emociones fuertes (indignación, miedo, asco)?
¿Las afirmaciones están respaldadas por evidencia específica y verificable?
Verificar citas: ¿aparecen en las fuentes originales?
Búsqueda inversa de imágenes: ¿dónde más aparece esta imagen?
¿El momento es sospechoso (pre-electoral, durante crisis)?
¿Quién se beneficia si se cree este contenido?
¿Qué falta? ¿Qué contexto se ha eliminado?
Encontrar fuentes originales: rastrear las afirmaciones hasta su origen.
Consultar múltiples fuentes independientes, incluyendo medios internacionales.
Usar organizaciones de verificación de hechos (Snopes, PolitiFact, BBC Verify, Reuters Fact Check).
Verificar si los verificadores de hechos profesionales han abordado la afirmación.
Pausa antes de compartir: Contenido emocional diseñado para compartirse rápidamente.
Verifica antes de creer: Comprueba fuentes, fechas y contexto original.
Diversifica la dieta informativa: Evita feeds estrechados algorítmicamente.
Aprende técnicas de desinformación: Reconocer la manipulación es protector.
| Medida | Propósito |
|---|---|
| Pre-armado (inoculación) | Exponer a poblaciones a versiones debilitadas de técnicas de desinformación antes de que encuentren desinformación real |
| Desmentido de respuesta rápida | Corrección rápida y autoritativa de desinformación emergente |
| Redes de mensajeros de confianza | Voces creíbles preidentificadas para comunidades específicas |
| Moderación de plataformas | Eliminación de contenido desinformativo y cuentas inauténticas |
| Informes de transparencia | Divulgación pública de campañas de desinformación y contramedidas |
| Compartir información multiplataforma | Intercambio de inteligencia entre plataformas, gobiernos y sociedad civil |
Marcos de integridad electoral: Leyes que limitan la desinformación en períodos electorales (modelo francés).
Grupos de trabajo contra interferencia extranjera: Unidades gubernamentales dedicadas.
Coordinación internacional: Compartir información entre naciones aliadas.
Educación pública: Alfabetización mediática en escuelas, programas de educación para adultos.
Apoyo al periodismo independiente: Modelos de financiación sostenible para periodismo local y nacional de calidad.
El término «fake news» ha sido él mismo weaponizado. Originalmente describiendo contenido fabricado presentado como periodismo, el término ha sido cooptado por actores políticos para descartar informes periodísticos legítimos y precisos que les resultan desfavorables. Cuando un político llama «fake news» a un reportaje negativo preciso, el término pierde su utilidad para describir la desinformación real.
Implicación para defensa: Evitar el uso del término «fake news». Usar lenguaje preciso: «desinformación» (intencionalmente falsa), «misinformation» (involuntariamente falsa), «contenido fabricado», «medios manipulados» o «informes falsos».
La IA generativa (modelos de lenguaje grande, generadores de imágenes, síntesis de voz, generación de vídeo) reducirá drásticamente el costo y aumentará la escala de la desinformación. Amenazas clave:
Desinformación personalizada a escala: Modelos de IA generando contenido falso individualizado para millones.
Desinformación interactiva: Chatbots impulsados por IA que se hacen pasar por personas u organizaciones reales.
Deepfakes: Vídeo y audio sintético de funcionarios haciendo declaraciones falsas.
Producción automatizada de desinformación: IA escribiendo artículos, creando imágenes y publicando en redes sociales sin intervención humana.
Desafío de defensa: Los métodos de detección tradicionales (análisis de texto, forensia de imágenes) se vuelven menos fiables a medida que la IA mejora. La procedencia criptográfica (autenticación de contenido) se vuelve esencial.
A medida que los medios sintéticos se vuelven indistinguibles de las grabaciones auténticas, el propio concepto de «ver para creer» colapsa. Los adversarios no necesitan crear deepfakes convincentes — solo la posibilidad de que cualquier vídeo podría ser falso crea una negación plausible para material comprometedor auténtico.
Estrategia de defensa: Autenticación criptográfica de contenido (firmar medios en la captura), procedencia con blockchain y entrenamiento en alfabetización mediática sobre detección de medios sintéticos.
La desinformación y las fake news no son fenómenos nuevos, pero la era digital ha transformado su escala, velocidad y sofisticación. Los adversarios — estatales y no estatales — han integrado la desinformación en sus arsenales estratégicos centrales, reconociendo que moldear lo que las poblaciones creen es a menudo más decisivo que controlar territorio o destruir fuerzas.
Defenderse de la desinformación requiere un enfoque de toda la sociedad: detección técnica, moderación de plataformas, marcos legales, educación pública y resiliencia individual. Ninguna intervención es suficiente por sí sola. Pero combinadas, pueden reducir el impacto de la desinformación, limitar su propagación y construir una población más difícil de engañar.
En la guerra cognitiva, la desinformación es el arma principal. La defensa es un público informado, crítico y resiliente — uno que pausa antes de compartir, verifica antes de creer y entiende que, en la era de la información, la mentira más peligrosa es a menudo la que se siente verdadera.

EVALUACIÓN DE SITUACIÓN: EL ECOSISTEMA DE DESINFORMACIÓN EN PERSPECTIVA HISTÓRICA En febrero de 2022, investigadores del Stanford Internet…

EVALUACIÓN DE SITUACIÓN: OPERACIÓN SECONDARY INFEKTION En agosto de 2019, Facebook y Twitter desmantelaron simultáneamente una red de…
EVALUACIÓN DE SITUACIÓN: EL ECOSISTEMA DE DESINFORMACIÓN EN PERSPECTIVA HISTÓRICA En febrero de 2022, investigadores del Stanford Internet Observatory documentaron cómo la invasión rusa de […]
EVALUACIÓN DE SITUACIÓN: OPERACIÓN SECONDARY INFEKTION En agosto de 2019, Facebook y Twitter desmantelaron simultáneamente una red de más de 280 cuentas falsas que habían […]
Informes semanales sobre guerra cognitiva, desinformación y estrategias de defensa.