Desinformación y Fake News

Qué es la desinformación y en qué se diferencia de la información errónea

EVALUACIÓN DE SITUACIÓN: OPERACIÓN SECONDARY INFEKTION

En agosto de 2019, Facebook y Twitter desmantelaron simultáneamente una red de más de 280 cuentas falsas que habían estado operando durante cuatro años. La operación, denominada Secondary Infektion por los investigadores de Stanford Internet Observatory, representaba una de las campañas de desinformación más sofisticadas documentadas hasta la fecha. Los análisis forenses revelaron un patrón operativo distintivo: la creación de contenido falso atribuido a medios occidentales legítimos, seguido de su amplificación a través de redes de cuentas automatizadas.

La evidencia de fuentes abiertas indica que esta campaña ilustra perfectamente la diferencia crítica entre qué es desinformación —información falsa creada deliberadamente con intención maliciosa— e información errónea, que se propaga sin intención manipulativa. Secondary Infektion no fue un error de comunicación: fue una operación de influencia planificada que empleó técnicas avanzadas de falsificación, desde la creación de sitios web que imitaban medios de comunicación hasta la fabricación de documentos gubernamentales.

«El patrón operativo de Secondary Infektion sugiere una comprensión sofisticada de cómo las audiencias occidentales consumen y verifican información, explotando específicamente las lagunas en los procesos de fact-checking tradicionales.» – Stanford Internet Observatory, 2019

VECTOR DE AMENAZA: ANATOMÍA DE LA GUERRA COGNITIVA

Para comprender qué es la desinformación y sus diferencias con la información errónea, debemos examinar el marco conceptual desarrollado por la OTAN para la guerra cognitiva. Según el Innovation Hub de la Alianza Atlántica (2021), la guerra cognitiva opera en el «sexto dominio» del conflicto, dirigiéndose directamente a los procesos de toma de decisiones humanos.

Definición Operativa

Desinformación se define como información falsa, inexacta o engañosa creada, presentada y difundida con intención deliberada de engañar, causar daño público u obtener beneficio. La clave diferenciadora es la intencionalidad maliciosa.

Información errónea, por el contrario, es información falsa o inexacta que se comparte sin intención maliciosa. Puede originarse por errores, malentendidos o interpretaciones incorrectas de hechos reales.

El Modelo «Firehose of Falsehood»

El modelo «Firehose of Falsehood» desarrollado por RAND Corporation (Paul y Matthews, 2016) identifica cuatro características distintivas de las operaciones de desinformación contemporáneas:

Este modelo explica por qué la desinformación es más peligrosa que la simple información errónea: no busca convencer mediante argumentos coherentes, sino saturar el espacio cognitivo hasta generar confusión y desconfianza generalizada.

Procesamiento Cognitivo Dual

La investigación de Daniel Kahneman sobre el procesamiento cognitivo dual (Sistema 1 y Sistema 2) revela por qué la desinformación resulta tan efectiva. El Sistema 1 —rápido, automático e intuitivo— es vulnerable a sesgos cognitivos que los operadores de desinformación explotan sistemáticamente, mientras que el Sistema 2 —lento, deliberativo y analítico— requiere esfuerzo consciente que muchas audiencias no invierten en el consumo de información.

ESTUDIO DE CASO OPERATIVO: DOCUMENTACIÓN DE TÁCTICAS

ESTUDIO DE CASO 1: Operación Ghostwriter

La operación Ghostwriter, documentada exhaustivamente por Mandiant y FireEye (2020-2021), representa un caso paradigmático de desinformación estratégica dirigida contra países del flanco oriental de la OTAN. La campaña empleó una combinación de:

Un indicador crítico es que Ghostwriter no se limitaba a crear contenido completamente falso, sino que manipulaba selectivamente información auténtica para maximizar su credibilidad inicial, una táctica que EU DisinfoLab denomina «información híbrida».

ESTUDIO DE CASO 2: Red de Desinformación Anti-Vacunas COVID-19

El Center for Countering Digital Hate (2021) documentó cómo una red coordinada de doce cuentas principales —denominada la «Docena de la Desinformación»— fue responsable del 65% del contenido anti-vacunas en plataformas sociales durante la pandemia. Este caso ilustra la diferencia entre desinformación e información errónea:

La evaluación de inteligencia sugiere que aproximadamente el 12% de los usuarios creaban contenido desinformativo intencionalmente, mientras que el 88% restante amplificaba información errónea sin intención maliciosa.

«El patrón operativo indica una estrategia de ‘infiltración cognitiva’: los operadores de desinformación crean contenido falso que posteriormente es amplificado de forma orgánica por usuarios que actúan de buena fe.» – Reuters Institute, 2021

PROTOCOLO DE DETECCIÓN: INDICADORES DE AMENAZA

La identificación temprana de operaciones de desinformación requiere monitoreo sistemático de indicadores específicos desarrollados por Bellingcat y el Digital Forensic Research Lab (DFRLab):

Indicadores Técnicos

Indicadores Narrativos

Indicadores Cognitivos

Los principios de influencia de Robert Cialdini son sistemáticamente explotados en operaciones de desinformación:

MARCO DEFENSIVO: ARQUITECTURA DE RESILIENCIA COGNITIVA

Nivel Individual: Higiene Cognitiva

Las contramedidas individuales se basan en protocolos de verificación desarrollados por organizaciones como First Draft y Verification Handbook:

  1. Verificación lateral: Comprobar información en múltiples fuentes independientes antes de compartir.
  2. Análisis de fuente: Evaluar credibilidad, historial y posibles conflictos de interés del emisor.
  3. Verificación técnica: Usar herramientas como búsqueda inversa de imágenes, verificación de metadatos.
  4. Pausa cognitiva: Implementar delays deliberados entre consumo y difusión de información.
  5. Red de confianza: Desarrollar fuentes verificadas y procesos de triangulación.

Nivel Organizacional: Protocolos Institucionales

Las organizaciones deben implementar marcos defensivos basados en las mejores prácticas de NATO StratCom COE:

Nivel Sistémico: Política y Regulación

La defensa sistémica requiere cooperación entre múltiples actores según el modelo del EU Code of Practice on Disinformation:

«La resiliencia cognitiva no se construye mediante censura o control informativo, sino a través del fortalecimiento de las capacidades analíticas ciudadanas y la transparencia de los sistemas de información.» – European External Action Service, 2022

EVALUACIÓN: INTELIGENCIA CLAVE Y PROYECCIONES

Hallazgos Críticos

El análisis de operaciones documentadas revela cinco conclusiones clave sobre la naturaleza de la desinformación contemporánea:

  1. Hibridización creciente: Las operaciones más sofisticadas combinan información auténtica con contenido fabricado, dificultando la detección.
  2. Automatización avanzada: El uso de IA generativa está reduciendo los costes operativos y aumentando la sofisticación del contenido falso.
  3. Targeting micro-segmentado: Las campañas emplean análisis de datos para dirigir narrativas específicas a audiencias precisas.
  4. Explotación de eventos críticos: La desinformación se activa y amplifica durante crisis, elecciones y conflictos.
  5. Democratización de herramientas: Las técnicas antes limitadas a actores estatales están siendo adoptadas por actores no estatales.

Tendencias Emergentes

La evaluación prospectiva indica tres vectores de evolución prioritarios:

Implicaciones Estratégicas

La diferencia entre desinformación e información errónea no es meramente académica: determina la respuesta apropiada. Mientras que la información errónea se combate con educación y fact-checking, la desinformación requiere contramedidas de seguridad nacional que incluyen investigación forense, atribución de amenazas y cooperación internacional.

La evidencia sugiere que las democracias que han invertido en alfabetización mediática, transparencia algorítmica y cooperación internacional muestran mayor resiliencia ante operaciones de desinformación. El desafío no es eliminar completamente la información falsa —objetivo imposible en sociedades abiertas— sino construir inmunidad cognitiva colectiva que permita a las ciudadanías navegar entornos informativos complejos sin perder la capacidad de discernimiento crítico.

Esto es consistente con las TTPs documentadas por investigadores del Oxford Internet Institute: las sociedades con mayor educación digital y medios de comunicación diversos muestran patrones de resistencia más robustos ante campañas de influencia maliciosa.

Añadir informe

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Únete a la Vigilancia

Informes semanales sobre guerra cognitiva, desinformación y estrategias de defensa.