Proyectos de Investigación

Observación electoral

El Observatorio Complutense de Desinformación es un proyecto que agrupa a más de cuarenta investigadores de quince universidades alrededor del mundo para explorar y entender el fenómeno de la desinformación en la democracia, sus causas, consecuencias y antídotos. El Observatorio cuenta con el apoyo del Ministerio de Ciencia e Innovación, y de la Agencia Estatal de Investigación de España.

La hipótesis de partida de este proyecto de investigación es que los constantes riesgos y pérdidas de confianza relacionados con el crecimiento del fenómeno de los desórdenes informativos –a saber bulos, desinformación, deep fakes videos, brain hacking, ataques de ciberseguridad con hackeo de datos, pseudomedios de comunicación creados ad hoc para campañas, las narrativas hostiles, la creación de webs al uso, o las fake news–  tienen un impacto negativo en escala, velocidad y alcance de la comunicación política, y que se agrava durante el periodo electoral. Por ello, es necesario dotar a las autoridades electorales de mecanismos para hacer frente a estos retos y cumplir su función en un ecosistema totalmente diferente y continuamente cambiante. 

Con la finalidad de estudiar este nuevo escenario, y la eficacia de las reacciones a la desinformación, desde 2023 el Observatorio ha desarrollado y ejecutado una metodología para medir las principales características de la desinformación en periodo electoral con parámetros estandarizados y replicables, identificando –entre otros elementos– al actor causante de la desinformación, el destinatario, las técnicas utilizadas (incluyendo, pero no limitado a manipulación y/o fabricación de contenidos con inteligencia artificial, creación de perfiles falsos, bots, imágenes sacadas de contexto, etc.) y las reacciones y medidas adoptadas como respuesta a un incidente de desinformación (incluyendo, pero no limitado a aclaraciones desde perfiles de redes sociales de instituciones públicas, verificación de fact-checkers, etiquetas en las plataformas de redes sociales indicando que el contenido es falso, presentación de recursos en sede judicial, etc.).

Para probar la metodología a diferentes contextos electorales, el proyecto ha implementado misiones de observación en 14 países que, entre 2023 y 2024, han celebrado comicios de algún tipo, ya sean locales o municipales, presidenciales, parlamentarios, e incluso, un referéndum (México, Brasil, Costa Rica, Colombia, Guatemala, Ecuador, Argentina, Venezuela, España, Panamá, República Dominicana, Chile, Uruguay, Estados Unidos). Cada una de estas misiones trabajó con las autoridades electorales, instituciones académicas y verificadores locales, con el objetivo de identificar la desinformación circulando antes, durante y después de las elecciones, en una horquilla temporal ajustada a las características de cada país, así como midiendo la eficacia de la respuesta ofrecida por los distintos actores involucrados. El levantamiento de los datos, la conformación y el análisis de las muestras se hizo de acuerdo con las realidades y capacidades instaladas en los equipos nacionales, a través de acuerdos de colaboración con órganos electorales, universidades y medios verificadores locales.


 

Metodología del Observatorio Complutense de Desinformación

El principal legado de este proyecto, y lo que le hace candidato al premio como aportación relevante a la justicia electoral es el desarrollo de la metodología utilizada por el Observatorio Complutense de Desinformación en cada una de estas misiones. La metodología se basó en la adaptación del modelo FIMI (abreviación de Foreign Intervention and Manipulation of Information, contenido en el 1st EEAS Report on Foreign Information Manipulation and Interference Threatsdel Servicio Exterior de la Unión Europea (UE); un modelo de análisis formulado originalmente en contexto de guerra para examinar los bulos provenientes de la órbita de propaganda e interferencia rusa. A su vez, el modelo FIMI del Servicio Exterior de la UE incorpora el DISARM Framework, un esquema de análisis de amenazas de ciberseguridad desarrollado en Estados Unidos, y en modalidad open-source. Por lo tanto, la novedad del ejercicio académico y metodológico del Observatorio Complutense de Desinformación radica en que es un proceso inédito de adaptación de taxonomías validadas por la comunidad de ciberseguridad, a contextos electorales nacionales en tiempos de paz, principalmente en países de habla hispana, aunque podría aplicarse en otros entornos lingüísticos.

El Observatorio Complutense de Desinformación asumió el desafío de ajustar esta taxonomía a casos locales y en relación con los comicios. Este trabajo implicó el desarrollo de un libro de códigos (adjunto como documentación técnica de apoyo) que, comenzando desde las categorías originales de FIMI, extendió las opciones para reconocer e identificar actores relevantes en un contexto electoral. Por ejemplo, entre los actores causantes de desinformación se incluyeron pseudomedios, influencers, candidatos y partidos políticos, que no estaban considerados en las categorías originales de FIMI. La implementación del método en los primeros países durante 2023 también permitió identificar la amplia variedad de reacciones y medidas que se toman frente a un caso de desinformación electoral: a saber, se incluyó la eliminación o etiquetado de contenidos en plataformas, los desmentidos de instituciones del Estado, y la presentación de recursos judiciales o administrativos, entre otros

En un principio, la adaptación de esta metodología estuvo a cargo de Rafael Rubio (Catedrático UCM) y Miguel Ángel Gonzalo (funcionario del Cuerpo de Archiveros-Bibliotecarios de las Cortes Generales). Posteriormente, la elaboración del libro de códigos sintetizó el trabajo de todos los equipos nacionales, que, a través de varias rondas de reuniones y trabajo conjunto en documentos compartidos, lograron arribar a terminologías comunes y relevantes para analizar los procesos electorales contemporáneos en diferentes países iberoamericanos. De esta forma, la metodología que está detrás de las misiones de observación electoral es un legado del proyecto a disposición de la comunidad electoral internacional para ser replicado y adaptado a nuevos contextos donde su aplicabilidad resulte pertinente.

Objetivos

  • Analizar el papel y la calidad de la información proporcionada por los medios de comunicación y las redes sociales durante el proceso electoral, identificando posibles desafíos y oportunidades para mejorar el acceso a información imparcial y precisa.
  • Detectar y monitorear la presencia y actividad de IMI en el contexto electoral, utilizando metodologías y herramientas apropiadas para identificar incidentes y actores de amenaza.
  • Colaborar con las autoridades locales, organizaciones de la sociedad civil y otras partes interesadas en la promoción de la resiliencia frente a la IMI y en la implementación de medidas para contrarrestar la manipulación de información.
  • Proporcionar asesoramiento técnico y recomendaciones para mejorar las capacidades de prevención y respuesta ante la IMI en futuros procesos electorales.
  • Presentar un informe final con hallazgos y recomendaciones, que permita a las partes interesadas tomar medidas adecuadas para mejorar el proceso electoral y abordar la interferencia y manipulación de información extranjera en futuras elecciones.

Para monitorear, detectar, evaluar y abordar la Interferencia y Manipulación de la Información (IMI), en inglés “Information Manipulation and Interference” (IMI) que pudo afectar a la percepción y confianza de la ciudadanía en el proceso electoral, se adaptaron y confeccionaron las siguientes categorías:

NOMBRE CATEGORÍA TIPO DESCRIPCIÓN
Objetivo Variables Presunto objetivo detrás del contenido desinformador. Admite selección múltiple. Las variables son: distraer, distorsionar, dividir, descartar, desalentar.
Canal en cuanto a su grado de relación con el Estado Variables Naturaleza del canal por el que se distribuye el contenido desinformador, en cuanto a su relación con Estado. Admite selección múltiple. Las variables son: Canales oficiales de comunicación, Canales controlados por el Estado, Canales vinculados al Estado, Canales no atribuidos.
Destinatario del ataque Variables Persona y/o institución sobre la que trata el contenido desinformador y que, por lo tanto, es destinatario del ataque. Admite selección múltiple. Las variables son: Órgano electoral, Gobierno, Instituciones del Estado, Empresas proveedoras del Estado, Actor político, Individuo, Candidato o candidata, Partido político, Tercer actor.
Actor causante Variables Identificación y enumeración de todas las personas y/o instituciones que emiten y/o difunden el contenido desinformador. Admite selección múltiple. Las variables son: Estado, Partido político, Agente político, Medio de comunicación, Candidato o candidata, Pseudomedio o panfleto; Influencer, comunicador o divulgador; Vlogger, Cuentas con carácter de bot, Organización de la sociedad civil, Tercer actor.
Reacciones y medidas Variables Enumeración de todas las respuestas o reacciones ante el contenido desinformador. Admite selección múltiple. Las variables son: Declaración de refutación, Desacreditación, Contenido eliminado, Contenido restringido, Canal limitado o suspendido, Judicialización, Ninguno, Otro.
Responsable de las medidas Variables Identificación de el o los actores responsables de responder al contenido desinformador. Admite selección múltiple. Las variables son: Órgano electoral, Plataforma, Medio verificador, Instituciones del Estado, Actor político, Otro.
Formato de las medidas Variables Identificación del formato en que se emite la respuesta y/o reacción al contenido desinformador. Admite selección múltiple. Las variables son: Cadena de WhatsApp, Video, Imagen, URL, Artículo, Tweet, Audio, Post de Facebook, Story de Instagram, Telegram, SMS, Otro.
Vulnerabilidad Texto abierto Descripción de las fragilidades o inconsistencias que se utilizan para que el contenido desinformador tenga un mayor efecto. Se refiere a los elementos de contexto (ya sea político, económico, social o tecnológico) que se aprovechan para que la desinformación provoque efectos.
Técnicas, tácticas y procedimientos Texto abierto  Descripción del objetivo del contenido desinformador, su formato (videos deep fake, por ejemplo) y redes sociales por las que se difundió y las vulnerabilidades explotadas. Más que nada, se debe describir con palabras el caso y su contexto.

 

 


Más información