Observación electoral
Para levantar datos que permitan entender mejor el escenario en el que se desenvuelven los procesos electorales contemporáneos, el Observatorio Complutense de Desinformación recolecta y analiza casos de desinformación en períodos inmediatamente anteriores a las elecciones de diferentes países. Lo que se busca es identificar elementos como narrativas, actores causantes, canales, destinatarios y objetivos. Hasta ahora, este proceso se ha llevado a cabo en Argentina, Ecuador, Chile, México y España. En los próximos meses, se aplicará en Perú, Uruguay, Estados Unidos y en las elecciones del Parlamento Europeo.
Metodología del Observatorio Complutense de Desinformación
El objetivo general de este análisis de observación electoral es monitorear, detectar, evaluar y abordar la Interferencia y Manipulación de la Información (IMI), en inglés Information Manipulation and Interference (IMI), que pueda afectar a la percepción y confianza de la ciudadanía en el proceso electoral. La misión proporcionará recomendaciones y asistencia técnica para fortalecer las capacidades de las instituciones y actores involucrados en la prevención y respuesta ante la IMI. La metodología es una adaptación del trabajo realizado por el Servicio de Acción Exterior de la Unión Europea, explicado en el 1st EEAS Report on Foreign Information Manipulation and Interference Threats. La adaptación de esta metodología estuvo a cargo de Rafael Rubio (Catedrático UCM) y Miguel Ángel Gonzalo (funcionario del Cuerpo de Archiveros-Bibliotecarios de las Cortes Generales).
Objetivos
- Analizar el papel y la calidad de la información proporcionada por los medios de comunicación y las redes sociales durante el proceso electoral, identificando posibles desafíos y oportunidades para mejorar el acceso a información imparcial y precisa.
- Detectar y monitorear la presencia y actividad de IMI en el contexto electoral, utilizando metodologías y herramientas apropiadas para identificar incidentes y actores de amenaza.
- Colaborar con las autoridades locales, organizaciones de la sociedad civil y otras partes interesadas en la promoción de la resiliencia frente a la IMI y en la implementación de medidas para contrarrestar la manipulación de información.
- Proporcionar asesoramiento técnico y recomendaciones para mejorar las capacidades de prevención y respuesta ante la IMI en futuros procesos electorales.
- Presentar un informe final con hallazgos y recomendaciones, que permita a las partes interesadas tomar medidas adecuadas para mejorar el proceso electoral y abordar la interferencia y manipulación de información extranjera en futuras elecciones.
Para monitorear, detectar, evaluar y abordar la Interferencia y Manipulación de la Información (IMI), en inglés “Information Manipulation and Interference” (IMI) que pudo afectar a la percepción y confianza de la ciudadanía en el proceso electoral, se adaptaron y confeccionaron las siguientes categorías:
NOMBRE CATEGORÍA | TIPO | DESCRIPCIÓN |
Objetivo | Variables | Presunto objetivo detrás del contenido desinformador. Admite selección múltiple. Las variables son: distraer, distorsionar, dividir, descartar, desalentar. |
Canal en cuanto a su grado de relación con el Estado | Variables | Naturaleza del canal por el que se distribuye el contenido desinformador, en cuanto a su relación con Estado. Admite selección múltiple. Las variables son: Canales oficiales de comunicación, Canales controlados por el Estado, Canales vinculados al Estado, Canales no atribuidos. |
Destinatario del ataque | Variables | Persona y/o institución sobre la que trata el contenido desinformador y que, por lo tanto, es destinatario del ataque. Admite selección múltiple. Las variables son: Órgano electoral, Gobierno, Instituciones del Estado, Empresas proveedoras del Estado, Actor político, Individuo, Candidato o candidata, Partido político, Tercer actor. |
Actor causante | Variables | Identificación y enumeración de todas las personas y/o instituciones que emiten y/o difunden el contenido desinformador. Admite selección múltiple. Las variables son: Estado, Partido político, Agente político, Medio de comunicación, Candidato o candidata, Pseudomedio o panfleto; Influencer, comunicador o divulgador; Vlogger, Cuentas con carácter de bot, Organización de la sociedad civil, Tercer actor. |
Reacciones y medidas | Variables | Enumeración de todas las respuestas o reacciones ante el contenido desinformador. Admite selección múltiple. Las variables son: Declaración de refutación, Desacreditación, Contenido eliminado, Contenido restringido, Canal limitado o suspendido, Judicialización, Ninguno, Otro. |
Responsable de las medidas | Variables | Identificación de el o los actores responsables de responder al contenido desinformador. Admite selección múltiple. Las variables son: Órgano electoral, Plataforma, Medio verificador, Instituciones del Estado, Actor político, Otro. |
Formato de las medidas | Variables | Identificación del formato en que se emite la respuesta y/o reacción al contenido desinformador. Admite selección múltiple. Las variables son: Cadena de WhatsApp, Video, Imagen, URL, Artículo, Tweet, Audio, Post de Facebook, Story de Instagram, Telegram, SMS, Otro. |
Vulnerabilidad | Texto abierto | Descripción de las fragilidades o inconsistencias que se utilizan para que el contenido desinformador tenga un mayor efecto. Se refiere a los elementos de contexto (ya sea político, económico, social o tecnológico) que se aprovechan para que la desinformación provoque efectos. |
Técnicas, tácticas y procedimientos | Texto abierto | Descripción del objetivo del contenido desinformador, su formato (videos deep fake, por ejemplo) y redes sociales por las que se difundió y las vulnerabilidades explotadas. Más que nada, se debe describir con palabras el caso y su contexto. |