DESINFORMACIÓN ESTATAL A SUELDO
DAVID BOLLERO
ENISA, la Agencia Europea para la Ciberseguridad, acaba de publicar su informe sobre el panorama actual de amenazas digitales. Además de llamar la atención sobre cómo el ransomware ha cobrado un protagonismo inédito, contando en su haber con 10 terabytes de datos robados mensualmente, el informe también pone el foco en la desinformación, que cada vez se vale más de la Inteligencia Artificial (IA) para impactar en la sociedad.
La desinformación no es nueva. Uno de sus pioneros fue el responsable de la propaganda de Hitler, Joseph Goebbels, cuyo discurso recuerda peligrosamente al que hoy percibimos en sus herederos fascistas. Una de las máximas de Goebbels era "hacer creer al pueblo que el hambre, la sed, la escasez y las enfermedades son culpa de nuestros opositores y hacer que nuestros simpatizantes lo repitan en cada momento".
Desde entonces, el
fenómeno ha crecido de manera exponencial. Gartner ya advirtió en uno de sus
informes que en 2022 terminaríamos consumiendo más noticias falsas que
verdaderas. En cierto modo no sorprende, toda vez que estudios del Instituto de
Tecnología de Massachusetts (MIT) advierten que las fake news tienen más de un
70% más de probabilidades de ser viralizadas que las verdaderas. De hecho, las
verdaderas necesitan ser hasta seis veces más largas que las falsas para poder
alcanzar sólo a 1.500 personas. Ese es el escenario al que nos enfrentamos.
Un estudio de 2022
de GlobalData estimó que el 10% de las cuentas activas en Twitter publican
contenido no deseado. Mediante un modelo matemático diseñado específicamente
para detectar este tipo de información, los datos revelaron que el spam que se
difunde en esta red social es el doble del que ésta informa. Aquel informe
viene a respaldar lo que el equipo de Elon Musk afirmaba cuando el magnate aún
estaba en negociaciones para comprar Twitter, es decir, que el número de
cuentas de bots/spam superaba ampliamente el 5%.
Determinar un
número exacto, sin embargo, no es una tarea sencilla, pues a pesar de que en
ocasiones se identifican casos claros, en otras la difusión masiva de contenido
no original puede deberse, sencillamente, a un usuario activo compartiendo
artículos y opiniones. Entre los criterios utilizados para identificar el
contenido no deseado, GlobalData se preguntó con qué frecuencia fueron los
últimos 200 tweets, cuántos de ellos no contenían hashtags o cuál es el tiempo
medio entre dos tuits, entre otros.
Desinformación a
sueldo
ENISA distingue tres
tipos distintos de desinformación en función de su objetivo. De esta manera,
cuando se dirige a una persona, se busca que ésta pierda su credibilidad y sea
percibida como alguien deshonesto. Algo similar sucede cuando el ataque de
desinformación se proyecta sobre una empresa, con la finalidad de dañar su
reputación de marca y afectar a su solidez financiera, haciendo perder la
confianza en su gestión. Finalmente, ENISA determina que cuando los ataques se
dirigen a la sociedad en general, el propósito es minar los esfuerzos por
buscar la verdad, manipular a las masas y extender la incapacidad de distinguir
qué noticias son verdaderas y cuáles son patrañas.
Desde esta
organización europea no les cabe duda de que cada vez es más claro que la
desinformación es una amenaza importante para la democracia, el debate abierto
y una sociedad libre y moderna. Se refiera ENISA a la "desinformación a
sueldo", porque esta práctica ya se ha convertido en un lucrativo negocio,
pagándose grandes sumas de dinero a quienes elaboran este contenido para
desestabilizar gobiernos, empresas, etc.
Ya en 2020, la
Universidad de Oxford publicó un estudio en el que hablaba de
"desinformación industrializada", habiendo encontrado evidencias
hasta en 81 países de grupos cibernéticos a sueldo de Estados y otros actores
políticos para perturbar elecciones, la misma democracia y los derechos
humanos. Según aquel informe, las estrategias, herramientas, y las técnicas de
manipulación de las redes sociales son omnipresentes en la vida pública en
todos los tipos de régimen. Se ha producido una profesionalización de la
desinformación, que ha pasado a utilizarse a gran escala por gobiernos,
partidos políticos y agencias de relaciones públicas.
Hasta en 62 países
la Universidad de Oxford detectó que eran los propios gobiernos los que
utilizaban la computación para dirigir y moldear la opinión pública. En este
informe, España era una de las escasas excepciones en las que los expertos
británicos no detectaron esta práctica en los organismos estatales, a
diferencia de lo que sí sucede en otros países europeos como Reino Unido.
El papel de la IA
En esta rápida
evolución, según expone el informe, quienes fabrican desinformación se ayudan
para ello de la Inteligencia Artificial (IA) y la computación en la nube,
aprovechando además estas capacidades para su difusión. El mejor ejemplo de
ello son los millones de bots que inundan las plataformas de internet, siendo
una de las bases de la difusión de la desinformación y de la generación del
caos social, según sostiene ENISA.
La tecnología ha
evolucionado muy rápidamente, dando lugar a los Deepfakes que pueden llegar a
dar credibilidad a contenido manifiestamente falso. Se trata de imágenes
sintéticas con las que es posible suplantar la identidad de una persona,
resultando muy complicado distinguir si es auténtico o no. Ya existe software a
disposición de cualquiera para ello, como FaceSwap o DeepFaceLab. A este respecto, el proyecto europeo de
innovación e investigación multidisciplinaria CONCORDIA alerta sobre cómo los
Deepfakes, la propaganda y las campañas de desinformación están en todas
partes, impactando directamente en el día a día de las personas y en la
sociedad.
La misma IA puede
redactar noticias falsas con unos niveles de verosimilitud que ponen los pelos
de punta. Hace ya tres años, OpenAI –organización sin ánimo de lucro,
paradójicamente, impulsada por Elon Musk- admitió el desarrollo de GPT2, un
algoritmo capaz de hace generar una noticia de varios párrafos a partir de un
único titular, incorporando fuentes, citas de cargos públicos, etc.
Sin embargo, hay
esperanza. Al menos así lo ve Jesús Miguel Flores Vivar, profesor e
investigador del Departamento Periodismo y Nuevos Medios de la Universidad
Complutense de Madrid, convencido de que la misma IA puede ser parte de la
solución. Flores sostiene que los algoritmos ya han demostrado su eficacia en
la detección de noticias falsas, supliendo la incapacidad humana dado el
extraordinario e inasumible caudal de desinformación en internet.
Ya existen ejemplos
de este tipo de algoritmos, como el desarrollado por la Universidad de Michigan
para cazar noticias falsas, con tasas de acierto del 76% de éxito –seis puntos
porcentuales más que con intervención humana-. La propia Twitter, en 2019
adquirió una startup británica llamada Fabula AI que había desarrollado una
tecnología para buscar patrones en la difusión del contenido en internet que
pudieran sugerir la existencia de desinformación.
En esta misma
línea, el Global Disinformation Index (GDI) recopila datos sobre cómo la
desinformación, cuando es deliberada, viaja y se propaga, pudiendo ayudar a
combatirla. Apoyándose en herramientas y técnicas de IA, GDI clasifica contenido
poco confiable y, combinándolo después con análisis realizados por expertos, se
clasifican de nuevo las publicaciones en función de sus respectivas
puntuaciones de riesgo de desinformación.
No hay comentarios:
Publicar un comentario