Páginas

viernes, 11 de noviembre de 2022

DESINFORMACIÓN ESTATAL A SUELDO

 

DESINFORMACIÓN ESTATAL A SUELDO

DAVID BOLLERO

ENISA, la Agencia Europea para la Ciberseguridad, acaba de publicar su informe sobre el panorama actual de amenazas digitales. Además de llamar la atención sobre cómo el ransomware ha cobrado un protagonismo inédito, contando en su haber con 10 terabytes de datos robados mensualmente, el informe también pone el foco en la desinformación, que cada vez se vale más de la Inteligencia Artificial (IA) para impactar en la sociedad.

La desinformación no es nueva. Uno de sus pioneros fue el responsable de la propaganda de Hitler, Joseph Goebbels, cuyo discurso recuerda peligrosamente al que hoy percibimos en sus herederos fascistas. Una de las máximas de Goebbels era "hacer creer al pueblo que el hambre, la sed, la escasez y las enfermedades son culpa de nuestros opositores y hacer que nuestros simpatizantes lo repitan en cada momento".

 

Desde entonces, el fenómeno ha crecido de manera exponencial. Gartner ya advirtió en uno de sus informes que en 2022 terminaríamos consumiendo más noticias falsas que verdaderas. En cierto modo no sorprende, toda vez que estudios del Instituto de Tecnología de Massachusetts (MIT) advierten que las fake news tienen más de un 70% más de probabilidades de ser viralizadas que las verdaderas. De hecho, las verdaderas necesitan ser hasta seis veces más largas que las falsas para poder alcanzar sólo a 1.500 personas. Ese es el escenario al que nos enfrentamos.

 

Un estudio de 2022 de GlobalData estimó que el 10% de las cuentas activas en Twitter publican contenido no deseado. Mediante un modelo matemático diseñado específicamente para detectar este tipo de información, los datos revelaron que el spam que se difunde en esta red social es el doble del que ésta informa. Aquel informe viene a respaldar lo que el equipo de Elon Musk afirmaba cuando el magnate aún estaba en negociaciones para comprar Twitter, es decir, que el número de cuentas de bots/spam superaba ampliamente el 5%.

 

Determinar un número exacto, sin embargo, no es una tarea sencilla, pues a pesar de que en ocasiones se identifican casos claros, en otras la difusión masiva de contenido no original puede deberse, sencillamente, a un usuario activo compartiendo artículos y opiniones. Entre los criterios utilizados para identificar el contenido no deseado, GlobalData se preguntó con qué frecuencia fueron los últimos 200 tweets, cuántos de ellos no contenían hashtags o cuál es el tiempo medio entre dos tuits, entre otros.

 

Desinformación a sueldo

ENISA distingue tres tipos distintos de desinformación en función de su objetivo. De esta manera, cuando se dirige a una persona, se busca que ésta pierda su credibilidad y sea percibida como alguien deshonesto. Algo similar sucede cuando el ataque de desinformación se proyecta sobre una empresa, con la finalidad de dañar su reputación de marca y afectar a su solidez financiera, haciendo perder la confianza en su gestión. Finalmente, ENISA determina que cuando los ataques se dirigen a la sociedad en general, el propósito es minar los esfuerzos por buscar la verdad, manipular a las masas y extender la incapacidad de distinguir qué noticias son verdaderas y cuáles son patrañas.

 

Desde esta organización europea no les cabe duda de que cada vez es más claro que la desinformación es una amenaza importante para la democracia, el debate abierto y una sociedad libre y moderna. Se refiera ENISA a la "desinformación a sueldo", porque esta práctica ya se ha convertido en un lucrativo negocio, pagándose grandes sumas de dinero a quienes elaboran este contenido para desestabilizar gobiernos, empresas, etc.

 

Ya en 2020, la Universidad de Oxford publicó un estudio en el que hablaba de "desinformación industrializada", habiendo encontrado evidencias hasta en 81 países de grupos cibernéticos a sueldo de Estados y otros actores políticos para perturbar elecciones, la misma democracia y los derechos humanos. Según aquel informe, las estrategias, herramientas, y las técnicas de manipulación de las redes sociales son omnipresentes en la vida pública en todos los tipos de régimen. Se ha producido una profesionalización de la desinformación, que ha pasado a utilizarse a gran escala por gobiernos, partidos políticos y agencias de relaciones públicas.

 

Hasta en 62 países la Universidad de Oxford detectó que eran los propios gobiernos los que utilizaban la computación para dirigir y moldear la opinión pública. En este informe, España era una de las escasas excepciones en las que los expertos británicos no detectaron esta práctica en los organismos estatales, a diferencia de lo que sí sucede en otros países europeos como Reino Unido.

 

El papel de la IA

En esta rápida evolución, según expone el informe, quienes fabrican desinformación se ayudan para ello de la Inteligencia Artificial (IA) y la computación en la nube, aprovechando además estas capacidades para su difusión. El mejor ejemplo de ello son los millones de bots que inundan las plataformas de internet, siendo una de las bases de la difusión de la desinformación y de la generación del caos social, según sostiene ENISA.

 

La tecnología ha evolucionado muy rápidamente, dando lugar a los Deepfakes que pueden llegar a dar credibilidad a contenido manifiestamente falso. Se trata de imágenes sintéticas con las que es posible suplantar la identidad de una persona, resultando muy complicado distinguir si es auténtico o no. Ya existe software a disposición de cualquiera para ello, como FaceSwap o DeepFaceLab.  A este respecto, el proyecto europeo de innovación e investigación multidisciplinaria CONCORDIA alerta sobre cómo los Deepfakes, la propaganda y las campañas de desinformación están en todas partes, impactando directamente en el día a día de las personas y en la sociedad.

 

La misma IA puede redactar noticias falsas con unos niveles de verosimilitud que ponen los pelos de punta. Hace ya tres años, OpenAI –organización sin ánimo de lucro, paradójicamente, impulsada por Elon Musk- admitió el desarrollo de GPT2, un algoritmo capaz de hace generar una noticia de varios párrafos a partir de un único titular, incorporando fuentes, citas de cargos públicos, etc.

 

Sin embargo, hay esperanza. Al menos así lo ve Jesús Miguel Flores Vivar, profesor e investigador del Departamento Periodismo y Nuevos Medios de la Universidad Complutense de Madrid, convencido de que la misma IA puede ser parte de la solución. Flores sostiene que los algoritmos ya han demostrado su eficacia en la detección de noticias falsas, supliendo la incapacidad humana dado el extraordinario e inasumible caudal de desinformación en internet.

 

Ya existen ejemplos de este tipo de algoritmos, como el desarrollado por la Universidad de Michigan para cazar noticias falsas, con tasas de acierto del 76% de éxito –seis puntos porcentuales más que con intervención humana-. La propia Twitter, en 2019 adquirió una startup británica llamada Fabula AI que había desarrollado una tecnología para buscar patrones en la difusión del contenido en internet que pudieran sugerir la existencia de desinformación.

 

En esta misma línea, el Global Disinformation Index (GDI) recopila datos sobre cómo la desinformación, cuando es deliberada, viaja y se propaga, pudiendo ayudar a combatirla. Apoyándose en herramientas y técnicas de IA, GDI clasifica contenido poco confiable y, combinándolo después con análisis realizados por expertos, se clasifican de nuevo las publicaciones en función de sus respectivas puntuaciones de riesgo de desinformación.

No hay comentarios:

Publicar un comentario