Las 'fake news' han avivado las llamas de la desconfianza hacia los medios, la política y las instituciones establecidas en todo el mundo. Y aunque las nuevas tecnologías como la inteligencia artificial (IA) pueden empeorar las cosas, también se pueden utilizar para combatir la desinformación.
¿Quieres sonar como Obama? En el pasado, eso podría haber requerido imitar físicamente su voz. E incluso si fueras muy bueno en eso, es casi seguro que no representaría un peligro para nuestra democracia. Pero la tecnología ha cambiado esto. Ahora puedes hacer que cualquier persona diga cualquier cosa con facilidad y precisión a través de la IA. Simplemente hay que utilizar el servicio de un programa online para grabar una oración y escucharlo con la voz de una persona famosa.
Los programas como este a menudo se denominan falsificaciones profundas: sistemas de inteligencia artificial que adaptan audio, imágenes y vídeos para que la gente diga y haga cosas que nunca hizo.
Estas tecnologías podrían iniciar una nueva era de noticias falsas y desinformación en la red. En 2017, Hany Farid, un científico informático del Dartmouth College, EE. UU., que detecta vídeos falsos, dijo que la rápida proliferación de nuevas técnicas de manipulación ha llevado a una "carrera armamentista". Imagínense cómo serán las elecciones cuando ya no podamos confiar en el vídeo y el audio. Pero algunos investigadores ahora están contraatacando y mostrando que la IA también se puede usar para el bien.
"La IA tiene muchos problemas éticos", comentó Francesco Nucci, director de investigación de aplicaciones del Grupo de Ingeniería, con sede en Italia. “Pero a veces también puede ser la solución. Puede utilizar la IA de formas poco éticas para, por ejemplo, crear y difundir noticias falsas, pero también puede utilizarla para hacer el bien, por ejemplo, para combatir la desinformación ".
Verificadores de hechos
Es el investigador principal del proyecto Fandango, cuyo objetivo es precisamente este. El equipo está creando herramientas de software para ayudar a los periodistas y verificadores de hechos a detectar y combatir las noticias falsas, dice Nucci. Esperan servir a los periodistas de tres maneras.
El primer componente es lo que Nucci llama detección independiente del contenido mediante el uso de herramientas que apuntan a la forma del contenido.
Nucci explica que hoy en día, las imágenes y los vídeos se pueden manipular fácilmente, ya sea mediante un simple Photoshop o técnicas más complejas como las falsificaciones profundas. Los sistemas de Fandango pueden aplicar ingeniería inversa a esos cambios y utilizar algoritmos para ayudar a los periodistas a detectar contenido manipulado.
A medida que estas herramientas miran la forma, no comprueban si el contenido en sí hace afirmaciones falsas, que es lo que hace la segunda línea de investigación de Fandango. Aquí enlazan historias que han sido probadas como falsas por verificadores de hechos humanos y buscan páginas en línea o publicaciones en redes sociales con palabras y afirmaciones similares.
"Las herramientas pueden detectar qué noticias falsas comparten la misma raíz y permitir que los periodistas las investiguen", aclara Nucci.
Ambos componentes dependen en gran medida de varios algoritmos de inteligencia artificial, como el procesamiento del lenguaje natural. El tercer componente permite a los periodistas responder a noticias falsas.
Una historia falsa podría, por ejemplo, afirmar que un porcentaje muy alto de delitos en un país europeo es cometido por inmigrantes extranjeros. En teoría, esa podría ser una afirmación fácil de refutar debido a la gran cantidad de datos abiertos disponibles, pero los periodistas pierden un tiempo valioso en encontrar esos datos. Por tanto, la herramienta de Fandango vincula todo tipo de fuentes de datos abiertos europeos, las agrupa y visualiza. Los periodistas pueden utilizar, por ejemplo, datos nacionales agrupados para abordar denuncias sobre delitos o aplicar datos de los satélites europeos del programa Copérnico a los debates sobre el cambio climático.
"De esta manera, los periodistas pueden responder rápidamente a historias falsas y no perder el tiempo", expone el experto.
Actualmente, sus herramientas están siendo probadas por la emisora pública belga VRT, ANSA, la principal agencia de noticias italiana, y CIVIO, una organización española sin ánimo de lucro.
Detección de noticias falsas
Sin embargo, detectar noticias falsas podría no solo ser una cuestión de encontrar afirmaciones falsas, sino también de analizar cantidades masivas de patrones para compartir en las redes sociales, dice Michael Bronstein, profesor de la Universidad de Lugano en Suiza y del Imperial College de Londres, Reino Unido.
Dirige un proyecto llamado GoodNews, que utiliza inteligencia artificial para adoptar un enfoque atípico de detección de noticias falsas.
"La mayoría de los enfoques existentes analizan el contenido", dijo el profesor Bronstein. “Analizan las características semánticas que son características de las noticias falsas. Lo cual funciona hasta cierto punto, pero se encuentra con todo tipo de problemas.
"Existen, por ejemplo, barreras de idioma, plataformas como WhatsApp no te dan acceso al contenido porque está encriptado y, en muchos casos, las noticias falsas pueden ser una imagen, que es más difícil de analizar usando técnicas como el procesamiento del lenguaje natural".
Así que el profesor Bronstein y su equipo le dieron la vuelta a este modelo y, en cambio, observaron cómo se difunden las noticias falsas.
Esencialmente, estudios previos muestran que las noticias falsas se comparten en internet de diferentes maneras que las noticias reales, dice el profesor Bronstein. Las noticias falsas pueden tener muchas más acciones que me gusta en Facebook, mientras que las publicaciones regulares tienden a tener más me gusta que acciones. Al detectar patrones como estos, GoodNews otorga un puntaje de credibilidad a una noticia.
El equipo ha construido su primer prototipo, que utiliza aprendizaje automático basado en gráficos, una técnica de inteligencia artificial en la que el profesor Bronstein es un experto. El prototipo se entrena con datos de Twitter, donde los investigadores rastrean historias verificadas por periodistas y que han demostrado ser falsas. De esta manera, los periodistas entrenan el algoritmo de IA mostrándole qué historias son falsas y cuáles no.
El equipo de GoodNews espera monetizar este servicio a través de una start-up llamada Fabula AI, con sede en Londres. Aunque esperan lanzar el producto a finales de año, prevén tener clientes como grandes empresas de medios como Facebook y Twitter, pero también usuarios individuales.
"Nuestra visión más amplia es que queremos convertirnos en una agencia de calificación de credibilidad para las noticias, de la misma manera que ciertas empresas califican la calificación crediticia del consumidor de una persona", explica Bronstein.
Resolver el problema
Por supuesto, eso deja una pregunta más importante: ¿puede la tecnología realmente resolver las noticias falsas? Ambos investigadores son escépticos, pero están convencidos de que la tecnología puede ayudar. Nucci enfatiza que el concepto de noticias falsas es controvertido y que las historias a menudo no son del todo ciertas, pero tampoco del todo falsas.
"Las noticias falsas no son una cuestión matemática de algoritmos y datos", dijo. “Pero sí una cuestión muy filosófica de cómo tratamos con la verdad. Sin embargo, nuestra tecnología puede ayudar a mejorar la transparencia en torno a las declaraciones falsas y la información errónea ".
El profesor Bronstein dice que sería ingenuo esperar que la tecnología resuelva el problema de las noticias falsas.
“No se trata solo de detectar noticias falsas. También es un problema de confianza y falta de pensamiento crítico. La gente está perdiendo la confianza en las instituciones y los medios tradicionales, y eso no es algo que pueda mitigarse solo a través de la tecnología ”.
"Requiere el esfuerzo de todas las partes interesadas y, con suerte, nuestro proyecto puede participar en este esfuerzo mayor", concluye.