Personas malintencionadas están usando inteligencia artificial para difundir mentiras y alterar las elecciones en los países, pero las mismas herramientas pueden utilizarse para defender la verdad.
por LYDIA MORRISH

Todavía faltan casi cuatro meses para las elecciones autonómicas en España, pero desde ya Irene Larraz y su equipo de Newtral están preparados para lo que ya llegó: la automatización de la desinformación. Cada mañana, la mitad del equipo de Larraz en la empresa con sede en Madrid, arma un calendario de discursos y debates, preparándose para verificar las declaraciones de los políticos. La otra mitad del grupo desmiente lo que no es correcto, monitorea la web en busca de mentiras virales y trabaja para infiltrarse en los grupos que difunden falsedades. Una vez pasadas las de mayo, habrá que convocar elecciones nacionales antes de fin de año, lo que provocará otra avalancha de bulos en la red. “Va a ser bastante duro”, advierte Larraz.
La automatización de la mentira
La proliferación de la desinformación y la propaganda online han supuesto una ardua batalla para los fact-checkers de todo el mundo, verificadores de hechos y datos que tienen que depurar y examinar inmensas cantidades de información durante situaciones complejas o de rápida evolución, como la invasión rusa de Ucrania, la pandemia de Covid-19 o las campañas electorales. Esa tarea se ha vuelto aún más difícil con la llegada de los chatbots, que utilizan grandes modelos de lenguaje, como ChatGPT de OpenAI, que pueden producir textos que se leen naturales con solo pulsar un botón, esencialmente automatizando la producción de información errónea.
Ante esta asimetría, las organizaciones de verificación de datos y hechos se ven obligadas a crear sus propias herramientas, basadas también en inteligencia artificial, para automatizar y acelerar su trabajo. Está lejos de ser una solución completa, pero los comprobadores esperan que estas nuevas utilidades eviten que la brecha entre ellos y sus adversarios se amplíe demasiado rápido, más en un momento en el cual las empresas de medios sociales están reduciendo sus propias operaciones de moderación.
“La carrera entre los fact-checkers y aquellos a quienes controlan es una muy desigual”, afirma Tim Gordon, cofundador de Best Practice AI, una empresa asesora en estrategia y gobernanza de inteligencia artificial. También es administrador de una organización benéfica británica dedicada a la comprobación de hechos.
“Quienes verifican de hechos suelen ser organizaciones minúsculas comparadas con las que producen la desinformación”, refiere Gordon, “la escala de lo que la inteligencia artificial generativa puede producir, y el ritmo al que puede hacerlo, significan que esta carrera solo va a hacerse más difícil”.
En busca de lo veraz
Newtral comenzó a desarrollar en 2020 su modelo de lenguaje de inteligencia artificial multilingüe, ClaimHunter, financiado por las ganancias de su división de televisión, que produce un programa de verificación de hechos de políticos, además de documentales, para plataformas como HBO y Netflix.
Utilizando el modelo de lenguaje BERT, de Microsoft, los desarrolladores de ClaimHunter usaron 10 mil declaraciones para ‘enseñar’ al sistema a reconocer frases que parecen incluir declaraciones de hechos, como datos, números o comparaciones. “Estábamos entrenando a la máquina para desempeñar el papel de un verificador de hechos”, declara el director de tecnología de Newtral, Rubén Míguez.
Es una tarea ardua identificar la información que debe comprobarse de políticos o de cuentas de redes sociales. ClaimHunter detecta automáticamente las afirmaciones políticas realizadas en Twitter, mientras que otra aplicación transcribe la cobertura de video y audio de los políticos. Ambas identifican declaraciones que contienen una aseveración que puede probarse o refutarse; es decir, declaraciones que no son ambiguas, preguntas o simples opiniones. Luego las señalan a los verificadores de hechos de Newtral para que las revisen.
El sistema no es perfecto y a veces marca opiniones como hechos, pero sus errores ayudan a los usuarios a reentrenar continuamente el algoritmo. Según Míguez, ha reducido entre un 70% y un 80% el tiempo necesario para identificar las afirmaciones que merecen ser comprobadas.
“Disponer de esta tecnología es un gran paso para escuchar a más políticos, encontrar más hechos que comprobar [y] desacreditar más desinformación”, asegura Larraz. “Antes solo podíamos hacer una pequeña parte del trabajo que hacemos hoy”.
Newtral también colabora con la London School of Economics del Reino Unido y con la cadena ABC de Australia en el desarrollo de una herramienta de ‘comparación’ de afirmaciones que identifica las declaraciones falsas repetidas de los políticos y ahorra tiempo a los verificadores reciclando las aclaraciones y los artículos que desmienten dichas afirmaciones.
La búsqueda de la automatización no es nueva. Bill Adair, fundador de la organización de verificación de hechos, Politifact, experimentó por primera vezen 2013 con una herramienta de verificación instantánea, llamada Squash, en el Laboratorio de Reporteros de la Universidad de Duke. Squash cotejaba en tiempo real los discursos de los políticos con previas comprobaciones de hechos disponibles en línea, pero su utilidad era limitada. No tenía acceso a una biblioteca de datos contrastados lo suficientemente amplia con los que comparar las afirmaciones. Además, sus transcripciones estaban llenas de errores, que los humanos tenían que volver a comprobar.
“Squash fue un primer paso excelente que nos mostró la promesa y los retos de la comprobación de hechos en vivo”, explica Adair a WIRED, “Ahora tenemos que combinar lo que hemos hecho con los nuevos avances en inteligencia artificial y desarrollar la próxima generación”.
Pero una década después, la comprobación de hechos todavía está muy lejos de ser totalmente automatizada. Aunque los grandes modelos de lenguaje (LLM) como ChatGPT pueden producir textos que parecen escritos por una persona, no pueden detectar los matices del lenguaje, y tienen tendencia a inventar cosas y a amplificar los prejuicios y los estereotipos.
“Andy Dudfield, responsable de Inteligencia Artificial de Full Fact, una organización benéfica británica dedicada a la comprobación de hechos, que también ha utilizado un modelo BERT para automatizar partes de su flujo de trabajo, destaca que la comprobación de hechos ”es un mundo muy sutil de contexto y limitantes”.
¿Cuánto se equivoca la inteligencia artificial?
Aunque parezca que la inteligencia artificial formula argumentos y conclusiones, en realidad no emite juicios complejos, lo que significa que no puede, por ejemplo, calificar la veracidad de una afirmación.
Además, los LLM desconocen los acontecimientos cotidianos, por lo que no son especialmente útiles para comprobar la veracidad de las noticias de última hora. “Conocen toda Wikipedia, pero no saben lo que pasó la semana pasada”, indica Míguez, de Newtral.
Michael Schlichtkrull, investigador postdoctoral asociado en verificación automatizada de hechos en la Universidad de Cambridge, opina: “Un sistema combinado en el que un humano y una máquina trabajan juntos, como un ciborg verificador de hechos, es algo que ya está ocurriendo, y que veremos más en los próximos años”.
Cuando empezamos a trabajar en este problema en Newtral, la pregunta era si podríamos automatizar la comprobación de hechos. Ahora la cuestión para nosotros es cuándo podremos automatizar completamente la comprobación de hechos. Nuestro principal interés en este momento es cómo podemos acelerar esto, porque las tecnologías de falsificación avanzan más rápido que las tecnologías para detectar la desinformación”.
Los verificadores de hechos y los investigadores dicen que hay una urgencia real en la búsqueda de herramientas para ampliar y acelerar su trabajo, ya que la inteligencia artificial generativa aumenta el volumen de desinformación en línea mediante la automatización del proceso de producción.
En enero de 2023, investigadores de NewsGuard, una empresa tecnológica de comprobación de hechos, hicieron 100 preguntas a ChatGPT, todas relacionadas con falsas narrativas habituales en torno a la política y la sanidad estadounidenses. En el 80% de sus respuestas, el chatbot produjo afirmaciones falsas y engañosas. OpenAI declinó hacer comentarios al respecto.
La inteligencia artificial generativa crea un mundo en el que cualquiera puede producir y difundir desinformación. Aunque no sea su intención”, alerta Gordon.
A medida que crece el problema de la desinformación automatizada, los recursos disponibles para hacerle frente se ven sometidos a más presión.
Aunque en la actualidad hay casi 400 iniciativas de comprobación de hechos en más de 100 países, el crecimiento es más lento, según el último censo de comprobación de hechos de Duke Reporters’ Lab. De acuerdo con Mark Stencel, codirector del laboratorio, cada año cierran una media de 12 grupos de este tipo. La creación de nuevas organizaciones de verificación de hechos se ha ralentizado desde 2020, pero el sector dista mucho de estar saturado, piensa Stencel, sobre todo en países como Estados Unidos, donde 29 de los 50 estados carecen aún de proyectos permanentes de verificación de hechos.
Con despidos masivos en todo el sector tecnológico, es probable que la carga de identificar y señalar falsedades recaiga más en organizaciones independientes. Desde que Elon Musk se hizo cargo de Twitter en octubre de 2022, la empresa ha recortado sus equipos de supervisión de la desinformación y la incitación al odio. Al parecer, Meta reestructuró su equipo de moderación de contenidos en medio de los miles de despidos en noviembre.
Con las probabilidades en contra, los verificadores de hechos creen que necesitan encontrar formas innovadoras de crecer sin grandes inversiones. “Todos los verificadores de hechos del mundo han escrito alrededor de 130 mil verificaciones de hechos”, destaca Dudfield, citando un documento de 2021; “es una cifra de la que estar muy orgullosos, pero en la escala de la web es un número realmente pequeño. Así que todo lo que podamos hacer para que cada uno de ellos trabaje lo mejor posible es realmente importante”.