Defender la democracia en la era digital requerirá ir más allá de la lucha contra la desinformación en línea.

por Zeve Sanderson y Scott Babwah Brennen

Los primeros meses del segundo gobierno de Donald Trump, al igual que sus primeros cuatro años, se han caracterizado por mentiras: mentiras extrañasmentiras interesadas y mentiras inhumanas. «Un diluvio de falsedades», como describió el senador demócrata Chuck Schumer el discurso del presidente de marzo de 2025 ante una sesión conjunta del Congreso.

Sian Roper para la revista Noema

A menudo llamamos a estas mentiras desinformación. Si bien el término existe desde al menos el siglo XVI , se popularizó en 2016, cuando el resultado del referéndum del Brexit y la primera victoria electoral de Trump se atribuyeron en gran medida a mentiras que circulaban en redes sociales.

Durante la última década, es difícil exagerar cuánto se ha convertido en parte del espíritu de la época. En 2016, Oxford Dictionaries seleccionó «posverdad» como su palabra del año; en 2017, Collins Dictionary seleccionó «noticias falsas»; y en 2018, Dictionary.com eligió «desinformación».

Por segundo año consecutivo, los líderes mundiales encuestados en el ámbito académico, empresarial, gubernamental y de la sociedad civil clasificaron la desinformación y la información errónea como los mayores riesgos a corto plazo, por encima de los fenómenos meteorológicos, la inflación y la guerra, según la Encuesta de Percepción de Riesgos Globales del Foro Económico Mundial .

Ha habido un campo de investigación dedicado a la desinformación y la información errónea; periodismo y libros blancos ; consejos asesores y simposios ; e incluso leyes aprobadas para detener su propagación.

Pero tras casi una década de esfuerzos concertados para combatir la desinformación, debemos preguntarnos: ¿con qué efecto? Resulta inquietante constatar que, al menos en Estados Unidos, hemos logrado poco o ningún progreso perceptible. Si bien el público estadounidense nunca ha estado particularmente bien informado, ciertamente no lo está hoy. Las percepciones sobre qué constituye la verdad y quién puede afirmarla con credibilidad se han polarizado. La confianza en las instituciones, que ya estaba disminuyendo, se ha deteriorado aún más . Muchas plataformas han dejado de moderar la desinformación en diversos grados. 

Dado todo esto, es difícil confiar en que el trabajo de la última década haya logrado avances mensurables en la cura de nuestro llamado ” trastorno de la información “. Además, es imposible demostrar algo negativo. Quizás habríamos estado aún peor sin este trabajo. Algunos podrían pensar que esto significa que no hemos hecho lo suficiente. Pero la falta de resultados significativos plantea la pregunta: ¿Acaso comprendimos el problema desde el principio?

El surgimiento de un paradigma

Si bien la desinformación ha existido desde los albores de la comunicación humana, según se dice, la tecnología ha transformado la dinámica. Con la llegada de tecnologías de la información como las redes sociales, los motores de búsqueda y la IA generativa, la desinformación ahora puede propagarse a una velocidad y escala sin precedentes.

Para dar sentido al nuevo entorno en línea y su impacto en la democracia, surgió un paradigma dominante en el periodismo, la academia y la sociedad civil, que se construyó en gran medida en torno a un solo eje: verdadero o falso, información o desinformación.

Al centrarse en la facticidad, el paradigma enfatizó un peligro específico: la persuasión. La desinformación amenaza a la sociedad específicamente porque puede engañar al público, persuadiéndolo a creer que Trump ganó las elecciones de 2020, que deberían salir de la Unión Europea para promover el crecimiento económico o que la Tierra no se está calentando.  

El paradigma también implicaba una solución: si algo es falso, debe corregirse. Y corregimos. La verificación de datos, que antes era una industria artesanal, se ha convertido en un pilar de la cobertura política , y los periódicos y las estaciones de televisión la proporcionan en tiempo real. Los investigadores (incluidos nosotros) dedicaron una energía considerable a medir la eficacia de estos esfuerzos para corregir la desinformación. Siguieron los desacuerdos académicos característicos. ¿Deberíamos predesmentir o desacreditar? ¿Repetir la mentira ayuda a que se propague, incluso si es para refutarla? ¿Las verificaciones de datos son ” contraproducentes ” al afianzar aún más las creencias? ¿Los simples empujoncitos hacia la precisión realmente tienen efectos descomunales?

Paralelamente a este trabajo, se presionó a las empresas tecnológicas para que frenaran la propagación de desinformación. Si bien sus acciones a menudo fueron insuficientes, la tarea también fue abrumadora. Como lo describieron los directores ejecutivos en sus testimonios ante el Congreso , las plataformas trabajaron para identificar desinformación a una escala inimaginable mediante una combinación de evaluaciones de expertos, señales de los usuarios y sistemas automatizados. El contenido que se encontraba o se predecía como falso se etiquetaba y se reclasificaba o, en ocasiones, se eliminaba por completo. Antes de la reciente desinversión en tales esfuerzos, Facebook invirtió 13 000 millones de dólares , según autodeclaró , durante un período de cinco años en seguridad, con equipos enteros dedicados a frenar la propagación de información falsa. 

La desinformación, a menudo conceptualizada como un virus que infecta las mentes del público, ciertamente no tenía cura, pero se había formado una línea de defensa para protegerse contra la fuerza insidiosa que se extendía por el cuerpo político.

Las críticas se unen

Hoy, tenemos la ventaja de saber cómo termina la historia. Tras años de apostar por el paradigma de la desinformación, podríamos decir que estamos en peor situación. Los movimientos de “Detengan el Robo”, el negacionismo climático y el escepticismo sobre las vacunas siguen vigentes. Según una encuesta de 2021 del Cato Institute y YouGov, la mayoría de los estadounidenses desconfían de las plataformas de redes sociales para moderar el contenido. Las empresas han dado marcha atrás en gran medida en sus políticas de desinformación y su aplicación, mientras que los medios de comunicación siguen desapareciendo. La verificación de la desinformación del gobierno —sobre Ucrania, el gasto público, la salud pública y los aranceles— parece tener poco efecto.

“Después de casi una década de esfuerzos concertados para combatir la desinformación, debemos preguntarnos: ¿con qué efecto?”

Lo que sabemos, tras décadas de investigación en psicología, ciencias políticas y otras disciplinas, es que es difícil persuadir al público y modificar sus comportamientos . Estudios empíricos recientes sugieren que la desinformación no es la excepción, lo que pone en tela de juicio el paradigma dominante.

“Desinformación sobre la desinformación”, reza el título de un artículo académico ampliamente citado , que aborda seis ideas erróneas sobre el tema. Un reportaje publicado el año pasado en Science exploró los dilemas del campo, destacando diversos desafíos para la investigación de la desinformación. Esta conversación académica incluso ha surgido tras las páginas, a menudo de pago, de las revistas académicas. Ensayos concurrentes en The Chronicle of Higher Education debaten si se debe estudiar la desinformación. “¿Es exagerada la crisis de la desinformación?”, preguntó un podcast reciente a dos investigadores invitados.

En un momento de cambio real, el desacuerdo entre académicos puede parecer una introspección académica. Pero el paradigma dominante de la desinformación fue, en gran medida, moldeado y legitimado por académicos cuyas investigaciones ayudaron a definir el problema, influir en el periodismo y las políticas, y guiar las intervenciones en las plataformas. Ahora, los académicos se encuentran entre sus críticos más acérrimos.

En nuestra investigación para este ensayo, encontramos tres críticas interconectadas (la crítica definicional, la de prevalencia y la causal) del paradigma de desinformación dominante que pueden ayudar a iluminar un camino a seguir.

La crítica definicional señala el desafío de categorizar la información mundial como verdadera o falsa. En muchos contextos cruciales —como elecciones, guerras o crisis de salud pública—, la información es dinámica, y la verdad no solo es incierta, sino que se descubre (y redescubre) en tiempo real.

En este mundo en constante cambio, ¿puede un investigador identificar con autoridad la desinformación? Un ejemplo paradigmático es la teoría de la fuga de laboratorio sobre el origen de la COVID-19: inicialmente, la afirmación se descartó como desinformación y, durante meses, se moderó en numerosas plataformas de redes sociales. Ahora, los funcionarios de inteligencia la consideran una teoría creíble .

La crítica de la prevalencia se basa y refuerza la crítica definicional. Los datos de las redes sociales son extensos y están optimizados para la búsqueda, lo que permite generar anécdotas para casi cualquier fenómeno de interés . Sin embargo, esto adolece del problema del denominador. Tomemos, por ejemplo , el hecho de que la Agencia de Investigación de Internet, respaldada por Rusia, publicó aproximadamente 80.000 piezas de contenido en páginas de Facebook entre 2015 y 2017, llegando a un estimado de 126 millones de usuarios, según un informe del New York Times. Sin embargo, durante aproximadamente el mismo período, los usuarios estadounidenses vieron más de 11 billones de publicaciones de páginas de la plataforma en general.

Un trabajo reciente, que mide la desinformación como una proporción de la exposición general a la información, encuentra de manera similar que la prevalencia de la desinformación es pequeña, rayana en lo insignificante. Las noticias falsas representan un mero “0,15% de la dieta mediática diaria de los estadounidenses”, según un estudio publicado en Science Advances. En estudios en los que se amplía la definición de desinformación (por ejemplo, a artículos publicados por lo que los expertos han identificado como dominios de noticias de baja calidad) o se reduce el enfoque en una plataforma o tipo de medio específico , la prevalencia de la desinformación aumenta, pero la proporción sigue siendo relativamente pequeña (aproximadamente el 5-10%, según el estudio ) y la interpretación de estos resultados adolece de desafíos de definición. Además, aunque un pequeño porcentaje de usuarios de Internet consume una proporción mucho mayor de información verificablemente falsa, tienden a concentrarse en las ” colas largas ” de la distribución: hiperpartidistas que optan por redes de información extremas y a menudo están predispuestos a las creencias expuestas. 

Esta dinámica —la concentración de desinformación entre hiperpartidistas— conduce a la crítica causal. Los estudios que miden el impacto de la desinformación en línea en las actitudes y comportamientos políticos sugieren que su impacto es limitado , si es que lo hay . Las creencias tienden a estar arraigadas y evolucionan a lo largo de años de diversas aportaciones sociales, experienciales e informativas. En resumen, el público no se conmueve fácilmente con la nueva información; más bien, las personas suelen verse motivadas a interpretar la información a la que se exponen a través de su cosmovisión establecida. 

Cuando los usuarios de redes sociales se topan con desinformación, suelen seguir cuentas con las que probablemente coincidan y consumen medios que reflejan sus perspectivas. Como resultado, la desinformación digital suele predicar a los ya convencidos, lo que puede extremizar las actitudes o comportamientos, pero no actuar como vectores de influencia o persuasión masiva. En todo caso, las causas pueden apuntar en direcciones opuestas: las creencias pueden explicar el consumo de desinformación digital más que lo contrario.

Más allá de lo verdadero (y lo falso)

Estas críticas han generado desacuerdo académico sobre cómo definir la desinformación y qué nos enseña realmente la literatura . Es fácil adentrarse en el terreno académico y salir con incertidumbre o, peor aún, con tribalismo intelectual. Así que no lo haremos.

“Al apresurarnos a agrupar las falsedades bajo la misma lente analítica, hemos desechado cualquier comprensión de cómo funciona realmente la comunicación”.

En lugar de refinar definiciones sin cesar o debatir metodologías de estudio, creemos que hay un problema más profundo en la propia palabra. Una razón por la que nuestros esfuerzos colectivos para combatir la desinformación han fracasado es que, al apresurarnos a agrupar las falsedades bajo la misma lente analítica, hemos desechado cualquier comprensión de cómo funciona realmente la comunicación. Ahora tenemos un conocimiento profundo sobre cómo se difunde la información falsa y quiénes son más propensos a creerla . Sin embargo, no hemos logrado comprender plenamente cómo la comunicación, la cultura, la identidad y la política están profundamente entrelazadas en el momento actual.

Tomemos, por ejemplo, la amplificación por parte de Trump de una afirmación falsa de que inmigrantes haitianos comían perros y gatos en Springfield, Ohio. Siguiendo el modelo del paradigma de la desinformación, la afirmación fue evaluada a fondo. Proliferaron los artículos periodísticos y las verificaciones de datos, corrigiendo la información.

En la semana siguiente, quedó claro que la afirmación falsa no se basaba realmente en los hechos. Como dijo J.D. Vance en defensa de las acusaciones de consumo de mascotas: «Si tengo que inventar historias para que los medios estadounidenses realmente presten atención al sufrimiento del pueblo estadounidense, eso es lo que voy a hacer». La afirmación falsa pretendía dar relevancia a la inmigración en general y a las políticas de Biden en particular; en este caso, muchos de los inmigrantes haitianos en Springfield habían inmigrado legalmente a través del Programa de Libertad Condicional Humanitaria. Al parecer, el objetivo era comunicar un profundo rechazo a los inmigrantes y a la política migratoria de Biden.

Una dinámica similar se manifestó con las frecuentes mentiras de Musk sobre DOGE. Verificar la información del ” muro de recibos ” sirve de poco si el objetivo real de comunicación es mantener a la gente hablando del gasto público o librar una guerra apenas velada contra las supuestas fuentes de poder liberal. 

De esta manera, la desinformación puede eludir nuestros intentos de proteger un discurso sano cuando los objetivos de un orador se centran más en la definición de una agenda o la movilización, por ejemplo, que en transmitir contenido factual. La información puede comunicarse para moldear identidades, influir en la cultura, impactar estratégicamente el entorno mediático y más. Puede ser especialmente perniciosa cuando se utiliza información falsa para estos fines. La verdad, por supuesto, importa, pero claramente no define los innumerables efectos de la información.

Esta dinámica también puede explicar por qué los temores apocalípticos sobre la desinformación impulsada por IA no se han materializado, especialmente con respecto a las elecciones de 2024, lo que llevó a algunos comentaristas a afirmar que fuimos ” deepfakes por deepfakes electorales “. El marco del impacto destructivo de la IA en el público se construyó sobre las mismas suposiciones erróneas del paradigma de la desinformación. La mayoría de los análisis aceptaron un modelo directo de persuasión en el que el contenido sintético podía engañar a las masas, alterando creencias y comportamientos a escala. Y, sin embargo, el contenido generado por IA que circuló en las últimas elecciones presidenciales de EE. UU. fue principalmente ” caricaturas y agitprop “, como lo expresó Matteo Wong en The Atlantic, como una imagen generada por IA de Trump con un mono de prisión, que en gran medida jugó con las creencias preexistentes de las personas. Este contenido puede comunicar emociones y movilizar al público, al tiempo que configura el lenguaje estético de la política contemporánea. Pero difícilmente llega al nivel de una amenaza democrática predicha por muchos expertos.

A medida que la tecnología mejora y se vuelve más accesible, el contenido generado por IA podría sin duda volverse más efectivo. Pero hasta entonces, parece ser el consumo de noticias , especialmente la televisión, sobre desinformación impulsada por IA lo que más erosiona la confianza pública en el ecosistema informativo, así como el hecho de que las figuras públicas pueden recurrir al dividendo del mentiroso —cuestionando incluso el contenido legítimo dada la aparente ubicuidad de los deepfakes— para evadir la responsabilidad . 

En la tormenta

Con el paradigma de la desinformación enfrentando críticas de todos lados, la crítica principal en los últimos meses ha sido política. Muchos de los autodenominados protectores de la libertad de expresión se han convertido en nuestros principales censores . Un subcomité de la Cámara de Representantes liderado por el Representante Republicano Jim Jordan, que investiga los esfuerzos para contrarrestar la desinformación, emitió cartas solicitando información y documentos para restringir la libertad de expresión de los académicos . Elon Musk suspendió o vetó temporalmente a algunos periodistas de X, amenazó con emprender acciones legales contra las personas que informaran sobre las identidades de los empleados de DOGE y presentó una demanda contra un grupo de investigación involucrado en la libertad de expresión protegida por la Constitución. Trump ha autorizado una lista de palabras prohibidas en la ciencia financiada con fondos federales. El resto del mandato de Trump seguramente traerá más de estos intentos retorcidos de ” recuperar la libertad de expresión ” mediante el control y la configuración de los flujos de información.

A diferencia de otras críticas a la desinformación, la crítica politizada nos deja con una visión atenuada de la democracia. Los intentos de los actores prodemocráticos por protegerse contra la desinformación realmente dañina, como cuestionar la integridad de las elecciones, se enfrentan a investigaciones del Congreso , acciones legales o acoso en línea .

“No podemos seguir haciendo las cosas como hasta ahora, con la esperanza de obtener mejores resultados”.

Algunos legisladores presionan a las plataformas para que eliminen contenido con el que no están de acuerdo, perpetrando la misma censura percibida que alguna vez condenaron. Parece que estos actores políticos nunca tuvieron la intención de crear un juego más justo; simplemente estaban manipulando a los árbitros para lograr su propia victoria política. Como era de esperar, muchos de estos mismos actores también están socavando las instituciones democráticas. El presidente Trump aún se niega a aceptar su derrota en las elecciones de 2020, al igual que muchos de sus designados. Su vicepresidente ha sugerido que el poder ejecutivo ignore las sentencias judiciales adversas.

Puede resultar atractivo asumir que el paradigma de la desinformación se justifica mediante una lógica transitiva poco rigurosa: los críticos más enérgicos del trabajo para combatir la desinformación son también quienes buscan erosionar la democracia. Por lo tanto, si queremos proteger la democracia, debemos renovar nuestro compromiso con el ecosistema que ha surgido en la última década. Creemos que este es el enfoque equivocado.

No podemos seguir haciendo las cosas como hasta ahora, con la esperanza de obtener mejores resultados. El paradigma imperante de la desinformación se centra en la veracidad de una declaración (por encima de otras características), enfatiza su potencial de persuasión (por encima de otros perjuicios) y exige correcciones (por encima de otras estrategias).

En medio de los ataques políticos y legales a la investigación de la desinformación, podría parecer el momento equivocado para cuestionar si el campo debería continuar por el mismo camino. Sin embargo, creemos que es hora de renovar la reflexión no solo porque es oportuno, sino también porque es urgente.

Pensamiento renovado

Para ser claros, el paradigma dominante no se equivoca respecto a los desafíos democráticos de un público que no logra ponerse de acuerdo sobre hechos básicos ni sobre las dinámicas únicas que introducen las plataformas digitales. Sería insensato ignorar las advertencias de Hannah Arendt sobre cómo los líderes autoritarios prosperan gracias a la incertidumbre epistémica, lo que les permite no solo consolidar el control sobre la verdad, sino también desechar los fundamentos independientes de una realidad compartida.

Pero el paradigma dominante ha enmarcado en gran medida la relación entre la desinformación y la democracia como un problema mecánico con soluciones mecánicas . Los esfuerzos para combatir la desinformación nos han dejado, en gran medida, a la defensiva, reaccionando a las estrategias y narrativas utilizadas por quienes la difunden. La última década ha dejado claro que no vamos a verificar los hechos ni a vacunarnos para lograr una cultura cívica más sana. No basta con observar que la democracia sufre por las falsedades.

En cambio, debemos comenzar con una comprensión más holística del funcionamiento de la comunicación y avanzar más allá de los perjuicios directos, como la persuasión, hacia desafíos más difusos y perniciosos, como la confianza, la identidad y la polarización. Si bien esto presenta un camino menos claro, ya existen numerosas corrientes intelectuales y esfuerzos programáticos nuevos que apuntan en la dirección correcta.

En lugar de corregir la desinformación, algunos periodistas y organizaciones de la sociedad civil están trabajando para satisfacer las necesidades informativas de las comunidades directamente; necesidades que no pueden reducirse a distinguir la verdad de las mentiras. Las salas de redacción, tanto grandes como pequeñas, desde USA Today hasta el City Bureau de Chicago , han estado experimentando con una comunicación más directa entre periodistas y lectores. Por ejemplo, en 2023, el Laboratorio de Futuros de la Información de la Escuela de Salud Pública de la Universidad de Brown se asoció con un sitio de verificación de datos en español, Factchequeado, y una agencia de comunicaciones con sede en Miami, We Are Más, para responder a las preguntas de las comunidades de la diáspora hispana en el sur de Florida a través de un grupo bilingüe de WhatsApp. Utilizando publicaciones proporcionadas por un equipo de investigación, los miembros de la comunidad respondieron preguntas que iban desde “¿Cómo me hago una mamografía si tengo un seguro insuficiente?” hasta “¿Cómo están manejando las personas los graves efectos secundarios de recibir una cuarta vacuna contra la COVID?”.

Estos esfuerzos no se limitan a la verificación de datos, que generalmente responde a afirmaciones ya existentes. En cambio, empoderan a las comunidades para que se formulen preguntas y colocan a los expertos en la posición de satisfacer esas necesidades. 

Esta estrategia tiene el potencial de generar amplios efectos. Ayudar a un miembro de la comunidad a obtener atención médica puede satisfacer una necesidad crítica de información y actuar como un baluarte contra la desinformación sobre salud, que a menudo se aprovecha de la incertidumbre . Llevar información valiosa directamente a quienes la necesitan también contribuye a generar una confianza fundamental en las instituciones comunitarias.

Los tecnólogos y legisladores también están trabajando en ” middleware “, en este caso, software de terceros que se interpone entre las plataformas y los usuarios, y que puede facilitar la elección individual y, posiblemente, experiencias de plataforma más democráticas. Los investigadores esperan que el middleware, en términos generales, aborde dos áreas críticas: la selección y organización de la información, y la moderación de contenido dañino, al ofrecer a los usuarios diversas opciones para determinar sus propios entornos en línea.

“Hacer llegar información valiosa directamente a quienes la necesitan también contribuye a generar una confianza fundamental en las instituciones comunitarias”.

Trabajos recientes de académicos y profesionales han descrito el potencial transformador del middleware como “una alternativa tanto a las plataformas opacas y controladas centralmente como a una internet sin moderación ni control”. El investigador y activista de internet Ethan Zuckerman ha liderado este movimiento, presentando recientemente una demanda contra Meta para establecer protecciones legales para herramientas de terceros que otorgan a los usuarios mayor control sobre sus feeds de redes sociales. Su demanda argumentó que los usuarios deberían poder utilizar software desarrollado externamente como Unfollow Everything para, por ejemplo, eliminar sus feeds de noticias en las plataformas de Meta.  

Este enfoque representa un cambio fundamental: de entornos de plataforma controlados por empresas a arquitecturas orientadas al usuario; las personas tienen la capacidad de elegir entre algoritmos y sistemas de filtrado competitivos, en lugar de estar sujetas a dietas de información determinadas por la plataforma. Las soluciones de middleware podrían, por ejemplo, priorizar los medios de comunicación de alta calidad o aumentar la diversidad ideológica de las fuentes para combatir las burbujas de filtros.

Los tecnólogos y académicos también están mirando más allá de las herramientas individuales para imaginar un ecosistema donde plataformas federadas como Mastodon y Bluesky integran middleware como una característica fundamental de la experiencia de la plataforma. Esto proporciona a las comunidades la infraestructura y las herramientas para configurar proactivamente sus propios entornos de información, según sus valores, preferencias y necesidades, en lugar de combatir la desinformación una vez que se propaga.

Finalmente, los académicos ya han estado trabajando para expandir nuestra comprensión de cómo la información puede impactarnos, reconociendo que las características más salientes pueden no ser necesariamente la verdad o falsedad del contenido. Algunos académicos ponen el énfasis en los motivos financieros de quienes están detrás de las campañas de desinformación, destacando la preocupante historia entre el poder corporativo y la investigación científica. Otros han examinado los “roles sociales” de las noticias falsas y explorado cómo las personas hacen uso de contenido verdadero y falso en sus comunidades para comunicarse, colaborar y dar sentido al mundo. Por ejemplo, en “Strangers in Their Own Land“, Arlie Hochschild examina cómo la información de alta y baja calidad ayuda a los habitantes de Luisiana a dar sentido al colapso ecológico, la ayuda gubernamental y la creciente precariedad económica al proporcionar “historias profundas”, narrativas emocionalmente fundamentadas que brindan orden al mundo independientemente de la veracidad.

Los investigadores también están examinando cómo la identidad determina quién está expuesto a qué tipo de información, quién la comparte y la cree , y cómo se produce . Gran parte de este trabajo se centra en cómo los marcos meméticos profundos , o la perspectiva socialmente compartida a través de la cual interpretamos el mundo, dentro de la desinformación, configuran nuestras políticas e influyen en cómo nos relacionamos.

Por supuesto, existen otros esfuerzos loables que no podemos explorar aquí: esfuerzos para superar las brechas y reducir la polarización , para repensar las tecnologías para la participación cívica y preservar nuestra capacidad de atención , y para crear entornos de redes sociales localizados . Los académicos han establecido alianzas con profesionales —como la colaboración del Centro para un Público Informado de la Universidad de Washington con bibliotecas locales y la colaboración de investigadores de la Universidad de Stanford con distritos escolares sobre razonamiento cívico en línea— para realizar evaluaciones de programas a gran escala en la práctica.

Estas líneas de investigación han generado importantes descubrimientos. Sin embargo, estos enfoques rara vez han recibido la financiación o la cobertura mediática que reciben los estudios que, por ejemplo, se centran más específicamente en el rastreo de la desinformación, especialmente en lo que respecta al dicho, ahora tan popular, de que « las noticias falsas corren más rápido que las verdaderas ».

En conjunto, estas ideas apuntan a un proyecto diferente: centrar y empoderar a las comunidades, y construir entornos informativos más saludables antes de que las falsedades se arraiguen. Lo que les falta es el vocabulario, la infraestructura y la inversión comunes que antaño delimitaban el campo de la desinformación, y ese es el desafío que tenemos por delante.

Mejor juntos

El filósofo Daniel Williams argumenta que el paradigma de la desinformación cobró relevancia porque ofrece a las élites la ilusión de que se puede controlar al público accionando las palancas adecuadas. Como escribió en el Boston Review en 2023: «Nuestros adversarios políticos son simplemente ingenuos e ignorantes, y con suficiente educación y pensamiento crítico, llegarán a estar de acuerdo con nosotros; no hay necesidad de reimaginar otras instituciones sociales ni de construir el poder político necesario para ello».

Lo que Williams minimiza es que el paradigma de la desinformación en sí mismo es una institución social con poder político. Durante la última década, se ha consolidado un ecosistema diverso en torno al tema: periodistas, organizaciones de la sociedad civil, grupos comunitarios, académicos, legisladores, empresas tecnológicas, financiadores y más. Los miembros de este ecosistema trazaron una dirección común con un lenguaje compartido, prioridades coincidentes y redes interconectadas. Pocas áreas temáticas han logrado aglutinar a un conjunto tan amplio de actores con tanta rapidez, organizados en torno a un único problema.

Nuestro reto ahora es ampliar el alcance de nuestra defensa de la democracia en la era digital, preservando al mismo tiempo el impulso institucional de la última década. El paradigma de la desinformación, a pesar de todas sus limitaciones, ha demostrado que es posible una coordinación rápida y a gran escala en torno a los desafíos democráticos.

La coordinación entre un grupo tan diverso es casi imposible y, a la vez, absolutamente esencial para evitar la balcanización. No será fácil mantener esa energía institucional mientras descubrimos cómo nuestro sistema de comunicación contemporáneo puede fortalecer la democracia, en lugar de centrarnos miopemente en corregir falsedades. En este momento de crecientes ataques a los cimientos de nuestra democracia, es esencial que abandonemos los marcos simplistas y los viejos manuales que no han logrado avances significativos en la mejora de nuestra vida informativa. No en detrimento de la democracia, sino en su defensa.

Fuente: https://www.noemamag.com/we-failed-the-misinformation-fight-now-what/

Tagged:

Deja una respuesta