por Yaël Eisenstat
“Las mentiras son más atractivas en línea que la verdad”, dice la ex analista y diplomático de la CIA Yaël Eisenstat. “Mientras los objetivos de los algoritmos [de las redes sociales] sean mantenernos comprometidos, nos alimentarán con el veneno que juega con nuestros peores instintos y debilidades humanas”. En esta audaz charla, Eisenstat explora cómo las empresas de redes sociales como Facebook incentivan el contenido incendiario, contribuyendo a una cultura de polarización política y desconfianza, y pide a los gobiernos que responsabilicen a estas plataformas para proteger el discurso civil y la democracia.
Después de años como analista de la CIA, diplomático y asesor de seguridad nacional en la Casa Blanca, Yaël Eisenstat comenzó a ver la ruptura del discurso civil como la mayor amenaza para la democracia estadounidense.
00:09
Hace unos cinco años, me di cuenta de que estaba perdiendo la capacidad de relacionarme con personas que no tienen ideas afines. La idea de discutir temas candentes con mis compatriotas estaba empezando a provocarme más acidez que las veces que me relacioné con presuntos extremistas en el extranjero. Estaba empezando a dejarme sintiéndome más amargado y frustrado. Y así, así, cambié todo mi enfoque de las amenazas a la seguridad nacional mundial a tratar de comprender qué estaba causando este impulso hacia la polarización extrema en casa. Como ex oficial de la CIA y diplomático que pasó años trabajando en temas de contraataque, Comencé a temer que esto se estaba convirtiendo en una amenaza mucho mayor para nuestra democracia que cualquier adversario extranjero. Entonces comencé a investigar y a hablar, lo que eventualmente me llevó a ser contratado en Facebook y finalmente me trajo aquí hoy para continuar advirtiéndoles sobre cómo estas plataformas están manipulando y radicalizando a muchos de nosotros y para hablar sobre cómo hacerlo. Recuperar nuestra plaza pública. Yo era un oficial del servicio exterior en Kenia apenas unos años después de los ataques del 11 de septiembre, y dirigí lo que algunos llaman campañas de “corazones y mentes” a lo largo de la frontera con Somalia. Una gran parte de mi trabajo consistía en generar confianza en las comunidades. considerado el más susceptible a los mensajes extremistas. Pasé horas bebiendo té con clérigos antioccidentales francos e incluso dialogué con algunos presuntos terroristas, y aunque muchos de estos compromisos comenzaron con sospechas mutuas, no recuerdo que ninguno de ellos haya resultado en gritos o insultos, y en algunos casos incluso trabajaron juntos en áreas de interés mutuo. Las herramientas más poderosas que teníamos eran simplemente escuchar, aprender y generar empatía. Esta es la esencia del trabajo del corazón y la mente, porque lo que encontré una y otra vez es que lo que la mayoría de la gente deseaba era sentirse escuchado, validado y respetado. Y creo que eso es lo que la mayoría de nosotros queremos.
02:11
Entonces, lo que veo que está sucediendo hoy en línea es especialmente desgarrador y un problema mucho más difícil de abordar. Estamos siendo manipulados por el ecosistema de información actual que nos ha atrincherado tanto en el absolutismo que el compromiso se ha convertido en una mala palabra. Porque en este momento, las empresas de redes sociales como Facebook se benefician de segmentarnos y alimentarnos con contenido personalizado que valida y explota nuestros prejuicios. Su resultado final depende de provocar una emoción fuerte para mantenernos comprometidos, a menudo incentivando las voces más incendiarias y polarizadoras, hasta el punto en que encontrar puntos en común ya no parece posible. Y a pesar del creciente coro de personas que claman por que las plataformas cambien, está claro que no harán lo suficiente por sí mismos. Por lo tanto, los gobiernos deben definir la responsabilidad de los daños en el mundo real causados por estos modelos comerciales e imponer costos reales a los efectos dañinos que están teniendo para nuestra salud pública, nuestra plaza pública y nuestra democracia. Pero, desafortunadamente, esto no sucederá a tiempo para las elecciones presidenciales de EE. UU., Por lo que sigo dando la alarma, porque incluso si algún día tenemos reglas estrictas, todos tendremos que solucionarlo.
03:29
Cuando comencé a cambiar mi enfoque de las amenazas en el extranjero al colapso del discurso civil en casa, me pregunté si podríamos reutilizar algunas de estas campañas de corazones y mentes para ayudar a sanar nuestras divisiones. Nuestro experimento de más de 200 años con la democracia funciona en gran parte porque somos capaces de debatir abierta y apasionadamente nuestras ideas para encontrar las mejores soluciones. Pero aunque todavía creo profundamente en el poder del discurso civil cara a cara, simplemente no puede competir con los efectos polarizadores y la escala de las redes sociales en este momento. Las personas que son absorbidas por estos agujeros de conejo de la indignación de las redes sociales a menudo se sienten mucho más difíciles de romper con sus mentalidades ideológicas. que las comunidades vulnerables con las que trabajé.
04:12
Entonces, cuando Facebook me llamó en 2018 y me ofreció este puesto al frente de sus operaciones de integridad electoral para publicidad política, sentí que tenía que decir que sí. No me hacía ilusiones de arreglarlo todo, pero cuando me ofrecieron la oportunidad de ayudar a dirigir el barco en una mejor dirección, al menos tuve que intentarlo. No trabajé directamente en la polarización, pero sí observé qué temas eran los más divisivos en nuestra sociedad y, por lo tanto, los más explotables en los esfuerzos de interferencia electoral, que fue la táctica de Rusia antes de 2016. Así que comencé haciendo preguntas. Quería comprender los problemas sistémicos subyacentes que permitían que todo esto sucediera, para averiguar cómo solucionarlo.
04:56
Ahora todavía creo en el poder de Internet para traer más voces a la mesa, pero a pesar de su objetivo declarado de construir una comunidad, las empresas de redes sociales más grandes, tal como se construyen actualmente, son antitéticas al concepto de discurso razonado. No hay forma de recompensar la escucha, fomentar el debate civil y proteger a las personas que sinceramente quieren hacer preguntas en una empresa donde la optimización del compromiso y el crecimiento de los usuarios son las dos métricas más importantes para el éxito. No hay ningún incentivo para ayudar a las personas a reducir la velocidad, a generar suficiente fricción para que las personas tengan que detenerse, reconocer su reacción emocional ante algo y cuestionar sus propias suposiciones antes de comprometerse. La desafortunada realidad es que: las mentiras son más atractivas en línea que la verdad, y la lujuria supera al razonamiento torpe y basado en hechos en un mundo optimizado para la viralidad sin fricciones. Mientras los objetivos de los algoritmos sean mantenernos comprometidos, continuarán alimentándonos con el veneno que juega con nuestros peores instintos y debilidades humanas. Y sí, la ira, la desconfianza, la cultura del miedo, el odio: nada de esto es nuevo en Estados Unidos. Pero en los últimos años, las redes sociales han aprovechado todo eso y, como yo lo veo, inclinaron dramáticamente la balanza. Y Facebook lo sabe. Un artículo reciente del “Wall Street Journal” expuso una presentación interna de Facebook de 2018 que apunta específicamente a los propios algoritmos de las empresas para aumentar la presencia de grupos extremistas en su plataforma y para polarizar a sus usuarios. Pero mantenernos comprometidos es la forma en que ganan dinero. El entorno de información moderno se cristaliza en torno a perfilarnos y luego segmentarnos en categorías cada vez más estrechas para perfeccionar este proceso de personalización. Luego nos bombardean con información que confirma nuestros puntos de vista, refuerza nuestros prejuicios y nos hace sentir que pertenecemos a algo. Estas son las mismas tácticas que veríamos que los reclutadores de terroristas usan con jóvenes vulnerables, aunque de formas más pequeñas y localizadas antes de las redes sociales. con el objetivo final de persuadir su comportamiento.
07:11
Desafortunadamente, Facebook nunca me permitió tener un impacto real. De hecho, en mi segundo día, cambiaron mi título y la descripción de mi trabajo y me excluyeron de las reuniones de toma de decisiones. Mis mayores esfuerzos, tratar de construir planes para combatir la desinformación y la supresión de votantes en los anuncios políticos, fueron rechazados. Y así duré apenas seis meses. Pero aquí está mi mayor conclusión de mi tiempo allí. Hay miles de personas en Facebook que están trabajando apasionadamente en un producto que realmente creen que hace del mundo un lugar mejor, pero mientras la compañía continúe simplemente jugando con los márgenes de la política de contenido y la moderación, en lugar de considerar cómo se diseña y monetiza toda la máquina, nunca abordarán realmente cómo la plataforma está contribuyendo al odio, la división y la radicalización. Y esa es la única conversación que nunca escuché durante mi tiempo allí, porque eso requeriría fundamentalmente aceptar que lo que construiste podría no ser lo mejor para la sociedad y aceptar alterar todo el modelo de producto y ganancias.
08:21
Entonces, ¿qué podemos hacer al respecto? No estoy diciendo que las redes sociales sean las únicas responsables del estado en el que nos encontramos hoy. Claramente, tenemos problemas sociales profundamente arraigados que debemos resolver. Pero la respuesta de Facebook, que es solo un espejo de la sociedad, es un intento conveniente de desviar cualquier responsabilidad de la forma en que su plataforma está amplificando el contenido dañino y empujando a algunos usuarios hacia puntos de vista extremos.
08:50
Y Facebook podría, si quisiera, arreglar algo de esto. Podrían dejar de amplificar y recomendar a los teóricos de la conspiración, los grupos de odio, los proveedores de desinformación y, sí, en algunos casos incluso a nuestro presidente. Podrían dejar de usar las mismas técnicas de personalización para entregar la retórica política que usan para vendernos zapatillas. Podrían volver a entrenar sus algoritmos para enfocarse en una métrica que no sea el compromiso, y podrían construir barreras para evitar que cierto contenido se vuelva viral antes de ser revisado. Y podrían hacer todo esto sin convertirse en lo que ellos llaman árbitros de la verdad.
09:29
Pero han dejado en claro que no llegarán lo suficientemente lejos como para hacer lo correcto sin verse obligados a hacerlo y, para ser francos, ¿por qué deberían hacerlo? Los mercados siguen recompensándolos y no están infringiendo la ley. Porque, tal como está, no existen leyes estadounidenses que obliguen a Facebook, ni a ninguna empresa de medios sociales, a proteger nuestra plaza pública, nuestra democracia e incluso nuestras elecciones. Hemos cedido la toma de decisiones sobre qué reglas escribir y qué hacer cumplir a los directores ejecutivos de las empresas de Internet con fines de lucro. es esto lo que queremos? ¿Un mundo de la posverdad donde la toxicidad y el tribalismo triunfan sobre la construcción de puentes y la búsqueda de consenso? Sigo siendo optimista de que todavía tenemos más en común entre nosotros que los medios actuales y el entorno en línea, y creo que tener más perspectiva hace que la democracia sea más sólida e inclusiva. Pero no como está sucediendo ahora. Y vale la pena enfatizar que no quiero acabar con estas empresas. Solo quiero que estén sujetos a un cierto nivel de responsabilidad, al igual que el resto de la sociedad. Es hora de que nuestros gobiernos den un paso al frente y hagan su trabajo de proteger a nuestra ciudadanía. Y aunque no hay una ley mágica que solucione todo esto, creo que los gobiernos pueden y deben encontrar el equilibrio entre proteger la libertad de expresión y hacer que estas plataformas rindan cuentas de sus efectos en la sociedad. Y podrían hacerlo en parte insistiendo en la transparencia real sobre cómo funcionan estos motores de recomendación, sobre cómo están sucediendo la curación, la amplificación y la orientación.
11:13
Verá, quiero que estas empresas se responsabilicen no por si un individuo publica información errónea o retórica extrema, sino por cómo sus motores de recomendación la difunden, cómo sus algoritmos dirigen a las personas hacia ella y cómo se utilizan sus herramientas para dirigirse a las personas con ella. Traté de hacer un cambio desde Facebook y fracasé, por lo que he estado usando mi voz nuevamente durante los últimos años para continuar haciendo sonar esta alarma y, con suerte, inspirar a más personas a exigir esta responsabilidad.
11:45
Mi mensaje para usted es simple: presione a los representantes de su gobierno para que den un paso al frente y dejen de ceder nuestro espacio público a intereses con fines de lucro. Ayude a educar a sus amigos y familiares sobre cómo están siendo manipulados en línea. Oblíguense a comprometerse con personas que no tienen ideas afines. Haga de este tema una prioridad. Necesitamos un enfoque de toda la sociedad para solucionar este problema.
12:11
Y mi mensaje a los líderes de mi antiguo empleador Facebook es este: en este momento, la gente está usando sus herramientas exactamente como fueron diseñadas para sembrar odio, división y desconfianza, y no solo lo está permitiendo, lo está habilitando. Y sí, hay muchas historias geniales de cosas positivas que suceden en su plataforma en todo el mundo, pero eso no hace que todo esto esté bien. Y solo está empeorando a medida que nos dirigimos a nuestras elecciones, y aún más preocupante, enfrentamos nuestra mayor crisis potencial hasta ahora, si los resultados no son confiables y si estalla la violencia. Entonces, cuando en 2021 vuelvas a decir: “Sabemos que tenemos que hacerlo mejor” , quiero que recuerdes este momento, porque ya no son solo unas pocas voces atípicas. Los líderes de derechos civiles, académicos, periodistas, anunciantes, sus propios empleados, están gritando desde los tejados que sus políticas y sus prácticas comerciales están dañando a las personas y la democracia. Eres dueño de tus decisiones, pero ya no puedes decir que no podrías haberlo visto venir.
13:22
Gracias.