TED

por Yaël Eisenstat

“Las mentiras son más atractivas en línea que la verdad”, dice la ex analista y diplomático de la CIA Yaël Eisenstat. “Mientras los objetivos de los algoritmos [de las redes sociales] sean mantenernos comprometidos, nos alimentarán con el veneno que juega con nuestros peores instintos y debilidades humanas”. En esta audaz charla, Eisenstat explora cómo las empresas de redes sociales como Facebook incentivan el contenido incendiario, contribuyendo a una cultura de polarización política y desconfianza, y pide a los gobiernos que responsabilicen a estas plataformas para proteger el discurso civil y la democracia.

Yaël Eisenstat

Después de años como analista de la CIA, diplomático y asesor de seguridad nacional en la Casa Blanca, Yaël Eisenstat comenzó a ver la ruptura del discurso civil como la mayor amenaza para la democracia estadounidense.

00:09

Hace unos cinco años,  me di cuenta de que estaba perdiendo la capacidad  de relacionarme con personas que no tienen ideas afines.  La idea de discutir temas candentes con mis compatriotas  estaba empezando a provocarme más acidez  que las veces que me relacioné con presuntos extremistas en el extranjero.  Estaba empezando a dejarme sintiéndome más amargado y frustrado.  Y así, así,  cambié todo mi enfoque  de las amenazas  a  la seguridad nacional mundial a tratar de comprender qué estaba causando este impulso hacia la polarización extrema en casa.  Como ex oficial de la CIA y diplomático  que pasó años trabajando en temas de contraataque, Comencé a temer que esto se estaba convirtiendo en una amenaza mucho mayor para nuestra democracia  que cualquier adversario extranjero.  Entonces comencé a investigar  y a hablar, lo  que eventualmente me llevó a ser contratado en Facebook  y finalmente me trajo aquí hoy  para continuar advirtiéndoles sobre cómo estas plataformas  están manipulando y radicalizando a muchos de nosotros  y para hablar sobre cómo hacerlo. Recuperar nuestra plaza pública.  Yo era un oficial del servicio exterior en Kenia  apenas unos años después de los ataques del 11 de septiembre,  y dirigí lo que algunos llaman campañas de “corazones y mentes” a lo  largo de la frontera con Somalia.  Una gran parte de mi trabajo consistía en generar confianza en las comunidades. considerado el más susceptible a los mensajes extremistas.  Pasé horas bebiendo té con clérigos antioccidentales francos  e incluso dialogué con algunos presuntos terroristas,  y aunque muchos de estos compromisos comenzaron con sospechas mutuas,  no recuerdo que ninguno de ellos haya resultado en gritos o insultos,  y en algunos casos incluso trabajaron juntos en áreas de interés mutuo.  Las herramientas más poderosas que teníamos eran simplemente escuchar, aprender  y generar empatía.  Esta es la esencia del trabajo del corazón y la mente,  porque lo que encontré una y otra vez es que lo que la mayoría de la gente deseaba  era sentirse escuchado, validado y respetado.  Y creo que eso es lo que la mayoría de nosotros queremos.

02:11

Entonces, lo que veo que está sucediendo hoy en línea es especialmente desgarrador  y un problema mucho más difícil de abordar.  Estamos siendo manipulados por el ecosistema de información actual que nos ha  atrincherado tanto en el absolutismo  que el compromiso se ha convertido en una mala palabra.  Porque en este momento,  las empresas de redes sociales como Facebook se  benefician de segmentarnos y alimentarnos con contenido personalizado  que valida y explota nuestros prejuicios.  Su resultado final depende de provocar una emoción fuerte  para mantenernos comprometidos, a  menudo incentivando las voces más incendiarias y polarizadoras,  hasta el punto en que encontrar puntos en común ya no parece posible. Y a pesar del creciente coro de personas que claman por que las plataformas cambien,  está claro que no harán lo suficiente por sí mismos.  Por lo tanto, los gobiernos deben definir la responsabilidad  de los daños en el mundo real causados ​​por estos modelos comerciales  e imponer costos reales a los efectos dañinos  que están teniendo para nuestra salud pública, nuestra plaza pública y nuestra democracia.  Pero, desafortunadamente, esto no sucederá a tiempo para las elecciones presidenciales de EE. UU., Por  lo que sigo dando la alarma,  porque incluso si algún día tenemos reglas estrictas,  todos tendremos que solucionarlo.

03:29

Cuando comencé a cambiar mi enfoque de las amenazas en el extranjero  al colapso del discurso civil en casa,  me pregunté si podríamos reutilizar algunas de estas campañas de corazones y mentes  para ayudar a sanar nuestras divisiones.  Nuestro experimento de más de 200 años con la democracia funciona  en gran parte porque somos capaces de  debatir  abierta y apasionadamente nuestras ideas para encontrar las mejores soluciones. Pero aunque todavía creo profundamente  en el poder del discurso civil cara a cara,  simplemente no puede competir  con los efectos polarizadores y la escala de las redes sociales en este momento.  Las personas que son absorbidas por estos agujeros  de  conejo de la indignación de las redes sociales a menudo se sienten mucho más difíciles de romper con sus mentalidades ideológicas. que las comunidades vulnerables con las que trabajé.

04:12

Entonces, cuando Facebook me llamó en 2018  y me ofreció este puesto  al frente de sus operaciones de integridad electoral para publicidad política,  sentí que tenía que decir que sí.  No me hacía ilusiones de arreglarlo todo,  pero cuando me ofrecieron la oportunidad  de ayudar a dirigir el barco en una mejor dirección,  al menos tuve que intentarlo.  No trabajé directamente en la polarización,  pero sí observé qué temas eran los más divisivos en nuestra sociedad  y, por lo tanto, los más explotables en los esfuerzos de interferencia electoral,  que fue la táctica de Rusia antes de 2016.  Así que comencé haciendo preguntas.  Quería comprender los problemas sistémicos subyacentes  que permitían que todo esto sucediera, para averiguar cómo solucionarlo.

04:56

Ahora todavía creo en el poder de Internet  para traer más voces a la mesa,  pero a pesar de su objetivo declarado de construir una comunidad,  las empresas de redes sociales más grandes, tal como se construyen actualmente,  son antitéticas al concepto de discurso razonado.  No hay forma de recompensar la escucha,  fomentar el debate civil  y proteger a las personas que sinceramente quieren hacer preguntas  en una empresa donde la optimización del compromiso y el crecimiento de los usuarios  son las dos métricas más importantes para el éxito.  No hay ningún incentivo para ayudar a las personas a reducir la velocidad,  a generar suficiente fricción para que las personas tengan que detenerse,  reconocer su reacción emocional ante algo  y cuestionar sus propias suposiciones antes de comprometerse. La desafortunada realidad es que: las  mentiras son más atractivas en línea que la verdad,  y la lujuria supera al razonamiento torpe y basado  en  hechos en un mundo optimizado para la viralidad sin fricciones. Mientras los objetivos de los algoritmos sean mantenernos comprometidos,  continuarán alimentándonos con el veneno que juega con nuestros peores instintos  y debilidades humanas.  Y sí, la ira, la desconfianza,  la cultura del miedo, el odio:  nada de esto es nuevo en Estados Unidos.  Pero en los últimos años, las redes sociales han aprovechado todo eso  y, como yo lo veo, inclinaron dramáticamente la balanza.  Y Facebook lo sabe.  Un artículo reciente del “Wall Street Journal”  expuso una presentación interna de Facebook de 2018 que apunta específicamente a los propios algoritmos de las empresas  para aumentar la presencia de grupos extremistas en su plataforma  y para polarizar a sus usuarios.  Pero mantenernos comprometidos es la forma en que ganan dinero.  El entorno de información moderno se cristaliza en torno a perfilarnos  y luego segmentarnos en categorías cada vez más estrechas  para perfeccionar este proceso de personalización.  Luego nos bombardean con información que confirma nuestros puntos de vista,  refuerza nuestros prejuicios  y nos hace sentir que pertenecemos a algo.  Estas son las mismas tácticas que veríamos que los reclutadores de terroristas  usan con jóvenes vulnerables,  aunque de formas más pequeñas y localizadas antes de las redes sociales. con el objetivo final de persuadir su comportamiento.

07:11

Desafortunadamente, Facebook nunca me permitió tener un impacto real.  De hecho, en mi segundo día, cambiaron mi título y la descripción de mi trabajo  y me excluyeron de las reuniones de toma de decisiones.  Mis mayores esfuerzos,  tratar de construir planes  para combatir la desinformación y la supresión de votantes en los anuncios políticos,  fueron rechazados.  Y así duré apenas seis meses.  Pero aquí está mi mayor conclusión de mi tiempo allí.  Hay miles de personas en Facebook  que están trabajando apasionadamente en un producto  que realmente creen que hace del mundo un lugar mejor,  pero mientras la compañía continúe simplemente jugando con los márgenes  de la política de contenido y la moderación,  en lugar de considerar cómo se diseña y monetiza toda la máquina,  nunca abordarán realmente cómo la plataforma está contribuyendo  al odio, la división y la radicalización.  Y esa es la única conversación que nunca escuché durante mi tiempo allí,  porque eso requeriría fundamentalmente aceptar  que lo que construiste podría no ser lo mejor para la sociedad  y aceptar alterar todo el modelo de producto y ganancias.

08:21

Entonces, ¿qué podemos hacer al respecto?  No estoy diciendo que las redes sociales sean las únicas responsables  del estado en el que nos encontramos hoy.  Claramente, tenemos problemas sociales profundamente arraigados que debemos resolver.  Pero la respuesta de Facebook, que es solo un espejo de la sociedad,  es un intento conveniente de desviar cualquier responsabilidad  de la forma en que su plataforma está amplificando el contenido dañino  y empujando a algunos usuarios hacia puntos de vista extremos.

08:50

Y Facebook podría, si quisiera,  arreglar algo de esto.  Podrían dejar de amplificar y recomendar a los teóricos de la conspiración,  los grupos de odio, los proveedores de desinformación  y, sí, en algunos casos incluso a nuestro presidente.  Podrían dejar de usar las mismas técnicas de personalización  para entregar la retórica política que usan para vendernos zapatillas.  Podrían volver a entrenar sus algoritmos  para enfocarse en una métrica que no sea el compromiso,  y podrían construir barreras para evitar que cierto contenido se vuelva viral  antes de ser revisado.  Y podrían hacer todo esto  sin convertirse en lo que ellos llaman árbitros de la verdad.

09:29

Pero han dejado en claro que no llegarán lo suficientemente lejos como  para hacer lo correcto sin verse obligados a hacerlo  y, para ser francos, ¿por qué deberían hacerlo?  Los mercados siguen recompensándolos y no están infringiendo la ley.  Porque, tal como está,  no existen leyes estadounidenses que obliguen a Facebook, ni a ninguna empresa de medios sociales,  a proteger nuestra plaza pública,  nuestra democracia  e incluso nuestras elecciones.  Hemos cedido la toma de decisiones sobre qué reglas escribir y qué hacer cumplir  a los directores ejecutivos de las empresas de Internet con fines de lucro.  es esto lo que queremos?  ¿Un mundo de la posverdad donde la toxicidad y el tribalismo  triunfan sobre la construcción de puentes y la búsqueda de consenso?  Sigo siendo optimista de que todavía tenemos más en común entre nosotros que los medios actuales y el entorno en línea,  y creo que tener más perspectiva  hace que la democracia sea más sólida e inclusiva.  Pero no como está sucediendo ahora.  Y vale la pena enfatizar que no quiero acabar con estas empresas.  Solo quiero que estén sujetos a un cierto nivel de responsabilidad,  al igual que el resto de la sociedad.  Es hora de que nuestros gobiernos den un paso al frente y hagan su trabajo  de proteger a nuestra ciudadanía.  Y aunque no hay una ley mágica  que solucione todo esto,  creo que los gobiernos pueden y deben encontrar el equilibrio  entre proteger la libertad de expresión  y hacer que estas plataformas rindan cuentas de sus efectos en la sociedad. Y podrían hacerlo en parte insistiendo en la transparencia real  sobre cómo funcionan estos motores de recomendación,  sobre cómo están sucediendo la curación, la amplificación y la orientación.

11:13

Verá, quiero que estas empresas se responsabilicen  no por si un individuo publica información errónea  o retórica extrema,  sino por cómo sus motores de recomendación la difunden,  cómo sus algoritmos  dirigen a las personas  hacia ella y cómo se utilizan sus herramientas para dirigirse a las personas con ella. Traté de hacer un cambio desde Facebook y fracasé,  por lo que he estado usando mi voz nuevamente durante los últimos años  para continuar haciendo sonar esta alarma  y, con suerte, inspirar a más personas a exigir esta responsabilidad.

11:45

Mi mensaje para usted es simple:  presione a los representantes de su gobierno  para que den un paso al frente y dejen de ceder nuestro espacio público a intereses con fines de lucro.  Ayude a educar a sus amigos y familiares  sobre cómo están siendo manipulados en línea.  Oblíguense a comprometerse con personas que no tienen ideas afines.  Haga de este tema una prioridad.  Necesitamos un enfoque de toda la sociedad para solucionar este problema.

12:11

Y mi mensaje a los líderes de mi antiguo empleador Facebook es este: en  este momento, la gente está usando sus herramientas exactamente como fueron diseñadas  para sembrar odio, división y desconfianza,  y no solo lo está permitiendo, lo está habilitando.  Y sí, hay muchas historias geniales  de cosas positivas que suceden en su plataforma en todo el mundo,  pero eso no hace que todo esto esté bien.  Y solo está empeorando a medida que nos dirigimos a nuestras elecciones,  y aún más preocupante,  enfrentamos nuestra mayor crisis potencial hasta ahora,  si los resultados no son confiables y si estalla la violencia.  Entonces, cuando en 2021 vuelvas a decir: “Sabemos que tenemos que hacerlo mejor”  , quiero que recuerdes este momento, porque ya no son solo unas pocas voces atípicas.  Los líderes de derechos civiles, académicos,  periodistas, anunciantes, sus propios empleados,  están gritando desde los tejados  que sus políticas y sus prácticas comerciales  están dañando a las personas y la democracia.  Eres dueño de tus decisiones,  pero ya no puedes decir que no podrías haberlo visto venir.

13:22

Gracias.

Deja un comentario