WIRED habló con el filósofo a largo plazo William MacAskill sobre la extinción humana, Elon Musk, y su nuevo libro, What We Owe the Future.

EL FUTURO ES grande. Casi inimaginablemente grande. Tome la población humana, por ejemplo. Si la humanidad se mantiene en su nivel de población actual mientras la Tierra siga siendo habitable, entre 500 millones y 1300 millones de años, entonces la cantidad de humanos que existirán en el futuro superará en número a los humanos actuales por un factor de 1 millón a uno. Si nuestra especie llega a las estrellas y coloniza otros planetas, entonces podríamos estar ante billones de años de una futura sociedad humana que se extenderá por todo el universo.

¿Qué pasaría si pudiéramos dar forma a ese futuro y determinar si esa sociedad era amante de la paz o totalitaria, o incluso si existiría? En un nuevo libro llamado What We Owe the Future , el filósofo William MacAskill argumenta que esas preguntas forman uno de los desafíos morales clave de nuestro tiempo, y que nosotros en el siglo XXI estamos en una posición única para dar forma al futuro a largo plazo para bien o para mal. para peor Si podemos evitar la extinción y descubrir una forma de vida moralmente más armoniosa, entonces un futuro dichoso espera a los billones de humanos que existirán en los siglos venideros. Pero para llegar allí tenemos que dar el salto filosófico de que debemos preocuparnos mucho por la vida y el bienestar de los humanos del futuro.

MacAskill es uno de los cofundadores del altruismo efectivo, un movimiento filosófico que alienta a las personas a maximizar el bien que pueden hacer con sus vidas y que ha encontrado el favor de los pensadores de Silicon Valley . WIRED habló con MacAskill sobre la posibilidad de la extinción humana, la amenaza del estancamiento económico y si el interés de Elon Musk en el largo plazo corre el riesgo de desviar el movimiento. La entrevista ha sido ligeramente editada para mayor claridad y duración.

WIRED: ¿Qué es el largo plazo?

William MacAskill: El largoplacismo es la visión de que impactar positivamente el futuro a largo plazo es una prioridad moral clave de nuestro tiempo. Se trata de tomarse en serio cuán grande podría ser el futuro y cuán alto está en juego cualquier cosa que pueda dar forma al futuro a largo plazo. Entonces se trata de buscar qué cosas pueden suceder en nuestras vidas que podrían afectar no solo el presente sino a muy largo plazo. Y, de hecho, tomar medidas para tratar de trabajar en esos desafíos para ayudar a poner a la humanidad en una mejor trayectoria.

Inicialmente eras bastante escéptico de que el futuro distante debería ser una prioridad moral hoy. Ahora has escrito un libro argumentando exactamente eso. ¿Qué te hizo cambiar de opinión?

Mi primer encuentro con las semillas de las ideas fue en 2009. Tenía dos fuentes principales de escepticismo. El primero fue el escepticismo sobre la idea de que casi todo el valor está en el futuro. Eso entra en temas como la ética de la población , aunque al final, no creo que sea tan importante de ninguna manera. Pero en ese momento, pensé que era importante. Esos argumentos me pesaron, y son muy convincentes. En el transcurso de uno o dos años, tal vez algunos años, comencé a tomarme eso muy en serio.

Pero luego hay un segundo aspecto que es como, “¿Qué hacemos al respecto? ¿Dónde están las cosas que podemos hacer de manera predecible para impactar positivamente a largo plazo? ¿Sabemos realmente cuáles son? Entre todas las cosas que podríamos estar haciendo, ¿tal vez solo actuar para beneficiar a corto plazo es lo mejor que podríamos estar haciendo?” O en tercer lugar, ¿te están asaltando un poco las bajas probabilidades de grandes cantidades de valor?

Y lo que realmente me cambió allí es que las ideas sobre el impacto positivo a largo plazo han pasado de cosas especulativas sugeridas por filósofos a acciones muy concretas que podríamos tomar. Hace doce años, era como, “Oh, bueno, tal vez la gente podría usar armas biológicas. Y eso podría ser algo terrible y aterrador, y tal vez podamos hacer algo al respecto”. Eso es muy vago. Es un nivel bastante alto.

Ahora la situación es muy diferente. Uno de los biólogos líderes en el mundo, Kevin Esvelt, puede exponer muy claramente la tecnología que se puede usar para crear patógenos mucho más poderosos. Y en segundo lugar, tiene toda esta lista de cosas extremadamente concretas que podemos hacer para protegernos contra eso, como monitorear las aguas residuales para detectar nuevas enfermedades; equipo de protección personal muy avanzado; iluminación UVC lejana que esteriliza una habitación sin afectar negativamente a las personas. Y ya no es, “Oh, oye, tal vez haya algo en esta área que podría funcionar”. Pero, en cambio, hay un conjunto muy concreto de acciones que podemos tomar que tendrían enormes beneficios tanto a corto como a largo plazo.

Fuiste una figura influyente en la formación del movimiento de altruismo efectivo, que tiene que ver con esta idea de maximizar el bien que la gente puede hacer en el mundo. Muchos altruistas prominentes y efectivos ahora son fuertes defensores del largo plazo. ¿Es el largo plazo la conclusión natural del altruismo efectivo?

Estoy realmente a favor de una comunidad de altruismo eficaz que tenga una diversidad de perspectivas y donde las personas puedan estar en desacuerdo, quizás de manera bastante sustantiva, porque estas preguntas son realmente difíciles. En términos de dónde está el enfoque del altruismo efectivo, al menos en términos de financiación, es bastante sorprendente que la mayoría de la financiación todavía se destine a la salud y el desarrollo global.

Pero tienes razón en que el enfoque intelectual y hacia dónde se dirige la energía intelectual está mucho más en el lado a largo plazo de las cosas. Y creo que eso se debe a que los argumentos a favor son muy sólidos y convincentes. Hemos visto a lo largo del tiempo que muchas personas de muy diferentes orígenes se convencieron de esos argumentos y trataron de ponerlos en práctica. Parece que el altruismo efectivo más una evaluación honesta e imparcial de los argumentos parece conducir muy a menudo al largo plazo.

Pero ciertamente no es un requisito. Todo el equipo global de salud y bienestar de Open Philanthropy está formado por personas extraordinariamente inteligentes, sensatas y pensantes que no están convencidas al menos de las prioridades estándar a largo plazo.

Una persona que acepta al menos algunas prioridades a largo plazo es Elon Musk. Llamó a su libro “una coincidencia cercana” con su filosofía. Pero otros han argumentado que los multimillonarios como Musk están utilizando el largoplacismo para justificar su desapego de los problemas actuales: ¿Por qué preocuparse por la desigualdad de riqueza hoy si la inteligencia artificial general (AGI) no alineada podría acabar con todos nosotros en el próximo siglo?

Estoy muy preocupado por… Creo que cualquier tipo de perspectiva moral puede ser cooptada, usada y mal usada. Entonces vemos esto con el lavado verde, muy sistemáticamente. Donde ciertos intereses corporativos han logrado cooptar las ideas ambientalistas de manera muy efectiva para realmente afianzar sus intereses. Incluso yendo más atrás en el tiempo: soy fanático del liberalismo, pero se usó para justificar las atrocidades coloniales. Siento mucha simpatía y soy receptivo a la idea de que las ideas morales se pueden usar para bien o para mal. Estoy tratando de asegurarme de que la gente los use para hacer cosas en lugar de como una especie de blanqueamiento o lavado verde.

Pero luego el segundo pensamiento, que [el largoplacismo] puede usarse como una excusa para no trabajar en temas actuales: en la práctica, creo que sucede exactamente lo contrario. Si observa el crecimiento del movimiento de altruismo efectivo en general, y donde las personas que se suscriben al largo plazo suelen donar, la mayoría de las veces se trata de mosquiteros . Mi última donación fue al Proyecto de Eliminación de la Exposición al Plomo , que básicamente está tratando de deshacerse de la pintura con plomo en los países más pobres. El plomo es enormemente dañino: piense como fumar, pero peor. Lo hemos eliminado de países ricos como EE. UU. y el Reino Unido, pero no a nivel mundial. Y provoca importantes problemas de salud y déficits cognitivos. Podemos simplemente deshacernos de él, es bastante simple de hacer. Y así, este proyecto ha estado recibiendo mucha tracción.

Creo que eso es realmente bueno tanto desde la perspectiva a corto como a largo plazo. Creo que eso es cierto para muchas otras cosas también. Es un hecho bastante notable que, saliendo del tipo de escuela de pensamiento a largo plazo, hubo preocupación por las pandemias desde principios de la década de 2010. Estuvimos activamente financiando cosas desde aproximadamente 2015 y moviendo a las personas a estas áreas de causa. En realidad, había una plataforma de pronóstico [alineada con el altruismo efectivo] que elevaba la probabilidad de una pandemia que matara al menos a 10 millones de personas entre los años 2016 y 2026 a una de cada tres. Entonces, Covid-19 era previsible y, de hecho, previsto.

Hay enormes cantidades de problemas en el mundo de hoy, hay enormes cantidades de sufrimiento. Realmente creo que hay una gran cantidad de cosas que pueden tener un gran impacto tanto en el presente como al mismo tiempo beneficiar a largo plazo. Y muchas personas realmente piensan que el riesgo de una catástrofe por la guerra biológica o la IA es lo suficientemente grande como para que tengamos más probabilidades de morir en una catástrofe de este tipo que en, digamos, un accidente automovilístico. No sé si estaría dispuesto a hacer esa afirmación, pero creo que es comparable. Así que creo que también hay enormes beneficios a corto plazo.

Una de las justificaciones para centrarse en riesgos como el AGI desalineado es que debemos tratar de retrasar cualquier situación que pueda “bloquear” nuestros valores actuales. Llamas a un período de larga reflexión y exploración moral donde, con suerte, la humanidad converge en la mejor sociedad posible. ¿Cómo podría ser el escenario opuesto?

Hagamos un poco de historia contrafactual: si las cosas hubieran sido diferentes y los nazis ganaran la Segunda Guerra Mundial, obtuvieran un mayor poder a partir de ahí y establecieran un gobierno mundial. Y luego están como, adoctrinando a todos en la ideología nazi. Hay una lealtad muy fuerte a la línea del partido. Y luego, con el tiempo, ya sea a través de la extensión de la vida o de la inteligencia artificial, si los seres que gobiernan la sociedad no son biológicos sino digitales, son en principio inmortales. Y así, la primera generación de seres inmortales bien podría ser la última. Ese sería un ejemplo paradigmático de bloqueo aterrador que perdería la mayor parte del valor en el futuro y que creo que queremos evitar.

Sin embargo, el objetivo de encerrar valores sociales positivos podría usarse para justificar fines extremos. ¿Qué pasa si, después de un período de larga reflexión, un grupo de a largo plazo decide que han convergido en los mejores valores sociales posibles, pero no han logrado convencer al resto del mundo para que esté de acuerdo con ellos? Entonces matan a todos los demás en la Tierra y exportan su sociedad moralmente superior al resto del universo. ¿Podríamos justificar matar a miles de millones de humanos actuales si eso garantizara una vida mejor para decenas de billones de personas en el futuro?

Hay dos cosas principales contra las que realmente quiero presionar y advertir. Una es que hay formas en que las ideologías pueden usarse para malos fines. Existen sólidas razones morales contra la participación en la violencia por el bien común. Nunca hagas eso. Y eso es cierto incluso si calcula que se hará más bien al participar en este acto violento o acto dañino.

Y luego, la segunda cosa es el tipo de preocupación en la que la gente piensa: “Oh, bueno, sí, lo descubrimos. Y tenemos los mejores valores”. Esto tiene un historial terrible. De hecho, mi creencia es que las personas ideales del futuro, que realmente han tenido tiempo para resolverlo todo, podrían tener puntos de vista morales que son tan extraños para nosotros como la mecánica cuántica lo es para Aristóteles. Sería enormemente sorprendente si los valores liberales occidentales que resultan ser mis favoritos en este momento son el pináculo del pensamiento moral. En cambio, tal vez no seamos tan diferentes moralmente de los romanos, que eran propietarios de esclavos y patriarcales y disfrutaban de la tortura. Creo que somos mejores que eso, pero tal vez no seamos mucho mejores, en comparación con lo buena que podría ser la moralidad en el futuro.

Uno de los principales riesgos existenciales en los que se centran los a largo plazo es la IA no alineada: la idea de que una inteligencia general artificial podría terminar destruyendo a la humanidad o al menos quitándoles el control en el futuro para lograr algún objetivo . El filósofo australiano Toby Ord estima que el riesgo de una catástrofe existencial por parte de la IA no alineada es de 1 en 10 durante el próximo siglo. Si los riesgos son tan altos, ¿no deberíamos considerar poner una pausa en la investigación de AGI hasta que sepamos cómo manejar los riesgos?

Sin duda vale la pena considerarlo. Creo que hay un par de cosas que decir. Una es que la IA no es un monolito, por lo que cuando ve otras tecnologías que se han desarrollado, puede ralentizar o incluso prohibir ciertas formas de tecnología, que son más riesgosas, y permitir el desarrollo de otras. Por ejemplo, los sistemas de IA que se involucran en la planificación a largo plazo son particularmente aterradores. O sistemas de IA que están diseñando otros sistemas de IA, tal vez esos sean particularmente aterradores.

O podríamos querer tener una regulación estricta sobre qué sistemas de IA se implementan, de modo que solo pueda usarlo si realmente comprende lo que sucede debajo del capó. O tal que haya pasado una gran cantidad de controles para ser lo suficientemente honesto, inofensivo y útil. Entonces, en lugar de decir: “[Deberíamos] acelerar o ralentizar el progreso de la IA”, podemos mirar más estrechamente que eso y decir: “Está bien, ¿cuáles son las cosas que pueden ser más preocupantes? ¿Lo sabías?” Y luego, lo segundo es que, como con todas estas cosas, debes preocuparte de que si una persona o un grupo dice unilateralmente: “Está bien, no voy a desarrollar esto”, bueno, tal vez entonces sea el actores menos motivados moralmente que lo promueven en su lugar.

Escribes todo un capítulo sobre los riesgos del estancamiento: una ralentización del progreso económico y tecnológico. Esto no parece plantear un riesgo existencial en sí mismo. ¿Qué tendría de malo que el progreso se mantuviera cerca de los niveles actuales durante los siglos venideros?

Lo incluí por un par de razones. Una es que el estancamiento ha recibido muy poca atención en el mundo a largo plazo hasta ahora. Pero también creo que es potencialmente muy significativo desde una perspectiva a largo plazo. Una de las razones es que podríamos quedar atrapados en una época de peligros. Si existimos en un nivel de tecnología de la década de 1920 indefinidamente, eso no sería sostenible. Si quemamos todos los combustibles fósiles, obtendríamos una catástrofe climática. Si continuamos con los niveles actuales de tecnología, entonces la guerra nuclear total es solo cuestión de tiempo. Incluso si el riesgo es muy bajo, solo un pequeño riesgo anual a lo largo del tiempo aumentará eso.

Aún más preocupante con las armas biológicas diseñadas, eso también es solo cuestión de tiempo. Simplemente detener el enfoque tecnológico por completo, creo que no es una opción; en realidad, eso nos condenará a la perdición. No está claro exactamente qué tan rápido deberíamos ir, pero sí significa que debemos salir del nivel actual de desarrollo tecnológico y pasar al siguiente, para llegar a un punto de lo que Toby Ord llama “existencial”. seguridad”, donde tenemos la tecnología y la sabiduría para reducir estos riesgos.

Incluso si superamos nuestros riesgos existenciales actuales, ¿no habrá nuevos riesgos que aún no conocemos, acechando en nuestro futuro? ¿Podremos superar nuestro momento actual de riesgo existencial?

Bien podría ser que a medida que se desarrolle la tecnología, tal vez existan estas pequeñas islas de seguridad. Un punto es si acabamos de descubrir básicamente todo. En ese caso no hay nuevas tecnologías que nos sorprendan y nos maten a todos. O imagine si tuviéramos una defensa contra armas biológicas o tecnología que pudiera prevenir cualquier guerra nuclear. Entonces tal vez podríamos pasar el rato en ese momento con ese nivel tecnológico, para que realmente podamos pensar en lo que sucederá a continuación. Eso podría ser posible. Entonces, la forma en que tendría seguridad es simplemente mirándolo e identificando qué riesgos enfrentamos, qué tan bajo hemos logrado reducir los riesgos, o si ahora estamos en el punto en el que nos acabamos de dar cuenta. todo lo que hay que averiguar.

Fuente: https://www.wired.com/story/will-macaskill-longtermism/

Deja una respuesta