por Gideon Lichfield y Karen Hao (MIT Technology Review)
La construcción de una inteligencia artificial general comienza con evitar que los modelos actuales de IA perpetúen el racismo, el sexismo y otros prejuicios perniciosos.
La inteligencia artificial se ha convertido en una parte tan importante de nuestras vidas que se le perdonará por perder la cuenta de los algoritmos con los que interactúa. Pero la IA que impulsa su pronóstico del tiempo, filtro de Instagram o lista de reproducción favorita de Spotify está muy lejos de las máquinas de pensamiento hiperinteligentes sobre las que los pioneros de la industria han estado reflexionando durante décadas.
El aprendizaje profundo, la tecnología que impulsa el auge actual de la IA , puede entrenar a las máquinas para que se conviertan en maestros en todo tipo de tareas. Pero solo puede aprender uno a la vez. Y debido a que la mayoría de los modelos de inteligencia artificial entrenan sus habilidades en miles o millones de ejemplos existentes, terminan replicando patrones dentro de los datos históricos, incluidas las muchas malas decisiones que la gente ha tomado, como marginar a las personas de color y a las mujeres.
Aún así, sistemas como el campeón de juegos de mesa AlphaZero y el generador de texto falso cada vez más convincente GPT-3 han avivado las llamas del debate sobre cuándo los humanos crearán una inteligencia general artificial: máquinas que pueden realizar múltiples tareas, pensar y razonar por sí mismos.
La idea es divisiva. Más allá de la respuesta a cómo podríamos desarrollar tecnologías capaces de sentido común o superación personal, hay otra pregunta: ¿quién se beneficia realmente de la replicación de la inteligencia humana en una mente artificial?
“La mayor parte del valor que genera la IA en la actualidad está regresando a las empresas de mil millones de dólares que ya tienen una cantidad fantástica de recursos a su disposición”, dice Karen Hao, reportera senior de IA de MIT Technology Review y autora de The Algorithm . “Y realmente no hemos descubierto cómo convertir ese valor o distribuir ese valor a otras personas”.
En este episodio de Deep Tech, Hao y Will Douglas Heaven, nuestro editor senior de IA, se unen a nuestro editor en jefe, Gideon Lichfield, para discutir las diferentes escuelas de pensamiento sobre si una inteligencia artificial general es posible y qué significa. tardaría en llegar allí.
Escuchar podcast en https://megaphone.link/MIT6038169340
Transcripción completa del episodio
Gideon Lichfield: La inteligencia artificial ahora es tan omnipresente que probablemente ni siquiera pienses en el hecho de que la estás usando. Tus búsquedas web. Traductor de google. Asistentes de voz como Alexa y Siri. Esos pequeños filtros cursis en Snapchat e Instagram. Lo que ve y no ve en las redes sociales. Alertas de fraude de la compañía de su tarjeta de crédito. Recomendaciones de Amazon. Listas de reproducción de Spotify. Direcciones de tráfico. La previsión del tiempo. Todo es IA, todo el tiempo.
Y es todo lo que podríamos llamar “IA tonta”. No inteligencia real. Realmente solo copiadoras: algoritmos que han aprendido a hacer cosas realmente específicas al ser entrenados en miles o millones de ejemplos correctos. En algunas de esas cosas, como el reconocimiento facial y de voz, ya son incluso más precisos que los humanos.
Todo este progreso ha revitalizado un viejo debate en el campo: ¿podemos crear inteligencia real , máquinas que puedan pensar independientemente por sí mismas? Bueno, hoy conmigo están el equipo de IA de MIT Technology Review: Will Heaven, nuestro editor senior de IA, y Karen Hao, nuestra reportera senior de IA y escritora de The Algorithm , nuestro boletín informativo de IA. Ambos han estado siguiendo el progreso en IA y las diferentes escuelas de pensamiento sobre si una inteligencia general artificial es posible y qué se necesitaría para llegar allí.
Soy Gideon Lichfield, editor en jefe de MIT Technology Review, y esto es Deep Tech.
Will, acabas de escribir una historia de 4000 palabras sobre la cuestión de si podemos crear una inteligencia general artificial. Así que debes haber tenido alguna razón para hacerte eso. ¿Por qué esta pregunta es interesante en este momento?
Will Douglas Heaven: Entonces, en cierto sentido, siempre ha sido interesante. Construir una máquina que pueda pensar y hacer cosas que la gente pueda hacer ha sido el objetivo de la IA desde el principio, pero ha sido una lucha muy, muy larga. Y la exageración pasada ha llevado al fracaso. Entonces, esta idea de la inteligencia artificial general se ha vuelto, ya sabes, muy controvertida y muy divisiva, pero está regresando. Eso es en gran parte gracias al éxito del aprendizaje profundo durante la última década. Y, en particular, sistemas como Alpha Zero, que fue creado por DeepMind y puede jugar Go y Shogi, una especie de ajedrez japonés y ajedrez. El mismo algoritmo puede jugar los tres juegos. Y GPT-3, el gran modelo de lenguaje de OpenAI, que puede imitar asombrosamente la forma en que escriben los humanos. Eso ha llevado a la gente, especialmente durante el último año, a intervenir y hacer estas preguntas nuevamente. ¿Estamos a punto de desarrollar inteligencia artificial general? Máquinas que pueden pensar y hacer cosas como los humanos.
Gideon Lichfield: Karen, hablemos un poco más sobre GPT-3, que Will acaba de mencionar. Es este algoritmo el que, ya sabes, le das unas pocas palabras y escupirá párrafos y párrafos de lo que se parece convincentemente a Shakespeare o cualquier otra cosa que le digas que haga. Pero, ¿qué tiene de notable desde la perspectiva de la IA? ¿Qué hace que no se podía hacer antes?
Karen Hao: Lo interesante es que creo que los avances que llevaron a GPT-3 en realidad ocurrieron varios años antes. En 2017, el principal avance que desencadenó una ola de avances en el procesamiento del lenguaje natural ocurrió con la publicación del artículo que introdujo la idea de los transformadores. Y la forma en que un algoritmo transformador trata con el lenguaje es que mira millones o incluso miles de millones de ejemplos, de oraciones de estructura de párrafos o tal vez incluso estructura de código. Y puede extraer los patrones y comenzar a predecir en un grado muy impresionante, qué palabras tienen más sentido juntas, qué oraciones tienen más sentido juntas. Y luego, por lo tanto, construya estos párrafos y ensayos realmente largos. Lo que creo que GPT-3 ha hecho de manera diferente es el hecho de que ‘ Son solo órdenes de magnitud más de datos que ahora se están utilizando para entrenar esta técnica de transformador. Entonces, lo que OpenAI hizo con GPT-3 es que no solo lo están entrenando con más ejemplos de palabras de corpus como Wikipedia o de artículos como el New York Times o los foros de Reddit o todas estas cosas, también lo están capacitando, patrones de oración, lo entrena en patrones de párrafo, mirando lo que tiene sentido como un párrafo de introducción versus un párrafo de conclusión. Así que solo está obteniendo mucha más información y realmente está comenzando a imitar muy de cerca cómo escriben los humanos, cómo se componen las partituras o cómo se codifica la codificación. también lo están entrenando en patrones de oraciones, lo entrena en patrones de párrafo, mirando lo que tiene sentido como un párrafo de introducción versus un párrafo de conclusión. Así que solo está obteniendo mucha más información y realmente está comenzando a imitar muy de cerca cómo escriben los humanos, cómo se componen las partituras o cómo se codifica la codificación. también lo están entrenando en patrones de oraciones, lo entrena en patrones de párrafo, mirando lo que tiene sentido como un párrafo de introducción versus un párrafo de conclusión. Así que solo está obteniendo mucha más información y realmente está comenzando a imitar muy de cerca cómo escriben los humanos, cómo se componen las partituras o cómo se codifica la codificación.
Así que solo está obteniendo mucha más información y realmente está comenzando a imitar muy de cerca cómo escriben los humanos, cómo se componen las partituras o cómo se codifica la codificación.
Gideon Lichfield: Y antes de los transformadores, que pueden extraer patrones de todos estos diferentes tipos de estructuras, ¿qué estaba haciendo la IA?
Karen Hao: Antes, el procesamiento del lenguaje natural era en realidad … era mucho más básico. Entonces, los transformadores son una especie de técnica auto-supervisada en la que no se le dice al algoritmo exactamente qué buscar entre el lenguaje. Solo busca patrones por sí mismo y lo que cree que son las características repetitivas de la composición del lenguaje. Pero antes de eso, en realidad había muchos más enfoques supervisados del lenguaje y mucho más codificados los enfoques del lenguaje en los que la gente enseñaba máquinas como “estos son sustantivos, estos son adjetivos. Así es como se construyen estas cosas juntas”. Y, desafortunadamente, es un proceso muy laborioso tratar de curar el lenguaje de esa manera donde cada palabra tiene que tener una etiqueta. Y a la máquina se le debe enseñar manualmente cómo construir estas cosas. Y así limitó la cantidad de datos de los que estas técnicas podrían alimentarse. Y es por eso que los sistemas lingüísticos no eran muy buenos.
Gideon Lichfield: Volvamos a la distinción entre aprendizaje supervisado y auto supervisado, porque creo que veremos que es una parte bastante importante de los avances hacia algo que podría convertirse en una inteligencia general. Will, como escribiste en tu artículo, hay mucha ambigüedad sobre lo que queremos decir cuando decimos inteligencia artificial general. ¿Puedes hablar un poco sobre cuáles son las opciones allí?
Will Douglas Heaven: Hay una especie de espectro. Quiero decir, en un extremo, tienes sistemas que, ya sabes, pueden hacer muchas de las cosas que la IA estrecha o la IA tonta, si quieres, pueden hacer hoy, pero todas a la vez. Y Alpha Zero es quizás el primer vistazo de eso. Este algoritmo puede entrenarse a sí mismo para hacer tres cosas diferentes, pero hay una advertencia importante: no puede obligarse a hacer esas tres cosas a la vez. Así que no es como un solo cerebro que puede cambiar entre tareas. Como dijo Shane Legg, sobre los cofundadores de Deepmind, es como si tú o yo tuviéramos que hacerlo, ya sabes, cuando empezamos a jugar al ajedrez, tuvimos que cambiar nuestro cerebro y ponerlo en nuestro cerebro de ajedrez.
Claramente, eso no es muy general, pero estamos en la cúspide de ese tipo de cosas: su tipo de IA de múltiples herramientas donde una IA puede hacer varias cosas diferentes que la IA estrecha ya puede hacer. Y luego, subiendo en el espectro, lo que probablemente más gente quiere decir cuando hablan de AGI es, ya sabes, máquinas pensantes, máquinas que son “similares a los humanos” entre comillas de miedo que pueden realizar múltiples tareas de la manera en que una persona puede hacerlo. Sabes que somos extremadamente adaptables. Podemos cambiar entre, ya sabes, freír un huevo a, ya sabes, escribir una publicación de blog o cantar, lo que sea. Aún así, también hay gente, yendo directamente al otro extremo del espectro, que también se conectaría a una conciencia de máquina para hablar sobre AGI. Sabes, no vamos a tener una verdadera inteligencia general o una inteligencia similar a la humana hasta que tengamos una máquina que no solo pueda hacer cosas que nosotros podemos hacer, pero sabe que puede hacer cosas que nosotros podemos hacer que tienen algún tipo de autorreflexión. Creo que todas esas definiciones han existido desde el principio, pero es una de las cosas que hace que sea difícil hablar sobre AGI y bastante controvertido porque no hay una definición clara.
Gideon Lichfield: Cuando hablamos de inteligencia artificial general, existe este tipo de suposición implícita de que la inteligencia humana en sí misma también es absolutamente general. Es universal. Podemos freír un huevo o podemos escribir una entrada de blog o podemos bailar o cantar. Y que todas estas son habilidades que debe tener cualquier inteligencia general. Pero, ¿es ese realmente el caso o habrá diferentes tipos de inteligencia general?
Will Douglas Heaven: Creo, y creo que muchos en la comunidad de IA también estarían de acuerdo en que hay muchas inteligencias diferentes. Creo que estamos atrapados en esta idea de inteligencia similar a la humana en gran parte porque durante mucho tiempo los humanos han sido el mejor ejemplo de inteligencia general que hemos tenido, por lo que es obvio por qué son un modelo a seguir, ya sabes. , queremos construir máquinas a nuestra propia imagen, pero basta con mirar alrededor del reino animal y hay muchas, muchas formas diferentes de ser inteligente. Desde el tipo de inteligencia social que tienen las hormigas, donde colectivamente podrían hacer cosas realmente notables con los pulpos, que apenas estamos comenzando a comprender las formas en que son inteligentes, pero luego son inteligentes de una manera muy extraña en comparación con nosotros. E incluso nuestros primos más cercanos, como los chimpancés, tienen inteligencias,
Así que creo que la idea de que las máquinas, si se vuelven inteligentes en general, deben ser como nosotros es, como saben, una tontería, se está yendo por la ventana. La mismísima misión de construir una AGI que sea humana tal vez no tenga sentido porque tenemos inteligencias humanas, ¿verdad? Nos tenemos a nosotros mismos. Entonces, ¿por qué necesitamos fabricar máquinas que hagan esas cosas? Sería mucho, mucho mejor desarrollar inteligencias que puedan hacer cosas que nosotros no podemos hacer. Son inteligentes de diferentes formas para complementar nuestras habilidades.
Gideon Lichfield: Karen, a la gente obviamente le encanta hablar sobre la amenaza de una IA superinteligente que se apodera del mundo, pero ¿cuáles son las cosas que realmente deberían preocuparnos?
Karen Hao: Uno de los más importantes de los últimos años ha sido la discriminación algorítmica. Este fenómeno lo comenzamos a notar donde, cuando entrenamos algoritmos, pequeños o grandes, para tomar decisiones basadas en datos históricos, termina replicando los patrones que no necesariamente queremos que reproduzca dentro de los datos históricos, como la marginación de personas de el color o la marginación de la mujer.
Cosas de nuestra historia de las que preferiríamos prescindir, a medida que avanzamos y progresamos como sociedad. Pero debido a la forma en que los algoritmos no son muy inteligentes y extraen estos patrones y los replican sin pensar, terminan tomando decisiones que discriminan a las personas de color que discriminan a las mujeres discriminan culturas particulares que no son culturas centradas en Occidente.
Y si observa las conversaciones que están sucediendo entre las personas que hablan sobre algunas de las formas en que debemos pensar sobre la mitigación de las amenazas en torno a la superinteligencia o al AGI, como quiera llamarlo, hablarán sobre este desafío de alineación de valores. La alineación de valores se define como cómo hacemos que esta IA superinteligente comprenda nuestros valores y se alinee con nuestros valores. Si no se alinean con nuestros valores, es posible que hagan algo loco. Y así es como empieza a dañar a la gente.
Gideon Lichfield: ¿Cómo creamos una IA, una IA súper inteligente, que no es mala?
Karen Hao: Exactamente. Exactamente. Entonces, en lugar de hablar en el futuro sobre tratar de averiguar la alineación de valores dentro de cien años, deberíamos estar hablando ahora sobre cómo fallamos en alinear los valores con IA muy básicas hoy y realmente resolver el problema de discriminación algorítmica.
Otro gran desafío es la concentración de poder que, um, la IA crea naturalmente. En la actualidad, necesita una cantidad increíble de potencia computacional para crear sistemas de inteligencia artificial avanzados y romper el estado de la técnica. Y los únicos jugadores que realmente tienen esa cantidad de poder computacional ahora son las grandes empresas de tecnología y quizás las universidades de investigación de primer nivel. E incluso las universidades de investigación de primer nivel apenas pueden competir con las grandes empresas de tecnología.
Así que las manzanas del mundo en Facebook de Google. Um, otra preocupación que la gente tiene, durante cien años a partir de ahora es que una vez que se desate la IA superinteligente, ¿realmente beneficiará a las personas de manera uniforme? Bueno, tampoco lo hemos descubierto hoy. Como la mayor parte del valor que genera la IA en la actualidad, regresa a las empresas de mil millones de dólares que ya tienen una cantidad fantástica de recursos a su disposición. Y realmente no hemos descubierto cómo convertir ese valor o distribuir ese valor a otras personas.
Gideon Lichfield: Bien, regresemos entonces a la idea de una inteligencia general y cómo la construiríamos si pudiéramos. Will mencionó el aprendizaje profundo antes. Cuál es la técnica fundamental de la mayoría de la IA que usamos hoy. Y solo tiene unos ocho años. Karen, hablaste esencialmente con el padre del aprendizaje profundo Geoffrey Hinton en nuestra conferencia EmTech recientemente. Y piensa que el aprendizaje profundo, la técnica que estamos usando para cosas como los servicios de traducción o el reconocimiento facial, también será la base de una inteligencia general cuando finalmente lleguemos allí.
Geoffrey Hinton [De EmTech 2020]: Creo que el aprendizaje profundo va a poder hacer todo. Pero sí creo que tendrá que haber bastantes avances conceptuales que aún no hemos tenido. // Particularmente avances relacionados con la forma de obtener grandes vectores de actividad neuronal para implementar cosas como el razonamiento, pero también necesitamos un aumento masivo en la escala. // El cerebro humano tiene alrededor de cien billones de parámetros, eso es sinapsis. Cien billones. Lo que ahora se llama modelos realmente grandes como GPT-3 tiene 175 mil millones. Es miles de veces más pequeño que el cerebro.
Gideon Lichfield: ¿Puede comenzar explicando qué es el aprendizaje profundo?
Karen Hao: El aprendizaje profundo es una categoría de técnicas que se basa en esta idea de que la forma de crear inteligencia artificial es crear redes neuronales artificiales que se basan en las redes neuronales de nuestro cerebro. Los cerebros humanos son la forma más inteligente de inteligencia que tenemos hoy.
Obviamente Will ya ha hablado sobre algunos desafíos a esta teoría, pero asumiendo que la inteligencia humana es como el epítome de la inteligencia que tenemos hoy, queremos intentar recrear cerebros artificiales en una especie de imagen de un cerebro humano. Y el aprendizaje profundo es eso. Es una técnica que intenta utilizar las redes neuronales artificiales como una forma de lograr la inteligencia artificial.
A lo que se refería es a que hay en gran medida dos campos diferentes dentro del campo sobre cómo podríamos abordar la construcción de inteligencia artificial general. El primer campo es que ya tenemos todas las técnicas que necesitamos, solo necesitamos escalarlas masivamente con más datos y redes neuronales más grandes.
El otro campo es que el aprendizaje profundo no es suficiente. Necesitamos algo más que aún no hemos descubierto para complementar el aprendizaje profundo a fin de lograr algunas de las cosas, como el sentido común o el razonamiento, que en la actualidad ha sido esquivo en el campo de la IA.
Gideon Lichfield: Entonces Will, como Karen aludió hace un momento, las personas que creen que podemos construir una inteligencia general a partir del aprendizaje profundo piensan que debemos agregarle algunas cosas. ¿Cuáles son algunas de esas cosas?
Will Douglas Heaven: Entre aquellos que piensan que el aprendizaje profundo es, es el camino a seguir. Quiero decir, además de muchos más datos, como dijo Karen, hay un montón de técnicas que la gente está usando para impulsar el aprendizaje profundo.
Tienes un aprendizaje sin supervisión, que es … tradicionalmente muchos éxitos de aprendizaje profundo, como el reconocimiento de imágenes, simplemente para usar el ejemplo cliché de reconocer gatos. Eso es porque la IA ha sido entrenada en millones de imágenes que los humanos han etiquetado con “gato”. Sabes, así es como se ve un gato, apréndelo. El aprendizaje no supervisado es cuando la máquina entra y mira datos que no han sido etiquetados de esa manera y ella misma trata de detectar patrones.
Gideon Lichfield : En otras palabras, ¿lo darías como un montón de gatos, un montón de perros, un montón de pasteles de nueces y los clasificaría en grupos?
Will Douglas Heaven: Sí. Básicamente, primero tiene que aprender cuál es el tipo de características distintivas entre esas categorías en lugar de recibir indicaciones. Y esa capacidad de identificarse, ya sabes, cuáles son esas características distintivas, es un paso hacia una mejor forma de aprender. Y es prácticamente útil porque, por supuesto, la tarea de etiquetar todos estos datos es enorme.
Y no podemos continuar por este camino, especialmente si queremos que el sistema se entrene con más y más datos. No podemos continuar en el camino de tenerlo etiquetado manualmente. Y lo que es aún más interesante, creo que un sistema de aprendizaje no supervisado tiene el potencial de detectar categorías que los humanos no tienen. Así que podríamos aprender algo de la máquina.
Y luego tienes cosas como el aprendizaje por transferencia, y esto es crucial para la inteligencia general. Aquí es donde tiene un modelo que ha sido entrenado en un conjunto de datos de una forma u otra. Y lo que se aprendió en esa capacitación, debe poder transferirlo a una nueva tarea para no tener que comenzar desde cero cada vez.
Por lo tanto, hay varias formas de abordar el aprendizaje por transferencia, pero, por ejemplo, puede tomar algunos de, algunos de los valores de una capacitación, de una red de trenes y precargar otra de una manera que cuando le pida que reconozca , una imagen de un animal diferente, ya tiene algún sentido de, ya sabes, lo que los animales tienen, ya sabes, patas, cabezas y colas.
Que tienes. Entonces, solo desea poder transferir algunas de las cosas que aprendió de una tarea a otra. Y luego están cosas como el aprendizaje de pocos disparos, que es de donde el sistema aprende o, como su nombre lo indica, de muy pocos ejemplos de entrenamiento. Y eso también será crucial porque no siempre tenemos una gran cantidad de datos para lanzar a estos sistemas para enseñarles.
Quiero decir que son extremadamente ineficientes cuando lo piensas en comparación con los humanos. Sabes, podemos aprender una lección de, ya sabes, un ejemplo, dos ejemplos. Le muestras a un niño, una imagen de una jirafa y sabe lo que es una jirafa. Incluso podemos aprender qué es algo sin decir ningún ejemplo.
Karen Hao: sí. Si. Si lo piensan, niños … si les muestran una foto de un caballo y luego les muestran una foto de un rinoceronte y les dicen, ya saben, un unicornio es algo entre un caballo y un rinoceronte, tal vez realmente lo hagan, cuando vean por primera vez un unicornio en un libro de imágenes, podrán saber que es un unicornio. Y así es como empiezas a aprender más categorías que ejemplos que estás viendo, y esto es inspiración para otra frontera más del aprendizaje profundo llamada aprendizaje bajo o aprendizaje con menos de un disparo. Y de nuevo, es el mismo principio que el aprendizaje de pocos disparos, en el que si podemos hacer que estos sistemas aprendan a partir de muestras de datos muy, muy, muy pequeñas, de la misma manera que lo hacen los humanos, entonces eso realmente puede impulsar el proceso de aprendizaje.
Gideon Lichfield: Para mí, esto plantea una pregunta aún más general; que es lo que hace que las personas en el campo de AGI estén tan seguras de que se puede producir inteligencia en una máquina que representa información digitalmente, en forma de unos y ceros, cuando todavía sabemos tan poco sobre cómo el cerebro humano representa la información. ¿No es una suposición muy grande que podamos simplemente recrear la inteligencia humana en una máquina digital?
Will Douglas Heaven: sí, estoy de acuerdo. A pesar de la enorme complejidad de algunas de las redes neuronales que vemos hoy en términos de su tamaño y sus conexiones, estamos en órdenes de magnitud de cualquier cosa que coincida con la escala de un cerebro, incluso una especie de cerebro animal bastante básico. . Así que sí, hay un abismo enorme entre esa idea de que vamos a poder hacerlo, especialmente con la tecnología actual, la tecnología actual de aprendizaje profundo.
Y, por supuesto, aunque, como Karen describió anteriormente, las redes neuronales están inspiradas en el cerebro, las neuronas neuronas en nuestro cerebro. Ésa es sólo una forma de ver el cerebro. Quiero decir, los cerebros no son solo masas de neuronas. Tienen secciones discretas que están dedicadas a diferentes tareas.
Entonces, nuevamente, esta idea de que solo una red neuronal muy grande logrará inteligencia general es nuevamente, un poco de acto de fe porque tal vez la inteligencia general requiera algún avance en cómo se comunican las estructuras dedicadas. Entonces, hay otra división en ustedes saben, aquellos que persiguen este objetivo.
Ya sabes, algunos piensan que puedes escalar redes neuronales. Otras personas piensan que debemos apartarnos del tipo de detalles específicos de cualquier algoritmo de aprendizaje profundo individual y mirar el panorama general. En realidad, ya sabes, tal vez las redes neuronales no sean el mejor modelo del cerebro y podamos construir mejores, que miren cómo se comunican las diferentes partes del cerebro con, ya sabes, la, la, la suma es mayor que la totalidad .
Gideon Lichfield: Quiero terminar con una pregunta filosófica. Dijimos anteriormente que incluso los defensores de AGI no creen que sea consciente. ¿Podríamos siquiera decir si tendrá pensamientos? ¿Comprenderá su propia existencia en el sentido en que lo hacemos nosotros?
Will Douglas Heaven: En el artículo de Alan Turing de 1950 Can Machines Think, que incluso, ya sabes, fue cuando la IA todavía era solo una idea teórica, ni siquiera la hemos abordado como una especie de posibilidad de ingeniería. Planteó esta pregunta: ¿cómo sabemos si una máquina puede pensar? Y en ese artículo, él aborda, ya sabes, esta, esta idea de conciencia. Quizás algunas personas vengan y digan que las máquinas nunca pueden pensar porque nunca seremos capaces de decir que las máquinas pueden pensar porque no podremos decir que están conscientes. Y, en cierto modo, lo descarta diciendo, bueno, si empujas ese argumento hasta el punto, entonces tienes que decir lo mismo al respecto. Bueno, los seres humanos que conoces todos los días, no hay una forma definitiva en la que pueda decir que alguno de ustedes no está consciente. Sabes que la única forma en que yo sabría eso es si experimentara ser tú. Y llegas al punto en el que la comunicación se interrumpe y es una especie de lugar al que no podemos ir. Así que esa es una forma de descartar esa pregunta. Quiero decir, creo que la cuestión de la conciencia estará por siempre. Creo que algún día tendremos máquinas que actuarán como si fueran … podrían pensar y, ya sabes, podrían imitar a los humanos tan bien, que bien podríamos tratarlos como si fueran conscientes, pero en cuanto a si realmente son, no creo que nunca lo sepamos.
Gideon Lichfield: Karen, ¿qué opinas de las máquinas conscientes?
Karen Hao: Quiero decir, partiendo de lo que dijo Will es, ¿sabemos siquiera qué es la conciencia? Y supongo que en realidad me basaría en el trabajo de un profesor de Tufts. Se acerca a la inteligencia artificial desde la perspectiva de la vida artificial. ¿Cómo se replican todas las cosas diferentes?
No solo el cerebro, sino también los pulsos eléctricos o las señales eléctricas que usamos dentro del cuerpo para comunicarnos y que también tiene inteligencia. Si somos fundamentalmente capaces de recrear cada pequeña cosa, cada pequeño proceso en nuestros cuerpos o en el cuerpo de un animal eventualmente, entonces ¿por qué esos seres no tendrían la misma conciencia que nosotros?
Will Douglas Heaven: Sabes que hay un debate maravilloso en este momento sobre los organoides cerebrales, que son pequeños grupos de células madre que se hacen crecer en neuronas e incluso pueden desarrollar conexiones y ves en algunos de ellos esta actividad eléctrica. Y hay varios laboratorios en todo el mundo que estudian estas pequeñas manchas del cerebro para comprender mejor las enfermedades del cerebro humano. Pero hay un debate ético realmente interesante sobre, ya sabes, ¿en qué momento surge esta actividad eléctrica? La posibilidad de que estos pequeños plops en placas de Petri sean conscientes. Y eso demuestra que no tenemos una buena definición de conciencia, incluso para nuestros propios cerebros, y mucho menos para los de las máquinas.
Karen Hao: Y quiero agregar, tampoco tenemos una buena definición de artificial. Entonces eso solo agrega, quiero decir, si hablamos de inteligencia artificial, general.
No tenemos una buena definición de ninguna de esas tres palabras que componen ese término. Entonces, ir al punto que Will hizo sobre estos organoides que crecían en placas de Petri, ¿se considera artificial? Si no, ¿por qué? ¿Definimos artificial como cosas que simplemente no están hechas de material orgánico? Hay mucha ambigüedad y definiciones en torno a todas las cosas de las que estamos hablando, lo que hace que la cuestión de la conciencia sea muy complicada.
Will Douglas Heaven: También los convierte en cosas divertidas de las que hablar.
Gideon Lichfield: Eso es todo para este episodio de Deep Tech. Y también es el último episodio que estamos haciendo por ahora. Estamos trabajando en otros proyectos de audio que esperamos lanzar en los próximos meses. Así que esté atento a ellos. Y si aún no lo ha hecho, debería consultar nuestro podcast de IA llamado In Machines We Trust, que se publica cada dos semanas. Puede encontrarlo en cualquier lugar donde normalmente escuche podcasts.
Deep Tech está escrita y producida por Anthony Green y editada por Jennifer Strong y Michael Reilly. Soy Gideon Lichfield. Gracias por su atención.
Más notas relacionadas:
- Inteligencia artificial general: ¿estamos cerca y tiene sentido intentarlo? 15 de octubre de 2020
- Una técnica nueva y radical permite que la IA aprenda prácticamente sin datos 16 de octubre de 2020
- Los verdaderos peligros de la IA están más cerca de lo que pensamos 21 de octubre de 2020
- La IA ha resuelto un rompecabezas matemático clave para comprender nuestro mundo 30 de octubre de 2020
Fuente: https://www.technologyreview.com/2020/11/11/1011979/podcast-ai-agi-teach-a-machine-common-sense/