AI Consciente

por JOEL FROHLICH

El filósofo australiano David Chalmers preguntó si los “zombis filosóficos” son concebibles: personas que se comportan como tú y como yo pero que carecen de experiencia subjetiva. Es una idea que ha hecho que muchos académicos se interesen por la conciencia, incluyéndome a mí. El razonamiento es que, si esos zombis, o robots sofisticados e insensibles, son concebibles, entonces las propiedades físicas por sí solas, sobre el cerebro o un mecanismo similar al cerebro, no pueden explicar la experiencia de la conciencia. En lugar de ello, algunas de las propiedades mentales adicionales deben tener en cuenta el lo-que-es-como sensación de estar consciente. Averiguar cómo surgen estas propiedades mentales se conoce como el “problema difícil” de la conciencia.

AI Consciente
AI Consciente

Pero tengo un pequeño problema con los zombis de Chalmers . Se supone que los zombis son capaces de hacer cualquier pregunta sobre la naturaleza de la experiencia. Sin embargo, vale la pena preguntarse cómo una persona o máquina desprovista de experiencia podría reflexionar sobre la experiencia que no tiene. En el episodio del podcast Making Sense con el neurocientífico y autor Sam Harris, Chalmers abordó este rompecabezas. “No creo que sea particularmente difícil al menos concebir un sistema que haga esto”, dijo Chalmers a Harris. “Quiero decir, estoy hablando contigo ahora, y estás haciendo muchos comentarios sobre la conciencia que parecen sugerir fuertemente que la tienes. Aún así, al menos puedo entretenerme con la idea de que no estás consciente y que eres un zombi que, de hecho, está haciendo todos estos ruidos sin tener conciencia en el interior “.

Este no es un asunto estrictamente académico: si DeepMind de Google desarrolla una IA que comienza a preguntarse, digamos, por qué el color rojo se siente rojo y no otra cosa, solo hay algunas explicaciones posibles. Quizás escuchó la pregunta de otra persona. Es posible, por ejemplo, que una IA aprenda a hacer preguntas sobre la conciencia simplemente leyendo artículos sobre la conciencia. También podría haber sido programado para hacer esa pregunta, como un personaje en un videojuego , o podría haber eructado la pregunta a partir de un ruido aleatorio. Claramente, hacer preguntas sobre la conciencia no prueba nada per se.. Pero, ¿podría un zombi de la IA formular estas preguntas por sí mismo, sin escucharlas de otra fuente o sin emitirlas de salidas aleatorias? Para mí, la respuesta es claramente no. Si estoy en lo cierto, entonces deberíamos considerar seriamente que una IA podría ser consciente si hace preguntas sobre la experiencia subjetiva de forma espontánea. Debido a que no sabremos si es ético desconectar una IA de este tipo sin saber si es consciente, es mejor que comencemos a escuchar esas preguntas ahora.

El siglo XXI necesita urgentemente una prueba de conciencia de Turing.

Nuestras experiencias conscientes se componen de qualia, los aspectos subjetivos de la sensación: el enrojecimiento del rojo, la dulzura del dulce. Los qualia que componen las experiencias conscientes son irreductibles, incapaces de ser mapeados en otra cosa. Si yo naciera ciego, nadie, por muy articulado que fuera, jamás sería capaz de darme una idea del color que comparten la sangre y las rosas. Esto sería cierto incluso si yo estuviera entre una serie de personas ciegas que desarrollan algo llamado visión ciega: la capacidad de evitar obstáculos y adivinar con precisión dónde aparecen los objetos en un monitor de computadora a pesar de ser ciego.

La visión ciega parece demostrar que algunos comportamientos pueden ser puramente mecanizados, por así decirlo, ocurriendo sin ninguna conciencia subjetiva, haciéndose eco de la noción de zombis de Chalmers. Los cerebros de las personas ciegas parecen explotar áreas preconscientes del sistema visual, produciendo un comportamiento vidente sin experiencia visual. Esto a menudo ocurre después de que una persona sufre un derrame cerebral u otra lesión en la corteza visual, la parte de la corteza cerebral que procesa la información visual. Debido a que los ojos de la persona aún están sanos, pueden alimentar información oculta a la conciencia a ciertas regiones del cerebro, como el colículo superior .

Del mismo modo, existen al menos unos pocos casos documentados de sordera auditiva . Uno de esos casos, detallado en un informe de Psicología Filosófica de 2017 , es el del paciente LS, un hombre sordo de nacimiento, pero capaz de discriminar sonidos en función de su contenido. Para personas como LS, este discernimiento se produce en silencio. Pero si una persona sorda hiciera el tipo de preguntas que hacen las personas que pueden oír: “¿No tiene ese sonido un extraño tono metálico?”, Entonces tendríamos buenas razones para sospechar que esta persona no lo es. t sordo en absoluto. (No podíamos estar absolutamente seguros porque la pregunta podría ser una broma). Del mismo modo, si una IA comenzara a hacer, sin que se le pidiera, el tipo de preguntas que solo un ser consciente podría hacer, razonablemente formaríamos una sospecha similar de que la experiencia subjetiva ha entrar en línea.

El siglo XXI necesita urgentemente una prueba de conciencia de Turing. La IA está aprendiendo a conducir automóviles, diagnosticar el cáncer de pulmón y escribir sus propios programas informáticos. La conversación inteligente puede estar a solo una o dos décadas de distancia, y la futura super-IA no vivirá en el vacío. Tendrá acceso a Internet y a todos los escritos de Chalmers y otros filósofos que han hecho preguntas sobre los qualia y la conciencia. Pero si las empresas de tecnología prueban la IA en una intranet local, aisladas de dicha información, podrían realizar una entrevista al estilo de prueba de Turing para detectar si las preguntas sobre los qualia tienen sentido para la IA.

¿Qué podríamos preguntarle a una mente potencial nacida del silicio? Cómo responde la IA a preguntas como “¿Qué pasa si mi rojo es tu azul?” o “¿Podría haber un color más verde que el verde?” debería decirnos mucho sobre sus experiencias mentales, o la falta de ellas. Una IA con experiencia visual podría considerar las posibilidades sugeridas por estas preguntas, tal vez respondiendo: “Sí, y a veces me pregunto si también podría existir un color que mezcle el rojo del rojo con la frialdad del azul”. Por otro lado, una IA que carece de cualquier qualia visual podría responder con: “Eso es imposible, el rojo, el verde y el azul existen cada uno como longitudes de onda diferentes”. Incluso si la IA intenta seguir el juego o engañarnos, responde como: “Interesante, ¿y si mi rojo es tu hamburguesa?” demostraría que no entendió el punto.

Por supuesto, es posible que una conciencia artificial posea qualia muy diferente a la nuestra. En este escenario, es posible que las preguntas sobre qualia específicos, como los qualia de color, no encajen con la IA. Pero las preguntas más abstractas sobre los propios qualia deberían filtrar a los zombis. Por esta razón, la mejor pregunta de todas probablemente sería la del problema difícil en sí: ¿Por qué existe la conciencia? ¿Por qué experimenta qualia mientras procesa información del mundo que lo rodea? Si esta pregunta tiene algún sentido para la IA, entonces probablemente hayamos encontrado conciencia artificial. Pero si la IA claramente no comprende conceptos como “conciencia” y “qualia”, entonces faltan pruebas de una vida mental interior.

Construir un detector de conciencia no es una empresa pequeña. Junto con dicha prueba de Turing, los investigadores del mañana probablemente aplicarán las teorías abstractas de la conciencia de hoy en un esfuerzo por inferir la existencia de la conciencia a partir del diagrama de cableado de una computadora. Una de esas teorías considera la cantidad de información integrada por un cerebro u otro sistema, y ​​ya se está aplicando para inferir la existencia de conciencia en pacientes con lesiones cerebrales e incluso en bancos de peces . De hecho, antes de que la motivación para detectar la conciencia artificial obtenga fondos sustanciales para dicha investigación, la necesidad de detectar la conciencia en pacientes con lesiones cerebrales ya ha borrado la palabra C de la lista de tabú de la ciencia.

Mi propio laboratorio, dirigido por Martin Monti en la Universidad de California en Los Ángeles, se esfuerza por mejorar la vida de los pacientes con lesiones cerebrales mediante el desarrollo de mejores medios para inferir la conciencia a partir de la actividad cerebral eléctrica o metabólica. Así como surgen tragedias éticas cuando desconectamos a pacientes que están conscientes pero que no responden , surgirán tragedias similares si desconectamos la conciencia artificial. Y así como mi laboratorio en UCLA relaciona las medidas teóricas de la conciencia con el comportamiento de la cama de hospital de los pacientes con lesión cerebral, los futuros investigadores deben relacionar las medidas teóricas de la conciencia artificial con el desempeño de una IA en algo parecido a una prueba de Turing. Cuando cerramos el libro de texto al final del día, todavía debemos considerar la única pregunta que los zombis no pueden responder.

Joel Frohlich es un investigador postdoctoral que estudia la conciencia en el laboratorio de Martin Monti en la Universidad de California, Los Ángeles. Recibió su doctorado en neurociencia en el laboratorio de Shafali Jeste en UCLA mientras estudiaba biomarcadores de trastornos del neurodesarrollo. Es el editor en jefe del sitio web de comunicación científica  “Knowing Neurons”.

Fuente: https://nautil.us/blog/-heres-how-well-know-an-ai-is-conscious

Deja una respuesta