Los investigadores de IA están recurriendo a la neurociencia para construir redes neuronales más inteligentes y poderosas
por Chris Baraniuk
En 1998, un ingeniero del laboratorio de informática de Sony en Japón filmó a un robot de aspecto perdido que se movía con inquietud alrededor de un recinto . El robot tenía la tarea de dos objetivos: evitar obstáculos y encontrar objetos como un bolígrafo. Pudo hacerlo gracias a su capacidad para aprender los contornos del recinto y las ubicaciones de los objetos buscados.
Pero cada vez que el robot encontró un obstáculo que no esperaba, sucedió algo interesante: sus procesos cognitivos momentáneamente se volvieron caóticos. El robot estaba lidiando con datos nuevos e inesperados que no coincidían con sus predicciones sobre el recinto. Los investigadores que organizaron el experimento argumentaron que la “autoconciencia” del robot surgió en el momento de incoherencia. En lugar de continuar como de costumbre, tuvo que dirigir su atención hacia adentro, por así decirlo, para decidir cómo lidiar con el conflicto.
Esta idea sobre la autoconciencia, que se afirma en contextos específicos, como cuando nos enfrentamos a información que nos obliga a reevaluar nuestro entorno y luego tomar una decisión ejecutiva sobre qué hacer a continuación, es antigua y se remonta a obra del filósofo alemán Martin Heidegger a principios del siglo XX.
Ahora, los investigadores de inteligencia artificial están cada vez más influenciados por la neurociencia y están investigando si las redes neuronales pueden y deben alcanzar los mismos niveles más altos de cognición que ocurren en el cerebro humano.
Lejos de los robots “estúpidos” de hoy, que no tienen ningún conocimiento real de dónde están o qué experimentan, la esperanza es que un nivel de conciencia análogo a la conciencia en los humanos pueda hacer que las IA futuras sean mucho más inteligentes. Podrían aprender por sí mismos, por ejemplo, cómo seleccionar y enfocarse en datos para adquirir nuevas habilidades que asimilarán y seguirán desempeñándo con facilidad. Pero dar a las máquinas el poder de pensar así también conlleva riesgos e incertidumbres éticas.
“No diseño la conciencia”, dice Jun Tani, PhD, co-diseñador del experimento de 1998 y ahora profesor en la Unidad de Investigación de Neurorobótica Cognitiva en el Instituto de Tecnología de Okinawa. Le dice a OneZero que describir lo que sus robots experimentan como “conciencia” es utilizar una metáfora. Es decir, los bots en realidad no están reflexionando de una manera que reconoceríamos, solo exhiben un comportamiento que es estructuralmente similar. Y, sin embargo, le fascinan los paralelismos entre las mentes mecánicas y las mentes humanas. Tanto es así que ha intentado simular las respuestas neuronales asociadas con el autismo a través de un robot.
“La investigación sobre la conciencia todavía se considera un tabú en la IA”
Uno de los expertos en IA más importantes del mundo, Yoshua Bengio , fundador de Mila, el Instituto de Inteligencia Artificial de Quebec, también está fascinado por la conciencia en la IA. Utiliza la analogía de la conducción para describir el cambio entre acciones conscientes e inconscientes.
“Empieza por el control consciente cuando aprendes a conducir y luego, después de un poco de práctica, la mayor parte del trabajo se realiza en un nivel inconsciente y puedes tener una conversación mientras conduces”, explica por correo electrónico.
Ese nivel de procesamiento más alto y atento no siempre es necesario, o incluso deseable, pero parece ser crucial para los humanos aprender nuevas habilidades o adaptarse a desafíos inesperados. Los sistemas de inteligencia artificial y los robots podrían potencialmente evitar la estupidez que actualmente los acosa si solo pudieran obtener la misma capacidad para priorizar, enfocar y resolver un problema.
Inspirados en parte por lo que creemos saber sobre la conciencia humana, Bengio y sus colegas han pasado varios años trabajando en el principio de “mecanismos de atención” para los sistemas de IA. Estos sistemas pueden aprender qué datos son relevantes y, por lo tanto, en qué concentrarse para completar una tarea determinada.
“La investigación sobre la conciencia”, añade Bengio, “todavía se considera algo tabú en la IA”. Debido a que la conciencia es un fenómeno tan difícil de entender, incluso para los neurocientíficos, hasta ahora los filósofos lo han debatido principalmente, dice.
El conocimiento sobre el cerebro humano y la experiencia humana de la conciencia es cada vez más relevante para la búsqueda de sistemas más avanzados y ya ha dado lugar a algunos cruces fascinantes. Tomemos, por ejemplo, el trabajo de Newton Howard, PhD, profesor de neurociencias computacionales y neurocirugía en la Universidad de Oxford. Él y sus colegas han diseñado un sistema operativo inspirado en el cerebro humano .
“Cuando está desplegado, es como un niño. Tiene muchas ganas de aprender “.
En lugar de depender de un enfoque para resolver problemas, puede elegir la mejor técnica de procesamiento de datos para la tarea en cuestión, un poco como la forma en que diferentes partes del cerebro manejan diferentes tipos de información.
También está experimentando con un sistema que puede recopilar datos de varios sensores y fuentes para generar conocimientos automáticamente sobre varios temas. “Cuando está desplegado, es como un niño”, dice. “Tiene muchas ganas de aprender”.
Todo este trabajo, inspirado libremente por lo que sabemos sobre el cerebro humano, puede traspasar los límites de lo que la IA puede lograr hoy. Y, sin embargo, algunos argumentan que podría no acercarnos mucho más a una mente de máquina verdaderamente consciente que tiene un sentido de sí mismo, un “alma” separada que habita en su cuerpo (o chipset), con libre albedrío para arrancar.
El filósofo Daniel Dennett, que ha pasado gran parte de su vida pensando en qué es y qué no es la conciencia, sostiene que no veremos que las máquinas desarrollen este nivel de conciencia en el corto plazo, ni siquiera dentro de 50 años. Él y otros han señalado que las IA que podemos construir hoy parecen no tener ninguna semejanza con el pensamiento reflexivo o la conciencia que asumimos son cruciales para la conciencia.
Está en la búsqueda de un sistema que hace poseer estos atributos, sin embargo, que una profunda cruce entre la neurociencia y la investigación en IA podría suceder. Por el momento, la conciencia sigue siendo uno de los grandes misterios de la ciencia. Nadie sabe exactamente a qué actividad cerebral está vinculada, aunque los científicos están descubriendo gradualmente que ciertas conexiones neuronales parecen estar asociadas con ella. Algunos investigadores han encontrado oscilaciones en la actividad cerebral que parecen estar relacionadas con estados específicos de conciencia: firmas, si se quiere, de vigilia.
Al replicar dicha actividad en una máquina, quizás podríamos permitirle experimentar el pensamiento consciente, sugiere Camilo Miguel Signorelli , asistente de investigación en ciencias de la computación en la Universidad de Oxford.
Él menciona el cerebro líquido “wetware” del robot en Ex Machina , un contenedor de actividad neuronal a base de gel. “Tenía que alejarme de los circuitos, necesitaba algo que pudiera organizar y reorganizar a nivel molecular”, explica el personaje de Oscar Isaac, que ha creado un cyborg consciente.
“El riesgo de crear sufrimiento por error en una máquina consciente es algo que debemos evitar”.
“Ese sería un sistema ideal para un experimento”, dice Signorelli, ya que un cerebro fluido y altamente plástico podría estar configurado para experimentar oscilaciones neuronales que forman la conciencia, similares a las ondas de actividad que vemos en los cerebros humanos.
Esto, hay que decirlo, es muy especulativo. Y, sin embargo, plantea la cuestión de si podría ser necesario un hardware completamente diferente para que la conciencia (como la experimentamos) surja en una máquina. Incluso si algún día confirmamos con éxito la presencia de conciencia en una computadora, Signorelli dice que probablemente no tendremos ningún poder real sobre ella.
“Probablemente obtendremos otra conciencia animal, similar a la humana, pero no podemos controlar esta conciencia”, dice.
Como algunos han argumentado , eso podría hacer que una IA sea peligrosa e impredecible. Pero una máquina consciente que demuestra ser inofensiva aún podría plantear dilemas éticos. ¿Qué pasa si siente dolor, desesperación o un terrible estado de confusión?
“El riesgo de crear sufrimiento por error en una máquina consciente es algo que debemos evitar”, dice Andrea Luppi , estudiante de doctorado en la Universidad de Cambridge que estudia la actividad y la conciencia del cerebro humano.
Puede que pase mucho tiempo antes de que realmente tengamos que lidiar con este tipo de problema. Pero la investigación de la IA se basa cada vez más en la neurociencia y las ideas sobre la conciencia en la búsqueda de sistemas más poderosos. Eso está sucediendo ahora. El tipo de agente que esto nos ayudará a crear en el futuro es, como el surgimiento de la conciencia misma, tentadoramente difícil de predecir.
Fuente: https://onezero.medium.com/how-to-give-a-i-a-pinch-of-consciousness-c70707d62b88
Hay tres tipos de conciencia, y las máquinas ya controlan una
¿Pueden las máquinas tener conciencia? Un estudio explora el siguiente paso en la inteligencia artificial.
por Sarah Romero
La conciencia es un concepto complicado de definir, pero un equipo internacional de neurocientíficos ha hecho un intento sólido de conseguir precisamente eso, definir qué es exactamente la conciencia y determinar si estamos cerca del Santo Grial de la Inteligencia Artificial: una IA con conciencia propia.
La respuesta corta a este -nada nuevo- planteamiento es… no. Pero, antes de lamentarnos, los expertos sí explican cómo podríamos construir mentes plenamente conscientes.
Tenemos dos modos de plantear la conciencia, de una forma sencilla y de una complicada. La forma sencilla es difícil, así que la compleja, imagina cómo debe ser (teniendo que definir características tan importantes como el libre albedrío). Pese a ello, podríamos decir que la conciencia son los pensamientos y sensaciones que todos experimentamos individualmente.
Asumiendo que la conciencia en sí misma se basa en las leyes físicas descritas en física y química, deberíamos poder encontrar una manera de cincelarla o componerla. Este era uno de los sueños del científico Alan Turing -que quería lograr una máquina que imitara el cerebro humano-, que hoy estaría impresionado del nivel de inteligencia artificial que ha demostrado AlphaGo Zero de Google, por ejemplo.
Por extraordinarias que sean estas IAs, pues pueden resolver problemas a velocidades insólitas, sin embargo, aún no saben que pueden resolver problemas. ¿Cómo hacer que ‘despierten’?
Tres tipos de conciencia
Los científicos que han publicado su estudio en la revista Science dividieron la conciencia en tres categorías: llamaron a la categoría más baja C0, equiparándolo con la resolución de problemas que nuestros cerebros hacen sin nuestra conciencia, como ir conduciendo del trabajo a casa casi sin darte cuenta. En el caso de los ordenadores, el ejemplo sería el vehículo sin conductor, una conciencia que, por tanto, ya dominan.
La siguiente categoría es la C1. “Se refiere a la relación entre un sistema cognitivo y un objeto específico de pensamiento, como una representación mental de “la luz del tanque de combustible “, escriben los investigadores. En C1, ese objeto de pensamiento se selecciona para el procesamiento global, moviéndolo de una relación estrecha a una que se pueda manipular en varios contextos.
La última categoría es C2, que actúa como un supervisor que observa consciente las tareas que tiene entre manos. Engloba lo que llamamos ‘metacognición’: una sensación de saber lo que sabemos. También es conocida como ‘teoría de la mente‘.
La conciencia C1 puede tener lugar sin C2, y viceversa pero, según los expertos, ninguno de los sistemas tiene un equivalente en inteligencia artificial. Aún no al menos.
Los investigadores especulan que C1 evolucionó como una forma de romper la modularidad de los procesos de inconsciencia.
Los recientes avances en microchips que pueden almacenar y procesar información como si de neuronas se tratara, podrían desempeñar un papel clave en la revolución de la tecnología modular existente.
Para ponerlo a funcionar, necesitaríamos aprender más sobre cómo nuestros propios cerebros crean su propio espacio de trabajo global, una arquitectura que da lugar a lo que consideramos nuestra conciencia.
Para desarrollar esta tecnología C2, los investigadores sugieren varios procesos, como algunos que aplican la probabilidad para la toma de decisiones, y otros que tienen algún tipo de meta-memoria para establecer una línea entre lo que se conoce y lo que no. Así podríamos construir en el futuro, máquinas conscientes basadas en nuestro propio ‘hardware’ mental.
Referencia: What is consciousness, and could machines have it? Stanislas Dehaene, Hakwan Lau, Sid Kouider. Science (2017) DOI: 10.1126/science.aan8871