por Shelly Fan
Incluso cuando somos pequeños, somos buenos para hacer inferencias. Tomemos a un niño de dos años que primero aprende a reconocer un perro y un gato en casa, luego un caballo y una oveja en un zoológico de mascotas. El niño también podrá distinguir entre un perro y una oveja, incluso si aún no puede articular sus diferencias.
Esta capacidad es tan natural para nosotros que oculta la complejidad de los procesos de procesamiento de datos del cerebro que se encuentran debajo del capó. Para dar el salto lógico, el niño primero necesita recordar las distinciones entre las mascotas de su familia. Cuando se enfrenta a nuevas categorías, animales de granja, sus circuitos neuronales recurren a esos recuerdos pasados e incorporan sin problemas esos recuerdos con nuevos aprendizajes para actualizar su modelo mental del mundo.
No es tan simple, ¿eh?
Quizás no sea sorprendente que incluso los algoritmos de aprendizaje automático de última generación luchen con este tipo de aprendizaje continuo. Parte de la razón es cómo se configuran y entrenan estos algoritmos. Una red neuronal artificial aprende ajustando los pesos sinápticos (la fuerza con la que una neurona artificial se conecta con otra), lo que a su vez conduce a una especie de “memoria” de sus aprendizajes que está incrustada en los pesos. Debido a que el reentrenamiento de la red neuronal en otra tarea interrumpe esos pesos, la IA se ve esencialmente obligada a “olvidar” sus conocimientos previos como requisito previo para aprender algo nuevo. Imagínese pegar un puente hecho con palillos de dientes, solo tener que romper el pegamento para construir un rascacielos con el mismo material. El hardware es el mismo, pero la memoria del puente ahora se pierde.
Este talón de Aquiles es tan perjudicial que se lo denomina “olvido catastrófico”. Un algoritmo que no es capaz de retener sus recuerdos anteriores está gravemente afectado en su capacidad para inferir o generalizar. Difícilmente es lo que consideramos inteligente.
Pero aquí está la cuestión: si el cerebro humano puede hacerlo, la naturaleza ya ha descubierto una solución. ¿Por qué no probarlo con IA ?
Un estudio reciente realizado por investigadores de la Universidad de Massachusetts Amherst y el Baylor College of Medicine hizo precisamente eso. Inspirándose en la mecánica de la memoria humana, el equipo aceleró su algoritmo con una poderosa capacidad llamada “reproducción de la memoria”, una especie de “ensayo” de experiencias en el cerebro que consolida los nuevos aprendizajes en recuerdos de larga duración.
Lo que sorprendió a los autores no fue que agregar repetición a un algoritmo aumentó su capacidad para retener sus entrenamientos anteriores. Más bien, era que la reproducción no requería que los recuerdos exactos fueran almacenados y revisados. Una versión bastarda de la memoria, generada por la propia red basada en experiencias pasadas, fue suficiente para darle al algoritmo un gran impulso de memoria.
Jugando con Replay
En la década de 1990, mientras escuchaban el parloteo eléctrico del cerebro en ratones dormidos, los investigadores de la memoria tropezaron con un hallazgo desconcertante. La región del cerebro llamada hipocampo, que es fundamental para la navegación espacial y la memoria, provocó ondas eléctricas durante el sueño. Las ondas no fueron aleatorias, sino que recapitularon en el tiempo y el espacio la misma actividad neuronal que el equipo observó anteriormente, mientras los ratones aprendían a navegar por un nuevo laberinto.
De alguna manera, el cerebro estaba revisando el patrón eléctrico que codifica las nuevas experiencias de los ratones durante el sueño, pero comprimido y distorsionado, como si estuviera rebobinando y reproduciendo una cinta gastada en avance rápido.
Posteriormente, los científicos descubrieron que la reproducción de la memoria es fundamental para fortalecer la memoria en ratones y hombres. En cierto modo, la reproducción nos proporciona pruebas de aprendizaje simulado adicionales para practicar nuestros aprendizajes y estabilizarlos en una biblioteca de recuerdos a partir de los cuales se pueden construir nuevas experiencias en lugar de destruirlas.
Quizás no sea sorprendente que las redes neuronales profundas equipadas con repetición estabilicen sus recuerdos, con la salvedad de que el algoritmo necesita “recordar” perfectamente todos los recuerdos anteriores como entrada para la repetición. El problema con este enfoque, dijo el equipo, es que no es escalable. La necesidad de acceder a experiencias previas dispara rápidamente la demanda de almacenamiento de datos a una cantidad insostenible.
Pero, ¿qué pasa si, al igual que el cerebro, en realidad no necesitamos un recuerdo perfecto y total de los recuerdos durante la reproducción?
Remix de memoria
La iluminación llegó cuando hurgaba en las malas hierbas de la repetición: en lugar de reproducir una cinta de video de recuerdos perfectamente precisa, tal vez el cerebro esté “reinventando” o generando sus experiencias pasadas para reproducirlas. Aquí, la reproducción no se basa en recuerdos almacenados fielmente. En cambio, es más similar a nuestra experiencia real de la memoria: algo reconstruido a partir de la realidad, pero contaminado por nuestra historia y visiones del mundo anteriores.
Para probar su idea, el equipo codificó un algoritmo que refleja una “repetición inspirada en el cerebro”. No almacena el aprendizaje per se para usarlo en la reproducción. En cambio, utiliza datos de experiencias aprendidas para reconstruir automáticamente los recuerdos para reproducirlos.
Como analogía con el cerebro, digamos que está aprendiendo una tarea visual, como reconocer diferentes animales. Su procesador principal es la corteza, que comienza a analizar patrones que corresponden a un perro, un gato o una oveja. En los algoritmos de “reproducción” anteriores, estos datos se transfieren al hipocampo, que almacena la memoria y la usa para la reproducción. La actividad eléctrica del hipocampo recorre la corteza, fortaleciendo lo que acaba de aprender.
La nueva configuración fusiona los dos componentes, la corteza artificial y el hipocampo, de una manera más factible desde el punto de vista biológico. Aquí, el hipocampo utiliza datos de la corteza, el procesador, para básicamente “soñar” o “imaginar” sus patrones de reproducción. Estos patrones carecen de fidelidad píxel a píxel, similar a cómo nuestra memoria no es de naturaleza fotográfica. Sin embargo, los patrones capturan algo más abstracto sobre la memoria, lo que hace que una oveja sea una oveja versus un perro, incluso cuando los dos animales se aprenden en sesiones separadas.
Cuando se enfrentó a otros algoritmos de aprendizaje profundo para el aprendizaje continuo, el novato derrotó a sus competidores en la prevención del olvido catastrófico. En un desafío de memoria visual que requirió 100 tareas, el algoritmo pudo mantener sus recuerdos anteriores mientras descifraba nuevas imágenes. Sorprendentemente, cuanto más difícil y más “real” es el problema, mejor es el algoritmo que supera a sus pares.
“Si nuestra red con reproducción generativa primero aprende a separar a los gatos de los perros, y luego a separar a los osos de los zorros, también distinguirá a los gatos de los zorros sin estar específicamente entrenado para hacerlo. Y, en particular, cuanto más aprende el sistema, mejor se vuelve para aprender nuevas tareas ”, dijo el autor del estudio, el Dr. Gido van de Ven.
Encuentro de mentes
Estos resultados no son los primeros en aprovechar la capacidad de memoria del cerebro.
Anteriormente, los investigadores de IA también se habían sintonizado con un proceso de memoria separado llamado metaplasticidad, que altera la probabilidad de que una red neuronal sea vulnerable al cambio. Debido a que los recuerdos se almacenan en una red neuronal, cuanto más flexible es, es más probable que el recuerdo se altere u olvide. Google DeepMind, por ejemplo , ha utilizado una versión artificial de esta peculiaridad del cerebro para ayudar a “proteger” las sinapsis artificiales que son clave para preservar una memoria anterior mientras codifica la siguiente.
Eso no quiere decir que un enfoque supere a otro. Lo que es probable, dijeron los autores, es que estas estrategias vayan de la mano para proteger los recuerdos del cerebro. Un algoritmo que incorpore ambos puede ser incluso más flexible y resistente al olvido catastrófico, en lugar de funcionar como un niño pequeño que intenta desenredar un mundo complejo, un recuerdo a la vez.
Claramente, el cerebro tiene mucha más inspiración para la IA en la manga. Aunque el nuevo algoritmo está más cerca de la plausibilidad biológica, todavía no puede capturar un componente fundamental de nuestros propios recuerdos, la experiencia del tiempo, en su mecanismo de reproducción. Por otro lado, el aprendizaje automático también tiene más que devolver a la neurociencia. Los resultados aquí podrían ayudar a desentrañar los procesos neuronales detrás de la reproducción que explican por qué algunos de nuestros recuerdos se degradan, mientras que otros duran toda la vida.
“Nuestro método hace varias predicciones interesantes sobre la forma en que la reproducción podría contribuir a la consolidación de la memoria en el cerebro. Ya estamos realizando un experimento para probar algunas de estas predicciones ”, dijo van de Ven.
Crédito de la imagen: Karolina Grabowska de Pixabay