Los niños son científicos naturales. Observan el mundo, formulan hipótesis y las prueban. Con el tiempo, aprenden a explicar su razonamiento (a veces entrañablemente divertido).

por Shelly Fan

Explicar el razonamiento

IA, no tanto. No hay duda de que el aprendizaje profundo (un tipo de aprendizaje automático basado libremente en el cerebro) está cambiando drásticamente la tecnología. Desde la predicción de patrones climáticos extremos hasta el diseño de nuevos medicamentos o el diagnóstico de cánceres mortales, la IA se integra cada vez más en las fronteras de la ciencia .

Pero el aprendizaje profundo tiene un gran inconveniente: los algoritmos no pueden justificar sus respuestas. Esta opacidad, a menudo denominada el problema de la “caja negra”, obstaculiza su uso en situaciones de alto riesgo, como en la medicina. Los pacientes quieren una explicación cuando se les diagnostica una enfermedad que les cambia la vida. Por ahora, los algoritmos basados ​​en aprendizaje profundo, incluso si tienen una alta precisión diagnóstica, no pueden proporcionar esa información.

Para abrir la caja negra, un equipo del Centro Médico Southwestern de la Universidad de Texas recurrió a la mente humana en busca de inspiración. En un estudio publicado en Nature Computational Science , combinaron principios del estudio de las redes cerebrales con un enfoque de IA más tradicional que se basa en bloques de construcción explicables.

La IA resultante actúa un poco como un niño. Condensa diferentes tipos de información en “centros”. Luego, cada centro se transcribe en pautas de codificación para que las lean los humanos: CliffsNotes para programadores que explican las conclusiones del algoritmo sobre los patrones que encontró en los datos en un lenguaje sencillo. También puede generar código de programación totalmente ejecutable para probar.

Apodada “destilación profunda”, la IA funciona como un científico cuando se le desafía con una variedad de tareas, como problemas matemáticos difíciles y reconocimiento de imágenes. Al hurgar en los datos, la IA los destila en algoritmos paso a paso que pueden superar a los diseñados por humanos.

“La destilación profunda puede descubrir principios generalizables complementarios a la experiencia humana”, escribió el equipo en su artículo.

Fino como el papel

La IA a veces comete errores en el mundo real. Tomemos como ejemplo los robotaxis. El año pasado, algunos se quedaron atrapados repetidamente en un vecindario de San Francisco, una molestia para los lugareños, pero aun así se rieron entre dientes. Lo que es más grave, los vehículos autónomos bloquearon el tráfico y las ambulancias y, en un caso, hirieron gravemente a un peatón.

En la atención sanitaria y la investigación científica, los peligros también pueden ser elevados.

Cuando se trata de estos dominios de alto riesgo, los algoritmos “requieren una baja tolerancia al error”, escribió el Dr. Joseph Bakarji de la Universidad Americana de Beirut, que no participó en el estudio, en un artículo complementario sobre el trabajo.

La barrera para la mayoría de los algoritmos de aprendizaje profundo es su inexplicabilidad. Están estructurados como redes de múltiples capas. Al absorber toneladas de información sin procesar y recibir innumerables rondas de retroalimentación, la red ajusta sus conexiones para eventualmente producir respuestas precisas.

Este proceso está en el corazón del aprendizaje profundo. Pero tiene problemas cuando no hay suficientes datos o si la tarea es demasiado compleja.

En 2021, el equipo desarrolló una IA que adoptó un enfoque diferente. La red neuronal, denominada razonamiento “simbólico”, codifica reglas y experiencias explícitas mediante la observación de los datos.

En comparación con el aprendizaje profundo, los modelos simbólicos son más fáciles de interpretar para las personas. Piense en la IA como un conjunto de bloques de Lego, cada uno de los cuales representa un objeto o concepto. Pueden encajar de forma creativa, pero las conexiones siguen un conjunto claro de reglas.

Por sí sola, la IA es poderosa pero frágil. Se basa en gran medida en conocimientos previos para encontrar componentes básicos. Cuando se le desafía a una nueva situación sin experiencia previa, no puede pensar fuera de lo común y se rompe.

Aquí es donde entra en juego la neurociencia. El equipo se inspiró en los conectomas, que son modelos de cómo funcionan juntas las diferentes regiones del cerebro. Al combinar esta conectividad con el razonamiento simbólico, crearon una IA que tiene bases sólidas y explicables, pero que también puede adaptarse con flexibilidad cuando se enfrenta a nuevos problemas.

En varias pruebas, el modelo “neurocognitivo” superó a otras redes neuronales profundas en tareas que requerían razonamiento.

Pero, ¿pueden darle sentido a los datos y diseñar algoritmos para explicarlo?

Un toque humano

Una de las partes más difíciles del descubrimiento científico es observar datos ruidosos y llegar a una conclusión. Este proceso es lo que conduce a nuevos materiales y medicamentos, una comprensión más profunda de la biología y conocimientos sobre nuestro mundo físico. A menudo, es un proceso repetitivo que lleva años.

La IA puede acelerar las cosas y potencialmente encontrar patrones que han escapado a la mente humana. Por ejemplo, el aprendizaje profundo ha sido especialmente útil en la predicción de estructuras de proteínas, pero su razonamiento para predecir esas estructuras es difícil de entender.

“¿Podemos diseñar algoritmos de aprendizaje que reduzcan las observaciones en reglas simples y completas como suelen hacer los humanos?” escribió Bakarji.

El nuevo estudio tomó el modelo neurocognitivo existente del equipo y le dio un talento adicional: la capacidad de escribir código.

La IA, llamada destilación profunda, agrupa conceptos similares, y cada neurona artificial codifica un concepto específico y su conexión con otros. Por ejemplo, una neurona podría aprender el concepto de gato y saber que es diferente a un perro. Otro tipo maneja la variabilidad cuando se le presenta una nueva imagen (por ejemplo, un tigre) para determinar si se parece más a un gato o a un perro.

Luego, estas neuronas artificiales se apilan en una jerarquía. Con cada capa, el sistema diferencia cada vez más conceptos y finalmente encuentra una solución.

En lugar de que la IA procese la mayor cantidad de datos posible, el entrenamiento se realiza paso a paso, casi como enseñarle a un niño pequeño. Esto permite evaluar el razonamiento de la IA a medida que resuelve gradualmente nuevos problemas.

En comparación con el entrenamiento estándar de redes neuronales, el aspecto autoexplicativo está integrado en la IA, explicó Bakarji.

En una prueba, el equipo desafió a la IA con un videojuego clásico: Conway’s Game of Life. Desarrollado por primera vez en la década de 1970, el juego consiste en hacer crecer una célula digital en varios patrones según un conjunto específico de reglas (pruébelo usted mismo aquí ). Entrenada con datos de juegos simulados, la IA pudo predecir resultados potenciales y transformar su razonamiento en pautas legibles por humanos o en códigos de programación de computadoras.

La IA también funcionó bien en una variedad de otras tareas, como detectar líneas en imágenes y resolver problemas matemáticos difíciles. En algunos casos, generó código informático creativo que superó a los métodos establecidos y pudo explicar por qué.

La destilación profunda podría ser un impulso para las ciencias físicas y biológicas, donde partes simples dan lugar a sistemas extremadamente complejos. Una posible aplicación del método es como cocientífico para investigadores que decodifican funciones del ADN. Gran parte de nuestro ADN es “materia oscura”, en el sentido de que no sabemos qué papel desempeña (si es que tiene alguno). Una IA explicable podría potencialmente analizar secuencias genéticas y ayudar a los genetistas a identificar mutaciones raras que causan enfermedades hereditarias devastadoras.

Fuera de la investigación, el equipo está entusiasmado con la perspectiva de una colaboración más sólida entre la IA y los humanos.

” Los enfoques neurosimbólicos podrían permitir capacidades de aprendizaje automático más parecidas a las humanas”, escribió el equipo.

Bakarji está de acuerdo. El nuevo estudio va “más allá de los avances técnicos y aborda los desafíos éticos y sociales que enfrentamos hoy”. La explicabilidad podría funcionar como barrera, ayudando a que los sistemas de IA se sincronicen con los valores humanos a medida que se entrenan. Para aplicaciones de alto riesgo, como la atención médica, podría generar confianza.

Por ahora, el algoritmo funciona mejor cuando resuelve problemas que se pueden dividir en conceptos. No puede manejar datos continuos, como transmisiones de video.

Ese es el siguiente paso en la destilación profunda, escribió Bakarji. “Abriría nuevas posibilidades en la informática científica y la investigación teórica”.

Crédito de la imagen:  7AV 7AV / Unsplash 

Fuente: https://singularityhub.com/2024/02/22/like-a-child-this-brain-inspired-ai-can-explain-its-reasoning/

Deja una respuesta