2021 podría ser un año excepcional para la IA

por Shelly Fan

Si la IA tiene algo que decir al 2020, es “no puedes tocar esto”.

2021 podría ser un año excepcional para la IA
2021 podría ser un año excepcional para la IA

El año pasado pudo haber cortado nuestras conexiones con el mundo físico, pero en el ámbito digital, la IA prosperó. Tomemos como ejemplo a NeurIps , la joya de la corona de las conferencias de IA. Aunque carecía del telón de fondo habitual de las deslumbrantes montañas de la Columbia Británica o las playas de Barcelona, ​​la extravagancia anual de la IA destacó una serie de problemas de “panorama general” (sesgo, solidez, generalización) que abarcarán el campo durante los próximos años.

En el lado más nerd, los científicos exploraron más a fondo la intersección entre la IA y nuestros propios cuerpos. Los conceptos básicos en el aprendizaje profundo, como la retropropagación, se consideraron un medio plausible por el cual nuestros cerebros “asignan fallas” en las redes biológicas, lo que permite que el cerebro aprenda. Otros argumentaron que es hora de duplicar la inteligencia del equipo, combinando el método reinante del “niño dorado” de la IA (aprendizaje profundo) con otros métodos, como los que guían la búsqueda eficiente.

Aquí hay cuatro áreas en las que mantendremos nuestros ojos en 2021. Abordan problemas de inteligencia artificial sobresalientes, como reducir el consumo de energía, eliminar la necesidad de ejemplos de aprendizaje exuberantes y enseñar a la inteligencia artificial algo de sentido común.

Codicia: Aprendizaje menor al de una sola vez

Has escuchado esto mil millones de veces: el aprendizaje profundo es extremadamente codicioso, ya que los algoritmos necesitan miles (si no más) ejemplos para mostrar signos básicos de aprendizaje, como identificar un perro o un gato, o hacer recomendaciones de Netflix o Amazon.

Es extremadamente lento, derrochador de energía y un rasguño de cabeza en el sentido de que no coincide con nuestra experiencia humana de aprendizaje. Los niños pequeños necesitan ver solo algunos ejemplos de algo antes de recordarlo de por vida. Tomemos el concepto de “perro”: independientemente de la raza, un niño que ha visto algunos perros puede reconocer una gran cantidad de razas diferentes sin haberlas visto nunca. Ahora toma algo completamente extraño: un unicornio. Un niño que entiende el concepto de un caballo y un narval puede inferir cómo se ve un unicornio combinando los dos.

En el lenguaje de la IA, esto es un aprendizaje de ” menos de una sola vez “, una especie de habilidad similar a un santo grial que permite a un algoritmo aprender más objetos que la cantidad de ejemplos en los que fue entrenado. Si se da cuenta, las implicaciones serían enormes. Los algoritmos voluminosos actualmente podrían funcionar sin problemas en dispositivos móviles con capacidades de procesamiento más bajas. Cualquier tipo de “inferencia”, incluso si no viene con una verdadera comprensión, podría hacer que los autos autónomos sean mucho más eficientes para navegar en nuestro mundo lleno de objetos.

El año pasado, un equipo de Canadá sugirió que el objetivo no es una quimera. Basándose en el trabajo del MIT analizando dígitos escritos a mano, un “problema de juguete” común en la visión por computadora, destilaron 60.000 imágenes en 5 utilizando un concepto llamado “etiquetas suaves”. En lugar de especificar cómo debería verse cada número, etiquetaron cada dígito, digamos, un “3”, como un porcentaje de “3”, “8” o “0”. Sorprendentemente, el equipo descubrió que con etiquetas cuidadosamente construidas, solo dos ejemplos podrían, en teoría, codificar miles de objetos diferentes. Karen Hao de MIT Technology Review entra en más detalles aquí .

Fragilidad: un método para mantener la IA a prueba de piratas informáticos

Por todo lo que la IA puede hacer, tiene fallas en la defensa de ataques insidiosos dirigidos a sus datos de entrada. Las perturbaciones leves o aparentemente aleatorias en un conjunto de datos, a menudo indetectables por el ojo humano, pueden alterar enormemente el resultado final, algo que se denomina “frágil” para un algoritmo. ¿Demasiado abstracto? Una IA entrenada para reconocer el cáncer a partir de una serie de escaneos médicos, anotados en un marcador amarillo por un médico humano, podría aprender a asociar “amarillo” con “cáncer”. Un ejemplo más malicioso es la manipulación nefasta. Las pegatinas colocadas en una carretera pueden engañar al sistema de piloto automático de Tesla para que confunda carriles y se desvíe hacia el tráfico que se aproxima.

La fragilidad requiere que la IA aprenda un cierto nivel de flexibilidad, pero el sabotaje, o “ataques adversarios”, se está convirtiendo en un problema cada vez más reconocido. Aquí, los piratas informáticos pueden cambiar el proceso de toma de decisiones de la IA con entradas cuidadosamente diseñadas. Cuando se trata de seguridad de red, diagnósticos médicos u otros usos de alto riesgo, la construcción de sistemas de defensa contra estos ataques es fundamental.

Este año, un equipo de la Universidad de Illinois propuso una forma poderosa de hacer que los sistemas de aprendizaje profundo sean más resistentes. Utilizaron un enfoque iterativo, teniendo dos redes neuronales luchando, una para el reconocimiento de imágenes y la otra para generar ataques adversarios. Como un juego del gato y el ratón, la red neuronal “enemiga” intenta engañar a la red de visión por computadora para que reconozca cosas que son ficticias; la última red se defiende. Aunque está lejos de ser perfecto, el estudio destaca un enfoque cada vez más popular para hacer que la IA sea más resistente y confiable.

Síndrome de AI Savant: aprendizaje del sentido común

Uno de los algoritmos más impresionantes de este año es GPT-3 , una maravilla de OpenAI que escupe un lenguaje inquietantemente similar al humano. Apodado como ” uno de los sistemas de IA más interesantes e importantes jamás producidos “, GPT-3 es la tercera generación de un algoritmo que produce una escritura tan “natural” que de un vistazo es difícil descifrar una máquina de un humano.

Sin embargo, el dominio del idioma de GPT-3 es, tras una inspección más profunda, solo un delgado velo de “inteligencia”. Debido a que está entrenado en el lenguaje humano, también está encerrado en las complejidades y limitaciones de nuestras frases cotidianas, sin comprender lo que significan en el mundo real. Es parecido a aprender jerga de Urban Dictionary en lugar de vivirla. Una IA puede aprender a asociar “lluvia” con “gatos y perros” en todas las situaciones, obteniendo su inferencia del vernáculo común que describe lluvias masivas.

Una forma de hacer que GPT-3 o cualquier IA que produzca lenguaje natural sea más inteligente es combinarlo con la visión por computadora. Enseñar modelos de lenguaje para “ver” es un área cada vez más popular en la investigación de IA. La técnica combina la fuerza del lenguaje con las imágenes. Los modelos de lenguaje de IA, incluido GPT-3, aprenden a través de un proceso llamado “entrenamiento sin supervisión”, lo que significa que pueden analizar patrones en datos sin etiquetas explícitas. En otras palabras, no necesitan que un humano les diga las reglas gramaticales o cómo se relacionan las palabras entre sí, lo que hace que sea más fácil escalar cualquier aprendizaje bombardeando la IA con toneladas de texto de ejemplo. Los modelos de imagen, por otro lado, reflejan mejor nuestra realidad actual. Sin embargo, estos requieren un etiquetado manual, lo que hace que el proceso sea más lento y tedioso.

La combinación de los dos produce lo mejor de ambos mundos. Un robot que puede “ver” el mundo captura una especie de fisicalidad, o sentido común, que falta al analizar el lenguaje únicamente. Un estudio en 2020 combinó inteligentemente ambos enfoques. Comenzaron con el lenguaje, utilizando un enfoque escalable para escribir leyendas para imágenes basadas en el funcionamiento interno de GPT-3 (detalles aquí ). La conclusión es que el equipo pudo conectar el mundo físico, representado a través de imágenes, al vincularlo con el lenguaje sobre cómo describimos el mundo.

¿Traducción? Una IA ciega, sorda y completamente en cuarentena aprende una especie de sentido común. Por ejemplo, “gatos y perros” puede significar simplemente mascotas, en lugar de lluvia.

El truco sigue siendo principalmente experimental, pero es un ejemplo de pensar fuera de los confines artificiales de un dominio de IA en particular. Al combinar las dos áreas, procesamiento del lenguaje natural y visión por computadora, funciona mejor. Imagina una Alexa con sentido común.

Fatiga del aprendizaje profundo

Hablando de pensar fuera de la caja, DeepMind se encuentra entre los que experimentan combinando diferentes enfoques de la IA en algo más poderoso. Tomemos a MuZero , un algoritmo rompedor de Atari que lanzaron justo antes de Navidad.

A diferencia del asistente de inteligencia artificial para matar ajedrez, póquer y Go original de DeepMind, MuZero tiene otro truco bajo la manga. No escucha a nadie, ya que la IA no comienza con un conocimiento previo del juego o de los procesos de toma de decisiones. Más bien, aprende sin un libro de reglas, en lugar de observar el entorno del juego, similar a un humano novato que observa un nuevo juego. De esta manera, después de millones de juegos, no solo aprende las reglas, sino también un concepto más general de políticas que podrían llevarlo a salir adelante y evaluar sus propios errores en retrospectiva.

Suena bastante humano, ¿eh? En la lengua vernácula de la IA, los ingenieros combinaron dos enfoques diferentes, árboles de decisión y un modelo aprendido, para hacer que una IA sea excelente para planificar movimientos ganadores. Por ahora, solo se ha demostrado que domina los juegos a un nivel similar al de AlphaGo. Pero no podemos esperar a ver a qué puede conducir este tipo de fertilización cruzada de ideas en IA en 2021.

Crédito de la imagen: Oleg Gamulinskiy de Pixabay

Fuente: https://singularityhub.com/2021/01/05/2021-could-be-a-banner-year-for-ai-if-we-solve-these-4-problems/

Deja un comentario