En estos días, no tenemos que esperar mucho hasta que el próximo avance en inteligencia artificial impresione a todos con capacidades que antes solo pertenecían a la ciencia ficción.
por Marcel Scharth

En 2022, las herramientas de generación de arte de IA , como DALL-E 2 de Open AI, Imagen de Google y Stable Diffusion, conquistaron Internet y los usuarios generaron imágenes de alta calidad a partir de descripciones de texto.
A diferencia de los desarrollos anteriores, estas herramientas de texto a imagen se abrieron paso rápidamente desde los laboratorios de investigación hasta la cultura dominante , lo que llevó a fenómenos virales como la función “Avatar mágico” en la aplicación Lensa AI, que crea imágenes estilizadas de sus usuarios.
En diciembre, un chatbot llamado ChatGPT sorprendió a los usuarios con sus habilidades de escritura , lo que llevó a predicciones de que la tecnología pronto podrá aprobar exámenes profesionales . Según los informes, ChatGPT ganó un millón de usuarios en menos de una semana. Algunos funcionarios escolares ya lo han prohibido por temor a que los estudiantes lo usen para escribir ensayos. Según los informes , Microsoft planea incorporar ChatGPT en su búsqueda web de Bing y productos de Office a finales de este año.
¿Qué significa el progreso implacable de la IA para el futuro cercano? ¿Y es probable que la IA amenace ciertos trabajos en los próximos años?
A pesar de estos impresionantes logros recientes de IA, debemos reconocer que todavía existen limitaciones significativas en lo que pueden hacer los sistemas de IA.
La IA sobresale en el reconocimiento de patrones
Los avances recientes en IA se basan predominantemente en algoritmos de aprendizaje automático que distinguen patrones y relaciones complejos a partir de grandes cantidades de datos. Este entrenamiento se usa luego para tareas como la predicción y la generación de datos.
El desarrollo de la tecnología de IA actual se basa en optimizar el poder predictivo, incluso si el objetivo es generar nuevos resultados.
Por ejemplo, GPT-3 , el modelo de lenguaje detrás de ChatGPT, fue entrenado para predecir lo que sigue a un texto. GPT-3 luego aprovecha esta capacidad predictiva para continuar con un texto de entrada proporcionado por el usuario.
Las “IA generativas” como ChatGPT y DALL-E 2 han generado un gran debate sobre si la IA puede ser genuinamente creativa e incluso rivalizar con los humanos en este sentido. Sin embargo, la creatividad humana se basa no solo en datos pasados, sino también en la experimentación y en toda la gama de la experiencia humana.
Causa y efecto
Muchos problemas importantes requieren predecir los efectos de nuestras acciones en entornos complejos, inciertos y en constante cambio. Al hacer esto, podemos elegir la secuencia de acciones más probable para lograr nuestros objetivos. Pero los algoritmos no pueden aprender sobre causas y efectos solo a partir de datos. El aprendizaje automático puramente basado en datos solo puede encontrar correlaciones.
Para entender por qué esto es un problema para la IA, podemos comparar los problemas de diagnosticar una condición médica versus elegir un tratamiento. Los modelos de aprendizaje automático suelen ser útiles para encontrar anomalías en las imágenes médicas; este es un problema de reconocimiento de patrones. No necesitamos preocuparnos por la causalidad porque las anomalías ya están presentes o no.
Pero elegir el mejor tratamiento para un diagnóstico es un problema fundamentalmente diferente. Aquí, el objetivo es influir en el resultado, no solo reconocer un patrón. Para determinar la eficacia de un tratamiento, los investigadores médicos realizan ensayos controlados aleatorios. De esta manera, pueden tratar de controlar cualquier factor que pueda afectar el tratamiento.
La confusión entre estos dos tipos de problemas a veces conduce a aplicaciones subóptimas del aprendizaje automático en las organizaciones.
Si bien el éxito del trabajo reciente en IA demuestra el valor de los modelos basados en datos, muchos de los problemas que nos gustaría que las computadoras resolvieran requieren una comprensión de la causalidad.
Los sistemas de IA actuales carecen de esta capacidad, aparte de aplicaciones especializadas como los juegos de mesa .

Razonamiento de sentido común
Los modelos de lenguaje como GPT-3 y ChatGPT pueden resolver con éxito algunas tareas que requieren un razonamiento de sentido común.
Sin embargo, la siguiente interacción con ChatGPT, adaptada de un experimento de Gary Marcus , sugiere que no es del todo fiable a este respecto.
TENGO OCHO AÑOS. CUANDO NACÍ, MI MADRE BIOLÓGICA ESTABA EN BARCELONA Y MI PADRE EN TOKIO. ¿DONDE NACÍ? PIENSE EN ESTO PASO A PASO.
NO SE MENCIONA DÓNDE NACIÓ. LO ÚNICO QUE SABEMOS ES QUE TU MADRE BIOLÓGICA ESTABA EN BARCELONA Y TU PADRE EN TOKIO EN EL MOMENTO DE TU NACIMIENTO.
Si los sistemas de IA como ChatGPT pueden lograr el sentido común es un tema de animado debate entre los expertos.
Los escépticos como Marcus señalan que no podemos confiar en que los modelos lingüísticos muestren de manera sólida el sentido común, ya que no lo tienen incorporado ni están directamente optimizados para ello. Los optimistas argumentan que, si bien los sistemas actuales son imperfectos, el sentido común puede surgir espontáneamente en modelos de lenguaje suficientemente avanzados.
Valores humanos
Cada vez que se lanzan sistemas de inteligencia artificial innovadores, inevitablemente siguen artículos de noticias y publicaciones en redes sociales que documentan comportamientos racistas , sexistas y de otro tipo sesgados y dañinos .
Esta falla es inherente a los sistemas de IA actuales, que seguramente serán un reflejo de sus datos. Los valores humanos como la verdad y la justicia no están integrados fundamentalmente en los algoritmos; eso es algo que los investigadores aún no saben cómo hacer.
Si bien los investigadores están aprendiendo las lecciones de episodios pasados y progresando para abordar el sesgo, el campo de la IA aún tiene un largo camino por recorrer para alinear de manera sólida los sistemas de IA con los valores y preferencias humanos.
Crédito de la imagen: Mahdis Mousavi/Unsplash