por Kyle Mahowald y Anna A. Ivanova

Cuando lees una oración como esta, tu experiencia pasada te dice que está escrita por un ser humano que piensa y siente. Y, en este caso, sí hay un humano escribiendo estas palabras: [¡Hola!]. Pero en estos días, algunas oraciones que parecen notablemente humanas en realidad son generadas por sistemas de inteligencia artificial entrenados en cantidades masivas de texto humano.

La gente está tan acostumbrada a suponer que el lenguaje fluido proviene de un pensamiento y sentimiento humano que la evidencia de lo contrario puede ser difícil de entender. ¿Cómo es probable que las personas naveguen por este territorio relativamente desconocido? Debido a una tendencia persistente a asociar la expresión fluida con el pensamiento fluido, es natural, pero potencialmente engañoso, pensar que si un modelo de IA puede expresarse con fluidez, eso significa que piensa y siente como los humanos.

Por lo tanto, quizás no sea sorprendente que un ex ingeniero de Google haya afirmado recientemente que el sistema de inteligencia artificial de Google, LaMDA, tiene un sentido de sí mismo porque puede generar texto de manera elocuente sobre sus supuestos sentimientos. Este evento y la subsiguiente cobertura de los medios dieron lugar a una serie de artículos y publicaciones correctamente escépticos sobre la afirmación de que los modelos computacionales del lenguaje humano son sensibles, lo que significa que son capaces de pensar, sentir y experimentar.

La cuestión de qué significaría que un modelo de IA sea sensible es complicada ( ver, por ejemplo, la opinión de nuestro colega ), y nuestro objetivo aquí no es resolverla. Pero como investigadores del lenguaje , podemos usar nuestro trabajo en ciencia cognitiva y lingüística para explicar por qué es demasiado fácil para los humanos caer en la trampa cognitiva de pensar que una entidad que puede usar el lenguaje con fluidez es sensible, consciente o inteligente.

Uso de IA para generar un lenguaje similar al humano

El texto generado por modelos como LaMDA de Google puede ser difícil de distinguir del texto escrito por humanos. Este impresionante logro es el resultado de un programa de décadas para construir modelos que generen lenguaje gramatical y significativo.

una captura de pantalla que muestra un cuadro de diálogo de texto
El primer sistema informático que involucró a las personas en un diálogo fue el software de psicoterapia llamado Eliza, construido hace más de medio siglo. Crédito de la imagen: Rosenfeld Media/Flickr , CC BY

Las primeras versiones que se remontan al menos a la década de 1950, conocidas como modelos de n-gramas, simplemente contaban las ocurrencias de frases específicas y las usaban para adivinar qué palabras era probable que ocurrieran en contextos particulares. Por ejemplo, es fácil saber que “mantequilla de maní y mermelada” es una frase más probable que “mantequilla de maní y piñas”. Si tiene suficiente texto en inglés, verá la frase “mantequilla de maní y mermelada” una y otra vez, pero es posible que nunca vea la frase “mantequilla de maní y piña”.

Los modelos, conjuntos de datos y reglas actuales que se aproximan al lenguaje humano difieren de estos primeros intentos en varios aspectos importantes. Primero, están capacitados en prácticamente todo el Internet. En segundo lugar, pueden aprender relaciones entre palabras que están muy alejadas, no solo palabras que son vecinas. En tercer lugar, están sintonizados por una gran cantidad de “perillas” internas, tantas que incluso para los ingenieros que las diseñan es difícil entender por qué generan una secuencia de palabras en lugar de otra.

La tarea de los modelos, sin embargo, sigue siendo la misma que en la década de 1950: determinar qué palabra es probable que venga a continuación. Hoy, son tan buenos en esta tarea que casi todas las oraciones que generan parecen fluidas y gramaticales.

¿Mantequilla de maní y piñas?

Le pedimos a un modelo de lenguaje grande, GPT-3 , que completara la oración “Mantequilla de maní y piñas___”. Decía: “La mantequilla de maní y las piñas son una gran combinación. Los sabores dulces y salados de la mantequilla de maní y la piña se complementan a la perfección”. Si una persona dijera esto, se podría inferir que probó la mantequilla de maní y la piña juntas, se formó una opinión y la compartió con el lector.

Pero, ¿cómo se le ocurrió a GPT-3 este párrafo? Al generar una palabra que se ajuste al contexto que proporcionamos. Y luego otro. Y luego otro. La modelo nunca vio, tocó ni probó piñas, solo procesó todos los textos en Internet que las mencionan. Y, sin embargo, leer este párrafo puede llevar a la mente humana, incluso a la de un ingeniero de Google, a imaginar a GPT-3 como un ser inteligente que puede razonar sobre platos de mantequilla de maní y piña.

El cerebro humano está programado para inferir intenciones detrás de las palabras. Cada vez que participa en una conversación, su mente construye automáticamente un modelo mental de su compañero de conversación. Luego usa las palabras que dicen para completar el modelo con las metas, sentimientos y creencias de esa persona.

El proceso de pasar de las palabras al modelo mental es continuo y se activa cada vez que recibe una oración completa. Este proceso cognitivo te ahorra mucho tiempo y esfuerzo en la vida cotidiana, facilitando enormemente tus interacciones sociales.

Sin embargo, en el caso de los sistemas de IA, falla, creando un modelo mental de la nada.

Un poco más de sondeo puede revelar la gravedad de este fallo de encendido. Considere el siguiente mensaje: “La mantequilla de maní y las plumas saben muy bien juntas porque___”. GPT-3 continuó: “La mantequilla de maní y las plumas saben muy bien juntas porque ambas tienen un sabor a nuez. La mantequilla de maní también es suave y cremosa, lo que ayuda a compensar la textura de la pluma”.

El texto en este caso es tan fluido como nuestro ejemplo con piñas, pero esta vez el modelo está diciendo algo decididamente menos sensato. Uno comienza a sospechar que GPT-3 nunca ha probado la mantequilla de maní y las plumas.

Atribuir inteligencia a las máquinas, negársela a los humanos

Una triste ironía es que el mismo sesgo cognitivo que hace que las personas atribuyan humanidad a GPT-3 puede hacer que traten a los humanos reales de manera inhumana. La lingüística sociocultural, el estudio del lenguaje en su contexto social y cultural, muestra que asumir un vínculo demasiado estrecho entre la expresión fluida y el pensamiento fluido puede generar prejuicios contra las personas que hablan de manera diferente.

Por ejemplo, las personas con acento extranjero a menudo se perciben como menos inteligentes y tienen menos probabilidades de obtener los trabajos para los que están calificados. Existen prejuicios similares contra los hablantes de dialectos que no se consideran prestigiosos, como el inglés del sur en los EE. UU., contra las personas sordas que usan lenguajes de señas y contra las personas con impedimentos del habla , como la tartamudez .

Estos sesgos son profundamente dañinos, a menudo conducen a suposiciones racistas y sexistas, y se ha demostrado una y otra vez que son infundados.

El lenguaje fluido por sí solo no implica humanidad

¿Alguna vez la IA se volverá consciente? Esta pregunta requiere una profunda consideración y, de hecho, los filósofos la han ponderado durante décadas . Sin embargo, lo que los investigadores han determinado es que no puedes simplemente confiar en un modelo de lenguaje cuando te dice cómo se siente. Las palabras pueden ser engañosas, y es demasiado fácil confundir el habla fluida con el pensamiento fluido.

Imagen: Tancha / Shutterstock.com

Fuente: https://singularityhub.com/2022/06/30/googles-ai-spotlights-a-human-cognitive-glitch-mistaking-fluent-speech-for-fluent-thought/

Deja una respuesta