Con una gorra tachonada de electrodos erizada de cables, un joven lee en silencio una frase en su cabeza. Momentos después, una voz similar a la de Siri irrumpe, intentando traducir sus pensamientos en texto: “Sí, me gustaría un plato de sopa de pollo, por favor”. Es el ejemplo más reciente de computadoras que traducen los pensamientos de una persona en palabras y oraciones.

por Jason Dorrier


Anteriormente, los investigadores han utilizado implantes colocados quirúrgicamente en el cerebro o máquinas voluminosas y costosas para traducir la actividad cerebral en texto. El nuevo enfoque, presentado en la conferencia NeurIPS de esta semana por investigadores de la Universidad de Tecnología de Sydney, es impresionante por su uso de un gorro de EEG no invasivo y el potencial de generalizar más allá de una o dos personas.

El equipo construyó un modelo de IA llamado DeWave que se entrena en la actividad cerebral y el lenguaje y lo vinculó a un gran modelo de lenguaje, la tecnología detrás de ChatGPT, para ayudar a convertir la actividad cerebral en palabras. En una preimpresión publicada en arXiv, el modelo superó las marcas más altas anteriores para la traducción de pensamiento a texto de EEG con una precisión de aproximadamente el 40 por ciento. Chin-Teng Lin, autor correspondiente del artículo, dijo a MSN que recientemente han aumentado la precisión al 60 por ciento. Los resultados aún están siendo revisados por pares.

Aunque hay un largo camino por recorrer en términos de confiabilidad, muestra un progreso en los métodos no invasivos de lectura y traducción de pensamientos al lenguaje. El equipo cree que su trabajo podría dar voz a aquellos que ya no pueden comunicarse debido a lesiones o enfermedades o ser utilizados para dirigir máquinas, como robots andantes o brazos robóticos, solo con pensamientos.

Adivina lo que estoy pensando

Es posible que recuerdes los titulares sobre las máquinas de “lectura de mentes” que traducen los pensamientos a texto a alta velocidad. Esto se debe a que tales esfuerzos no son nuevos.

A principios de este año, investigadores de Stanford describieron el trabajo con un paciente, Pat Bennett, que había perdido la capacidad de hablar debido a la ELA. Después de implantar cuatro sensores en dos partes de su cerebro y un extenso entrenamiento, Bennett pudo comunicarse convirtiendo sus pensamientos en texto a una velocidad de 62 palabras por minuto, una mejora en el récord del mismo equipo de 2021 de 18 palabras por minuto.

Es un resultado sorprendente, pero los implantes cerebrales pueden ser riesgosos. A los científicos les encantaría obtener un resultado similar sin cirugía.

En otro estudio realizado este año, investigadores de la Universidad de Texas en Austin recurrieron a una tecnología de escaneo cerebral llamada resonancia magnética funcional. En el estudio, los pacientes tuvieron que permanecer muy quietos en una máquina que registraba el flujo sanguíneo en sus cerebros mientras escuchaban historias. Después de usar estos datos para entrenar un algoritmo, basado en parte en el ancestro de ChatGPT, GPT-1, el equipo usó el sistema para adivinar lo que los participantes estaban escuchando en función de su actividad cerebral.

La precisión del sistema no era perfecta, requería una gran personalización para cada participante y las máquinas de resonancia magnética funcional son voluminosas y caras. Aún así, el estudio sirvió como una prueba de concepto de que los pensamientos se pueden decodificar de forma no invasiva, y lo último en IA puede ayudar a que esto suceda.

El sombrero seleccionador

En Harry Potter, los estudiantes son clasificados en las escuelas por un sombrero mágico que lee la mente. Nosotros, los muggles, recurrimos a gorros de baño de aspecto extraño perforados por cables y electrodos. Conocidos como gorros electroencefalograma (EEG), estos dispositivos leen y registran la actividad eléctrica en nuestro cerebro. A diferencia de los implantes cerebrales, no requieren cirugía, pero son considerablemente menos precisos. El reto, entonces, es separar la señal del ruido para obtener un resultado útil.

En el nuevo estudio, el equipo utilizó dos conjuntos de datos que contenían registros de seguimiento ocular y EEG de 12 y 18 personas, respectivamente, mientras leían texto. Los datos de seguimiento ocular ayudaron al sistema a dividir la actividad cerebral por palabra. Es decir, cuando los ojos de una persona pasan de una palabra a la siguiente, significa que debe haber una ruptura entre la actividad cerebral asociada con esa palabra y la actividad que debe correlacionarse con la siguiente.

Luego entrenaron a DeWave con estos datos y, con el tiempo, el algoritmo aprendió a asociar patrones particulares de ondas cerebrales con palabras. Finalmente, con la ayuda de un modelo de lenguaje grande preentrenado llamado BART, ajustado para comprender el resultado único del modelo, las asociaciones de ondas cerebrales a palabras del algoritmo se tradujeron nuevamente en oraciones.

En las pruebas, DeWave superó a los mejores algoritmos de la categoría tanto en la traducción de ondas cerebrales sin procesar como en las ondas cerebrales cortadas por palabra. Estos últimos eran más precisos, pero aún estaban muy por detrás de la traducción entre idiomas, como el inglés y el francés, y el reconocimiento de voz. También encontraron que el algoritmo funcionó de manera similar en todos los participantes. Los experimentos anteriores han tendido a informar los resultados de una sola persona o a requerir una personalización extrema.

El equipo dice que la investigación es una prueba más de que los grandes modelos de lenguaje pueden ayudar a avanzar en los sistemas de cerebro a texto. Aunque utilizaron un algoritmo relativamente antiguo en el estudio oficial, en el material complementario incluyeron resultados de modelos más grandes, incluido el algoritmo Llama original de Meta. Curiosamente, los algoritmos más grandes no mejoraron mucho los resultados.

“Esto subraya la complejidad del problema y los desafíos de unir las actividades cerebrales con los LLM”, escribieron los autores, que pidieron una investigación más matizada en el futuro. Aún así, el equipo espera poder llevar su propio sistema más allá, tal vez con una precisión de hasta el 90 por ciento.

El trabajo muestra avances en el campo.

“La gente ha querido convertir el EEG en texto durante mucho tiempo y el modelo del equipo está mostrando una notable cantidad de corrección”, dijo Craig Jin, de la Universidad de Sydney, a MSN. “Hace varios años, las conversiones de EEG a texto eran una completa y absoluta tontería”.

Crédito de la imagen: Universidad Tecnológica de Sídney

Fuente: https://singularityhub.com/2023/12/12/this-mind-reading-cap-can-translate-thoughts-to-text-thanks-to-ai/

Deja una respuesta