Imagen: Nick Design en Unsplash

¿Qué tendría que hacer realmente una máquina para convencernos de que es consciente?

por David Cornell

Ya en 1980, el filósofo estadounidense John Searle distinguió entre inteligencia artificial fuerte e inteligencia artificial débil . Las IA débiles son meras máquinas o programas útiles que nos ayudan a resolver problemas, mientras que las IA fuertes poseen inteligencia genuina. Una IA fuerte sería consciente.

Searle se mostraba escéptico ante la mera posibilidad de una IA fuerte, pero no todos comparten su pesimismo. Los más optimistas son quienes defienden el funcionalismo , una teoría popular de la mente que sostiene que los estados mentales conscientes están determinados únicamente por su función. Para un funcionalista, la tarea de crear una IA fuerte es simplemente un reto técnico. Si podemos crear un sistema que funcione como nosotros, podemos estar seguros de que es consciente como nosotros.

Recientemente, hemos llegado a un punto de inflexión. Las IA generativas, como ChatGPT, están tan avanzadas que sus respuestas a menudo son indistinguibles de las de un humano real; véase, por ejemplo, este intercambio entre ChatGPT y Richard Dawkins.

Esta cuestión de si una máquina puede engañarnos haciéndonos creer que es humana es el tema de una conocida prueba ideada por el informático inglés Alan Turing en 1950. Turing afirmó que si una máquina podía superar la prueba, deberíamos concluir que era genuinamente inteligente.

En 1950 esto era pura especulación, pero según un estudio preliminar de principios de este año —un estudio que aún no ha sido revisado por pares—, la prueba de Turing se ha superado. ChatGPT convenció al 73 % de los participantes de que era humano.

Lo curioso es que nadie se lo cree. Los expertos no solo niegan que ChatGPT sea consciente , sino que ni siquiera parecen tomarse la idea en serio . Debo admitir que estoy de acuerdo con ellos. Simplemente no parece plausible.

La pregunta clave es: ¿Qué tendría que hacer realmente una máquina para convencernos?

Los expertos se han centrado principalmente en el aspecto técnico de esta cuestión. Es decir, en discernir qué características técnicas necesitaría una máquina o un programa para satisfacer nuestras mejores teorías sobre la consciencia. Un artículo de 2023 , por ejemplo, publicado en The Conversation , recopiló una lista de catorce criterios técnicos o «indicadores de consciencia», como el aprendizaje a partir de la retroalimentación (ChatGPT no cumplió con los requisitos).

Pero crear una IA fuerte supone tanto un desafío psicológico como técnico. Una cosa es producir una máquina que cumpla con los diversos criterios técnicos que establecemos en nuestras teorías, y otra muy distinta suponer que, cuando finalmente nos enfrentemos a ella, creeremos que es consciente.

El éxito de ChatGPT ya ha puesto de manifiesto este problema. Para muchos, la prueba de Turing era el referente de la inteligencia artificial. Pero si se ha superado, como sugiere el estudio preliminar, las reglas del juego han cambiado. Y es muy probable que sigan cambiando a medida que la tecnología avance.

Dificultades de Myna

Aquí es donde nos adentramos en el terreno pantanoso de un antiguo dilema filosófico: el problema de la existencia de otras mentes . En última instancia, nunca se puede saber con certeza si algo más allá de uno mismo posee consciencia. En el caso de los seres humanos, el problema no es más que un escepticismo ocioso. Ninguno de nosotros puede considerar seriamente la posibilidad de que otros humanos sean autómatas sin pensamiento, pero en el caso de las máquinas parece ser al revés. Resulta difícil aceptar que puedan ser otra cosa.

Un problema particular de las IA como ChatGPT es que parecen meras máquinas de imitación. Son como el miná, que aprende a vocalizar palabras sin tener idea de lo que hace ni de lo que significan.

Esto no significa, por supuesto, que jamás crearemos una máquina consciente, pero sí sugiere que, de lograrlo, quizá nos resultaría difícil aceptarlo. Y esa podría ser la ironía suprema: tener éxito en nuestra búsqueda por crear una máquina consciente y, sin embargo, negarnos a creer que lo hemos conseguido. Quién sabe, tal vez ya haya sucedido.

¿Qué tendría que hacer una máquina para convencernos? Una sugerencia tentativa es que podría tener que exhibir el tipo de autonomía que observamos en muchos organismos vivos.

Las IA actuales, como ChatGPT, son puramente reactivas. Si no tocas el teclado, son completamente silenciosas. Los animales no son así, al menos no los que solemos considerar conscientes, como los chimpancés, los delfines, los gatos y los perros. Tienen sus propios impulsos e inclinaciones (o al menos lo parecen), además del deseo de llevarlos a cabo. Inician sus propias acciones según sus propios términos y por sus propias razones.

Quizás si pudiéramos crear una máquina que exhibiera este tipo de autonomía —una autonomía que la llevara más allá de ser una mera máquina de imitación— realmente aceptaríamos que es consciente.

Es difícil saberlo con certeza. Quizás deberíamos preguntarle a ChatGPT.

Fuente: https://singularityhub.com/2025/10/31/the-hardest-part-of-creating-conscious-ai-might-be-convincing-ourselves-its-real/

Deja una respuesta