¿Qué pasa cuando no puedes distinguir entre un humano y un chatbot de IA? Estamos a punto de descubrirlo.

por Jevin West, Kai Riemer y Sandra Peter

¿Y si pudiéramos diseñar una máquina que pudiera leer tus emociones e intenciones, escribir respuestas reflexivas, empáticas y perfectamente sincronizadas, y aparentemente saber exactamente lo que necesitas oír? Una máquina tan seductora que ni siquiera te darías cuenta de que es artificial. ¿Y si ya la tuviéramos?

En un metanálisis exhaustivo, publicado en las Actas de la Academia Nacional de Ciencias , demostramos que la última generación de chatbots basados ​​en modelos de lenguaje de gran tamaño iguala y supera a la mayoría de los humanos en su capacidad de comunicación. Un creciente número de investigaciones demuestra que estos sistemas ahora superan con fiabilidad la prueba de Turing , engañando a los humanos haciéndoles creer que están interactuando con otro humano.

Ninguno de nosotros esperaba la llegada de los supercomunicadores. La ciencia ficción nos enseñó que la inteligencia artificial sería altamente racional y omnisciente, pero carente de humanidad.

Y aquí estamos. Experimentos recientes han demostrado que modelos como el GPT-4 superan a los humanos en la escritura persuasiva y empática . Otro estudio descubrió que los modelos de lenguaje extenso (LLM) son excelentes para evaluar los matices sentimentales en mensajes escritos por humanos.

Los LLM también son expertos en juegos de rol , asumiendo una amplia gama de personajes e imitando estilos lingüísticos con matices . Esto se ve reforzado por su capacidad para inferir creencias e intenciones humanas a partir del texto. Claro que los LLM no poseen verdadera empatía ni comprensión social, pero son máquinas de imitación muy eficaces.

Llamamos a estos sistemas “agentes antropomórficos”. Tradicionalmente, el antropomorfismo se refiere a atribuir rasgos humanos a entidades no humanas. Sin embargo, los LLM realmente muestran cualidades muy humanas, por lo que los llamados a evitar antropomorfizarlos resultarán ineficaces.

Este es un momento histórico: cuando ya no puedes distinguir la diferencia entre hablar con un humano o con un chatbot de IA en línea.

En Internet, nadie sabe que eres una IA

¿Qué significa esto? Por un lado, los LLM prometen facilitar el acceso a información compleja mediante interfaces de chat, adaptando los mensajes a los niveles de comprensión individuales . Esto tiene aplicaciones en diversos ámbitos, como los servicios jurídicos o la salud pública. En el ámbito educativo, las habilidades de rol pueden utilizarse para crear tutores socráticos que formulan preguntas personalizadas y ayudan a los estudiantes a aprender.

Al mismo tiempo, estos sistemas son seductores. Millones de usuarios ya interactúan a diario con apps de IA. Se ha hablado mucho de los efectos negativos de las apps de IA , pero la seducción antropomórfica tiene implicaciones mucho más amplias.

Los usuarios confían tanto en los chatbots de IA que revelan información muy personal. Si a esto le sumamos su gran capacidad de persuasión, surgen inquietudes genuinas .

Una investigación reciente de la empresa de inteligencia artificial Anthropic demuestra además que su chatbot Claude 3 demostró su mayor persuasión cuando se le permitió inventar información y engañar. Dado que los chatbots de IA carecen de inhibiciones morales, están en condiciones de engañar mucho mejor que los humanos.

Esto abre la puerta a la manipulación a gran escala para difundir desinformación o crear tácticas de venta altamente efectivas. ¿Qué podría ser más efectivo que un compañero de confianza que recomiende un producto casualmente en una conversación? ChatGPT ya ha comenzado a ofrecer recomendaciones de productos en respuesta a las preguntas de los usuarios. Es solo un paso para integrar sutilmente las recomendaciones de productos en las conversaciones, sin que usted lo pida.

¿Qué se puede hacer?

Es fácil pedir regulación, pero más difícil definir los detalles.

El primer paso es dar a conocer estas capacidades. La regulación debería exigir la divulgación: los usuarios deben saber siempre que interactúan con una IA, tal como lo exige la Ley de IA de la UE . Sin embargo, esto no será suficiente, dadas las cualidades seductoras de los sistemas de IA.

El segundo paso debe ser comprender mejor las cualidades antropomórficas. Hasta ahora, las pruebas LLM miden la inteligencia y la capacidad de recordar conocimientos, pero ninguna mide el grado de semejanza humana. Con una prueba como esta, se podría exigir a las empresas de IA que revelen las habilidades antropomórficas mediante un sistema de calificación, y los legisladores podrían determinar los niveles de riesgo aceptables para ciertos contextos y grupos de edad.

La advertencia sobre las redes sociales, que en gran medida no estuvieron reguladas hasta que se produjeron graves daños, sugiere que existe cierta urgencia. Si los gobiernos adoptan una estrategia de no intervención, es probable que la IA agrave los problemas existentes con la difusión de información errónea y desinformación , o la epidemia de soledad . De hecho, el director ejecutivo de Meta, Mark Zuckerberg, ya ha señalado que le gustaría llenar el vacío de contacto humano real con “amigos de la IA”.

Confiar en que las empresas de IA se abstengan de humanizar aún más sus sistemas parece desaconsejable. Todos los avances apuntan en la dirección opuesta. OpenAI está trabajando para que sus sistemas sean más atractivos y personalizados, con la capacidad de dotar a su versión de ChatGPT de una “personalidad” específica .

ChatGPT se ha vuelto, en general, más conversacional, a menudo haciendo preguntas de seguimiento para mantener la conversación, y su modo de voz agrega un atractivo aún más seductor.

Se puede lograr mucho con los agentes antropomórficos. Sus habilidades persuasivas pueden utilizarse tanto para causas benéficas como para causas negativas, desde combatir teorías conspirativas hasta incitar a los usuarios a donar y a adoptar otros comportamientos prosociales.

Sin embargo, necesitamos una agenda integral que abarque el diseño y desarrollo, la implementación y el uso, y las políticas y la regulación de los agentes conversacionales . Si la IA puede, por naturaleza, presionarnos, no deberíamos permitir que cambie nuestros sistemas.

Fuente: https://singularityhub.com/2025/05/26/evidence-shows-ai-systems-are-already-too-much-like-humans-will-that-be-a-problem/

Deja una respuesta