“Este es un momento profundo en la historia de la tecnología”, dice Mustafa Suleyman.
- ¿Y eso es lo que te motiva?
- No puedo evitar pensar que era más fácil decir ese tipo de cosas hace 10 o 15 años, antes de que viéramos muchas de las desventajas de la tecnología. ¿Cómo eres capaz de mantener tu optimismo?
- Espera. Cuéntame cómo lo has conseguido, porque normalmente se entiende que es un problema sin resolver. ¿Cómo te aseguras de que tu modelo de lenguaje grande no diga lo que no quieres que diga?
- Hablando de tus valores y de querer mejorar el mundo, ¿por qué no compartir cómo lo hiciste para que otras personas también pudieran mejorar sus modelos?
- Volvamos a lo que estás tratando de lograr. Los grandes modelos de lenguaje son, obviamente, la tecnología del momento. Pero, ¿por qué más estás apostando por ellos?
- Ese es exactamente el tipo de conversación que preocupa a mucha gente. Queremos dar autonomía a las máquinas, una especie de agencia, para influir en el mundo y, sin embargo, también queremos ser capaces de controlarlas. ¿Cómo equilibras esas dos cosas? Da la sensación de que hay una tensión ahí.
- ¿Quién establece estos límites? Supongo que tendrían que establecerse a nivel nacional o internacional. ¿Cómo se acuerdan?
- ¿Como?
- Pero puedes ver drones cuando están en el cielo. Parece ingenuo asumir que las empresas solo van a revelar lo que están haciendo. ¿Eso no hace que la regulación sea difícil de poner en marcha?
- El control de la IA será una rama de la regulación de Internet, esa es una nota mucho más optimista que la que hemos escuchado de varios catastrofistas de alto perfil últimamente.

El cofundador de DeepMind, Mustafa Suleyman, quiere construir un chatbot que haga mucho más que chatear. En una conversación reciente que tuve con él, me dijo que la IA generativa es solo una fase. Lo que sigue es la IA interactiva: bots que pueden llevar a cabo las tareas que les establezcas llamando a otro software y a otras personas para que hagan las cosas. También pide una regulación sólida, y no cree que eso sea difícil de lograr.
Suleyman no es el único que habla de un futuro lleno de software cada vez más autónomo. Pero a diferencia de la mayoría de la gente, tiene una nueva empresa de mil millones de dólares, Inflection, con una lista de talentos de primer nivel extraídos de DeepMind, Meta y OpenAI, y, gracias a un acuerdo con Nvidia, una de las mayores reservas de hardware especializado en IA del mundo. Suleyman ha puesto su dinero, que me dice que no le interesa y que quiere sacar más provecho, donde está su boca.

Suleyman ha tenido una fe inquebrantable en la tecnología como una fuerza para el bien, al menos desde que hablamos por primera vez a principios de 2016. Acababa de lanzar DeepMind Health y había establecido colaboraciones de investigación con algunos de los proveedores regionales de atención médica estatales del Reino Unido.
La revista para la que trabajaba en ese momento estaba a punto de publicar un artículo en el que se afirmaba que DeepMind no había cumplido con las normas de protección de datos al acceder a los registros de unos 1,6 millones de pacientes para establecer esas colaboraciones, una afirmación que luego fue respaldada por una investigación del gobierno. Suleyman no podía ver por qué publicaríamos una historia que era hostil a los esfuerzos de su compañía para mejorar la atención médica. Desde que tenía uso de razón, me dijo en ese momento, solo había querido hacer el bien en el mundo.
En los siete años transcurridos desde esa llamada, la misión de Suleyman no ha cambiado ni un centímetro. “El objetivo nunca ha sido otro que cómo hacer el bien en el mundo”, dice a través de Zoom desde su oficina en Palo Alto, donde el empresario británico pasa ahora la mayor parte de su tiempo.
Suleyman dejó DeepMind y se trasladó a Google para dirigir un equipo que trabajaba en políticas de IA. En 2022 fundó Inflection, una de las nuevas empresas de IA más populares, respaldada por una inversión de 1.500 millones de dólares de Microsoft, Nvidia, Bill Gates y el fundador de LinkedIn, Reid Hoffman. A principios de este año lanzó un rival de ChatGPT llamado Pi, cuyo punto de venta único (según Suleyman) es que es agradable y educado. Y acaba de ser coautor de un libro sobre el futuro de la IA con el escritor e investigador Michael Bhaskar, llamado The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma.
Muchos se burlarán del tecno-optimismo de Suleyman, incluso de su ingenuidad. Algunas de sus afirmaciones sobre el éxito de la regulación en línea parecen estar muy fuera de lugar, por ejemplo. Y, sin embargo, sigue siendo sincero y evangélico en sus convicciones.
Es cierto que Suleyman tiene un pasado inusual para un multimillonario de la tecnología. A los 19 años abandonó la universidad para fundar Muslim Youth Helpline, un servicio de asesoramiento telefónico. También trabajó en el gobierno local. Dice que trae consigo muchos de los valores que informaron esos esfuerzos a Inflection. La diferencia es que ahora podría estar en condiciones de hacer los cambios que siempre ha querido, para bien o no.
La siguiente entrevista ha sido editada por razones de extensión y claridad.
Al principio de su carrera, con la línea de ayuda para jóvenes y el trabajo del gobierno local, fue lo menos glamoroso y poco propio de Silicon Valley que se puede conseguir. Claramente, esas cosas te importan. Desde entonces, ha pasado 15 años en IA y este año cofundó su segunda empresa de IA de mil millones de dólares. ¿Puedes conectar los puntos?
Siempre me ha interesado el poder, la política, etc. Los principios de derechos humanos son básicamente compensaciones, una negociación constante y continua entre todas estas diferentes tensiones conflictivas. Pude ver que los humanos estaban luchando con eso: estamos llenos de nuestros propios prejuicios y puntos ciegos. El trabajo activista, el gobierno local, nacional, internacional, etcétera, todo es lento, ineficiente y falible.
Imagínate si no tuvieras falibilidad humana. Creo que es posible construir IA que realmente reflejen lo mejor de nuestro yo colectivo y, en última instancia, hagan mejores concesiones, de manera más consistente y justa, en nuestro nombre.
¿Y eso es lo que te motiva?
Quiero decir, por supuesto, después de DeepMind nunca tuve que volver a trabajar. Ciertamente no tuve que escribir un libro ni nada por el estilo. El dinero nunca ha sido la motivación. Siempre ha sido, ya sabes, un efecto secundario.
Para mí, el objetivo nunca ha sido otra cosa que cómo hacer el bien en el mundo y cómo hacer que el mundo avance de una manera saludable y satisfactoria. Incluso en 2009, cuando empecé a estudiar el tema de la tecnología, pude ver que la IA representaba una forma justa y precisa de prestar servicios en el mundo.
No puedo evitar pensar que era más fácil decir ese tipo de cosas hace 10 o 15 años, antes de que viéramos muchas de las desventajas de la tecnología. ¿Cómo eres capaz de mantener tu optimismo?
Creo que estamos obsesionados con si eres optimista o pesimista. Esta es una forma completamente sesgada de ver las cosas. Yo tampoco quiero serlo. Quiero mirar fríamente a la cara los beneficios y las amenazas. Y desde mi punto de vista, podemos ver muy claramente que con cada paso que subo en la escala de estos grandes modelos de lenguaje, se vuelven más controlables.
Así que hace dos años, la conversación —erróneamente, pensé en ese momento— fue: “Oh, solo van a producir diatribas tóxicas, regurgitadas, sesgadas y racistas”. Pensé, esto es una instantánea en el tiempo. Creo que lo que la gente pierde de vista es la progresión año tras año, y la trayectoria de esa progresión.
Ahora tenemos modelos como Pi, por ejemplo, que son increíblemente controlables. No puedes hacer que Pi produzca cosas racistas, homofóbicas, sexistas, cualquier tipo de cosas tóxicas. No puedes conseguir que te enseñe a producir un arma biológica o química o que respalde tu deseo de ir y tirar un ladrillo por la ventana de tu vecino. No puedes hacerlo…
Espera. Cuéntame cómo lo has conseguido, porque normalmente se entiende que es un problema sin resolver. ¿Cómo te aseguras de que tu modelo de lenguaje grande no diga lo que no quieres que diga?
Sí, así que obviamente no quiero hacer la afirmación… ¡Ya sabes, por favor, intenta hacerlo! Pi está vivo y debes probar todos los ataques posibles. Ninguno de los jailbreaks, hackeos rápidos ni nada funciona en contra de Pi. No estoy haciendo una afirmación. Es un hecho objetivo.
Sobre el cómo, quiero decir, no voy a entrar en demasiados detalles porque es delicado. Pero la conclusión es que tenemos uno de los equipos más fuertes del mundo, que ha creado todos los modelos lingüísticos más grandes de los últimos tres o cuatro años. Gente increíble, en un entorno extremadamente trabajador, con grandes cantidades de computación. Hicimos de la seguridad nuestra prioridad número uno desde el principio y, como resultado, Pi no es tan picante como los modelos de otras compañías.
Fíjate en Character.ai. [Character es un chatbot para el cual los usuarios pueden crear diferentes “personalidades” y compartirlas en línea para que otros puedan chatear con ellas.] Se usa principalmente para juegos de rol románticos, y desde el principio dijimos que eso estaba fuera de la mesa: no lo haremos. Si tratas de decirle “Hey, cariño” o “Hey, linda” o algo así a Pi, inmediatamente te rechazará.
Pero será increíblemente respetuoso. Si comienzas a quejarte de que los inmigrantes en tu comunidad te quitan el trabajo, Pi no te va a llamar la atención y te va a señalar con el dedo. Pi indagará y te apoyará y tratará de entender de dónde viene eso y te animará gentilmente a empatizar. Ya sabes, valores en los que he estado pensando durante 20 años.
Hablando de tus valores y de querer mejorar el mundo, ¿por qué no compartir cómo lo hiciste para que otras personas también pudieran mejorar sus modelos?
Bueno, porque también soy pragmático y estoy tratando de ganar dinero. Estoy tratando de construir un negocio. Acabo de recaudar 1.500 millones de dólares y tengo que pagar por esas fichas.
Mira, el ecosistema de código abierto está en llamas y haciendo un trabajo increíble, y la gente está descubriendo trucos similares. Siempre asumo que solo tengo seis meses de ventaja.
Volvamos a lo que estás tratando de lograr. Los grandes modelos de lenguaje son, obviamente, la tecnología del momento. Pero, ¿por qué más estás apostando por ellos?
La primera ola de IA tuvo que ver con la clasificación. El aprendizaje profundo demostró que podemos entrenar a una computadora para clasificar varios tipos de datos de entrada: imágenes, video, audio, idioma. Ahora estamos en la ola generativa, en la que se toman esos datos de entrada y se producen nuevos datos.
La tercera ola será la fase interactiva. Es por eso que he apostado durante mucho tiempo a que la conversación es la interfaz del futuro. Ya sabes, en lugar de simplemente hacer clic en los botones y escribir, vas a hablar con tu IA.
Y estas IA podrán tomar medidas. Simplemente le darás un objetivo general de alto nivel y utilizará todas las herramientas que tiene para actuar en consecuencia. Hablarán con otras personas, hablarán con otras IA. Esto es lo que vamos a hacer con Pi.
Ese es un gran cambio en lo que la tecnología puede hacer. Es un momento muy, muy profundo en la historia de la tecnología que creo que mucha gente subestima. La tecnología hoy en día es estática. Hace, a grandes rasgos, lo que le dices que haga.
Pero ahora la tecnología va a ser animada. Va a tener la libertad potencial, si se la das, de tomar medidas. Es realmente un cambio radical en la historia de nuestra especie que estemos creando herramientas que tienen este tipo de, ya sabes, agencia.
Ese es exactamente el tipo de conversación que preocupa a mucha gente. Queremos dar autonomía a las máquinas, una especie de agencia, para influir en el mundo y, sin embargo, también queremos ser capaces de controlarlas. ¿Cómo equilibras esas dos cosas? Da la sensación de que hay una tensión ahí.
Sí, ese es un gran punto. Esa es exactamente la tensión.
La idea es que los humanos siempre estarán al mando. Esencialmente, se trata de establecer límites, límites que una IA no puede cruzar. Y garantizar que esos límites creen una seguridad demostrable en todo el camino, desde el código real hasta la forma en que interactúa con otras IA, o con los humanos, hasta las motivaciones e incentivos de las empresas que crean la tecnología. Y deberíamos averiguar cómo las instituciones independientes o incluso los gobiernos tienen acceso directo para garantizar que no se crucen esos límites.
¿Quién establece estos límites? Supongo que tendrían que establecerse a nivel nacional o internacional. ¿Cómo se acuerdan?
Es decir, en este momento se están planteando a nivel internacional, con varias propuestas de nuevas instituciones de supervisión. Pero los límites también operarán a nivel micro. Le vas a dar a tu IA un permiso limitado para procesar tus datos personales, para darte respuestas a algunas preguntas pero no a otras.
En general, creo que hay ciertas capacidades con las que deberíamos ser muy cautelosos, si no simplemente descartarlas, en el futuro previsible.
¿Como?
Supongo que cosas como la autosuperación recursiva. No querrá dejar que su pequeña IA se dispare y actualice su propio código sin que usted lo supervise. Tal vez incluso debería ser una actividad autorizada, ya sabes, al igual que para el manejo de ántrax o materiales nucleares.
O, por ejemplo, no hemos permitido drones en ningún espacio público, ¿verdad? Es una actividad autorizada. No puedes volarlos a donde quieras, porque representan una amenaza para la privacidad de las personas.
Creo que todo el mundo está teniendo un pánico total de que no vamos a ser capaces de regular esto. Es una tontería. Vamos a ser totalmente capaces de regularlo. Aplicaremos los mismos marcos que han tenido éxito anteriormente.
Pero puedes ver drones cuando están en el cielo. Parece ingenuo asumir que las empresas solo van a revelar lo que están haciendo. ¿Eso no hace que la regulación sea difícil de poner en marcha?
Hemos regulado muchas cosas en línea, ¿verdad? La cantidad de fraude y actividad delictiva en línea es mínima. Hemos hecho un buen trabajo con el spam. En general, el problema de la pornografía de venganza ha mejorado, a pesar de que estaba en un mal lugar hace tres o cinco años. Es bastante difícil encontrar contenido de radicalización o material terrorista en línea. Es bastante difícil comprar armas y drogas en línea.
[No todas las afirmaciones de Suleyman aquí están respaldadas por los números. La ciberdelincuencia sigue siendo un problema mundial masivo. El costo financiero solo en Estados Unidos se ha multiplicado por más de 100 en la última década, según algunas estimaciones. Los informes muestran que la economía del porno deepfake no consensuado está en auge. Las drogas y las armas se comercializan en las redes sociales. Y aunque algunas plataformas en línea están siendo presionadas para hacer un mejor trabajo al filtrar el contenido dañino, podrían hacer mucho más.]
Así que no es que Internet sea un espacio ingobernable que no está gobernado. Se gobierna. Y la IA va a ser un componente más de esa gobernanza.
Se necesita una combinación de presión cultural, presión institucional y, obviamente, regulación gubernamental. Pero me hace ser optimista de que lo hemos hecho antes, y que podemos hacerlo de nuevo.
El control de la IA será una rama de la regulación de Internet, esa es una nota mucho más optimista que la que hemos escuchado de varios catastrofistas de alto perfil últimamente.
Tengo los ojos muy abiertos sobre los riesgos. Hay muchas cosas oscuras en mi libro. Definitivamente yo también lo veo. Simplemente creo que el riesgo existencial ha sido una distracción completamente loca. Hay como 101 cuestiones prácticas más de las que todos deberíamos estar hablando, desde la privacidad hasta los prejuicios, el reconocimiento facial y la moderación en línea.
Deberíamos volver a centrar la conversación en el hecho de que hemos hecho un trabajo increíble regulando cosas súper complejas. Mire a la Administración Federal de Aviación: es increíble que todos nos metamos en estos tubos de hojalata a 40,000 pies y es uno de los medios de transporte más seguros que existen. ¿Por qué no lo celebramos? O piense en los coches: cada componente se somete a pruebas de estrés dentro de una pulgada de su vida útil, y debe tener una licencia para conducirlo.
Algunas industrias, como las aerolíneas, hicieron un buen trabajo al regularse a sí mismas para empezar. Sabían que si no daban en el clavo con la seguridad, todo el mundo se asustaría y perderían negocios.
Pero también se necesita una regulación de arriba hacia abajo. Me encanta el Estado-nación. Creo en el interés público, creo en el bien de los impuestos y la redistribución, creo en el poder de la regulación. Y lo que pido es que el Estado-nación actúe para arreglar su mierda. Teniendo en cuenta lo que está en juego, ahora es el momento de ponerse en marcha.