Es lindo, pequeño, de aspecto ridículo y programable en Python. Conozca Reachy Mini, un robot compacto de código abierto de Hugging Face diseñado para ser utilizado por desarrolladores, consumidores habituales e incluso niños. Y desde que Hugging Face anunció el lanzamiento en julio, Reachy Mini, disponible en preventa, ha superado las expectativas, según Pollen Robotics, una empresa de robótica recientemente adquirida por la empresa de inteligencia artificial.
por Anabelle Nicoud | IBM
2025 se perfila como el año de la IA física. Según NASDAQ, se prevé que el mercado crezca de USD 12,77 mil millones en 2023 a USD 124,77 mil millones para 2030. NVIDIA también anunció el primer modelo de base humanoide abierta, GROOT N1. Y los robots ya se están poniendo a trabajar: Amazon acaba de implementar su robot número un millón en julio de 2025, y Waymo de Google entregó más de 10 millones de viajes en mayo de 2025.
Pero, ¿están los robots preparados para la vida cotidiana? IBM Think se reunió con los fundadores que construyen hacia ese futuro.

Una tienda de aplicaciones para robots
Anto Patrex dejó su trabajo en una importante empresa de inteligencia artificial este año para lanzar CosmicBrain, una startup que aborda uno de los mayores desafíos de la robótica: los datos.
“Mucha gente comenzó a construir y usar IA para mejorar la robótica”, dijo en una entrevista con IBM Think. “Así que esa es una de las razones por las que renuncié a mi trabajo. Sentí que si no estoy en el espacio a partir de hoy, me perderé mucho”.
CosmicBrain crea modelos de simulación para entrenar robots utilizando datos de tareas humanas, recopilados a través de cualquier anteojo inteligente portátil. “Si miras a los robots de las empresas de inteligencia física, se están entrenando mediante teleoperación”, explicó Patrex. “Este no es un método escalable, por lo que cuando se implementan en un almacén real o en un campo agrícola, no tiene un conjunto de datos diverso”.
¿La idea? Una tienda de aplicaciones plug-and-play para robots, para todos: desarrolladores, estudiantes o empresas dispuestas a entrenar a sus robots. “Estamos creando una Google Play Store o una App Store para robots”, dijo. “Es como la Matrix de hoy en día. Tendremos cientos de miles de conjuntos de habilidades que puedes conectar y el robot sabrá qué hacer”.
Patrex dijo que el plan es recopilar más de 50 millones de horas de video en los próximos dos años. El siguiente paso será utilizar estos datos para generar datos sintéticos.
“Hay muchas cosas que en realidad no podemos hacer en el mundo real”, dijo. “¿Qué sucede si el robot deja que un paquete se deslice? ¿Cómo lo aprende? Podemos enseñar a estos robots a hacer esto, o a reconocer 100 variedades de frutas diferentes, como recoger cerezas frente a tomates, manzanas y naranjas”.
CosmicBrain ve su impacto potencial en el ecosistema de la robótica similar al que tenía Scale AI, que se especializaba en la anotación de datos, y Google, Microsoft, Meta, OpenAI o Anthropic en el auge de la IA generativa. “Excepto que Scale AI vendió sus datos”, dijo. “No venderemos nuestros datos. Más bien, venderemos conjuntos de habilidades como API, por lo que los datos se quedarán con la empresa”.
Hace unos días, Elon Musk, CEO de Tesla, predijo que los robots Optimus de Tesla podrían generar USD 30 billones en ingresos, y Patrex lo compra. “Pronto, verán [a todos] … construyendo robots, reparando robots, pintando robots, entrenando robots”, dijo Patrex. “Va a haber una economía enorme”.
Robots en casa
Ese futuro ya se está materializando para Jan Liphardt, profesor asociado de bioingeniería en Stanford y fundador de OpenMind, una pila de software abierta y nativa de IA para robots que planea abrir su primera tienda en San Francisco este año.
“Esto está sucediendo este año, no en 2037”, dijo Liphardt a IBM Think. “Y no somos solo nosotros”.
Fanático de los robots de ciencia ficción desde hace mucho tiempo, Liphardt observó la brecha entre los robots ficticios y las máquinas industriales en la vida real. “Muchos de nosotros hemos visto películas en las que las personas interactúan con robots”, dijo. “Y hasta hace unos años, los robots se construían para mover una pieza de metal y soldarla a otra pieza de metal, con fines industriales. Había una enorme brecha entre el tipo de robots que veíamos en las películas y sobre los que leímos en la ciencia ficción, con el tipo de robots que veíamos a nuestro alrededor”.
Eso cambió durante el auge de la IA generativa.
“Estaba mirando los LLM como hace unos años”, dijo. “Tenía curiosidad por ver si el conjunto de resultados se puede expandir del texto a las acciones en el mundo real”.
Comenzó a escribir software para controlar robots domésticos, ayudando a los niños con la tarea, ladrando a invitados desconocidos, incluso mapeando parques. “Los LLM no solo pueden escribir código informático, sino que también pueden emitir comandos al hardware”, dijo Liphardt. “Fue realmente emocionante para mí”.
Él cree que los LLM resuelven desafíos centrales como la fusión de datos, el proceso de integrar datos de múltiples fuentes para producir un resultado cohesivo e informativo. “Una ventaja de usar el lenguaje para describir el mundo físico es que encaja naturalmente con la forma en que funcionan los grandes modelos de lenguaje: son excelentes para comprender, continuar y generar historias a partir de esa entrada”.
Aún así, no todo funciona como se esperaba. Uno de sus robots, por ejemplo, tiende a ladrar a las personas sin hogar. “Por supuesto, no programamos eso”, dijo. “Pero la idea de que una persona sin hogar dé miedo es algo que debe estar en los datos de entrenamiento”.
“Este [sesgo en los datos de entrenamiento] no es específico de los robots”, dijo Liphardt. “Y lo que es importante para mí es simplemente observar eso y luego pensar en buenas formas de controlar o gobernar la tecnología. Y ese también es un problema completamente sin resolver. Si piensas en la intersección de la gobernanza de la alineación y los grandes modelos de lenguaje, ese es un problema mucho, mucho mayor que cualquier esfuerzo de software robótico”.
El momento hacker
Impulsar la adopción por parte de los desarrolladores podría ser lo que finalmente empuje a la robótica a la corriente principal. Esa es la apuesta detrás del movimiento de Hugging Face en el espacio. “Con hardware más barato e IA de código abierto, creemos que este podría ser el momento ChatGPT para la robótica”, dijo el CEO de Hugging Face, Clément Delangue, en un episodio reciente de podcast de TBPN.
K-Scale Labs, una empresa de robótica humanoide de código abierto con sede en San Francisco, está trabajando con la misma premisa. Comenzarán a enviar K-Bot, un robot personal que tendrá locomoción básica, control por voz y un conjunto de comandos predefinidos, en diciembre de 2025.
“Creo que es muy importante tener una plataforma realmente de código abierto para desarrolladores primero”, dijo Benjamin Bolte, fundador y director ejecutivo de K-Scale Labs, en una entrevista.
Bolte, ex ingeniero de Tesla y Meta, cree que, al igual que en los primeros días de las PC o las consolas de juegos, el crecimiento real vendrá de los primeros usuarios, desarrolladores y aficionados.
K-Scale Labs está apostando por algunos casos de uso clave y por la apertura. “Tratar de dictar cómo debería funcionar todo es el enfoque equivocado”, dijo Bolte. “Si realmente podemos hacer que las personas experimenten con robots y construyan la experiencia del producto por sí mismas, creo que habrá un gran downstream, como un ecosistema de desarrolladores de aplicaciones para humanoides”.
Basándose en el interés por Reachy 2, un robot humanoide de código abierto desarrollado y construido por Pollen Robotics, la compañía desarrolló Reachy Mini, un robot personal solo disponible en pre-pedido. Este no es un robot humanoide completo, sino potencialmente un asistente diario que puede moverse por su casa, hablar, escuchar y visualizar su entorno.
“La gama de aplicaciones es enorme”, dijo Anne-Charlotte Passanisi, gerente senior de productos de Pollen Robotics, la compañía de robótica adquirida por Hugging Face a principios de este año. “Estamos construyendo los bloques para permitir que las personas creen cosas increíbles. El objetivo es un robot familiar que cualquiera pueda programar. Todavía no hemos llegado a ese punto, pero el potencial es enorme”.
Fuente: https://www.ibm.com/think/news/why-2025-is-pivotal-year-for-robotics
Información del Fabricante de Reachy Mini
Use community apps or test pre-installed ones

You can immediately try out pre-installed apps that come with your Reachy Mini and explore a growing library of community-developed applications.
Customize and Share Your Own Creations on Spaces

Got your own ideas? Build custom apps tailored to your needs and share them with the community, where they can be liked, shared, and enjoyed by others worldwide on Spaces, the Hugging Face Hub.
You can also give it a try in simulation

Reachy Mini is available in simulation, so you can start prototyping your apps and testing your ideas from home right away, even before your robot arrives. Get a head start on creating amazing experiences!
Get Notified and Become a Beta Tester

Reachy Mini will be available for pre-order starting July 9, 2025, exclusively online.
Priced at $299, deliveries will begin in batches this fall and continue through late 2025 and into 2026