por Edd Gent | IEEE Spectrum
“La primera iteración de la hoja de ruta [de IBM para 2020] se completó con el procesador Condor [de 1121 qubits] cuyo lanzamiento está programado para 2023, pero ahora la compañía ha revelado planes para un procesador de 1386 qubits, llamado Flamingo, para aparecerá en 2024 y para un dispositivo de 4158 qubits llamado Kookaburra que hará su debut en 2025”.
Una actualización de la hoja de ruta de la computación cuántica de IBM ahora dice que la compañía está en camino de construir una máquina de 4,000 qubits para 2025. Pero lograr que el dispositivo haga algo útil requerirá el desarrollo de una nueva y poderosa pila de software que ayudará a administrar los errores. comparte la carga con el hardware clásico y simplifica el proceso de programación.
Desde que IBM presentó por primera vez sus planes de hardware cuántico en 2020, la empresa se ha ceñido en gran medida al cronograma; el hito más reciente de ese pronóstico que se hizo realidad fue el lanzamiento del procesador Eagle de 127 qubits de la compañía en noviembre pasado. La primera iteración de la hoja de ruta finalizó con el procesador Condor 1121 cuyo lanzamiento está programado para 2023, pero ahora la compañía ha revelado planes para un procesador de 1386 qubits, llamado Flamingo, que aparecerá en 2024 y para un dispositivo de 4158 qubits. llamado Kookaburra para hacer su debut en 2025.
La clave para construir estos dispositivos será una nueva arquitectura modular en la que se conecten múltiples chips para crear un solo procesador grande. Esto será posible gracias a nuevos acopladores de corto alcance, que permiten la comunicación entre qubits en chips adyacentes, y cables de microondas criogénicos, que permiten conexiones de mayor alcance entre diferentes procesadores.
Pero el hardware cuántico es propenso a errores y endiabladamente complejo, por lo que el simple hecho de conectar una gran cantidad de qubits no significa necesariamente que pueda hacer mucho trabajo práctico con ellos. IBM cree que la clave para aprovechar el poder de estos qubits adicionales será una “capa de software inteligente” que aumente sus chips cuánticos con herramientas clásicas que pueden ayudar a controlar el ruido y amplificar su poder de procesamiento.
“Creemos que los recursos clásicos realmente pueden mejorar lo que se puede hacer con la tecnología cuántica y aprovechar al máximo ese recurso cuántico”, dice Blake Johnson , líder de la plataforma cuántica de IBM. “Y entonces, necesitamos construir herramientas, una capa de orquestación, por así decirlo, que pueda permitir que los cálculos cuánticos y clásicos funcionen juntos de manera transparente”.
El desafío más fundamental para el hardware cuántico sigue siendo su ruido inherente, y Johnson dice que hay “una gran cantidad de actividad de investigación” para ampliar las técnicas de mitigación de errores . Hasta ahora, la mayoría de las innovaciones se han probado solo en sistemas más pequeños. Pero Johnson dice que los primeros resultados sugieren que un enfoque conocido como cancelación probabilística de errores funcionará en dispositivos del tamaño de los previstos por IBM al final de su hoja de ruta cuántica. La técnica implica ejecutar deliberadamente versiones ruidosas de circuitos cuánticos para aprender los contornos de ese ruido, y luego usar el posprocesamiento en computadoras clásicas para reducir el nivel de error en las respuestas.
Sin embargo, la aplicación de este tipo de técnicas requiere un conocimiento especializado considerable. Eso limita la utilidad de las técnicas para el desarrollador promedio. Es por eso que, a partir de 2024, IBM planea incorporar la mitigación de errores directamente en su plataforma de desarrollo de software Qiskit Runtime para que los usuarios puedan crear programas sin tener que pensar específicamente en cómo reducir el ruido. “Queremos que estas cosas sean automáticas para el usuario”, dice Johnson. “No debería tener que ser un experto en control cuántico para obtener resultados significativos de una computación cuántica”.
Más allá de suprimir errores, IBM también está planeando nuevas herramientas de software diseñadas para acelerar las aplicaciones de los usuarios y ayudarlos a abordar problemas mayores. El mes pasado, la compañía lanzó dos “primitivas” (programas básicos predefinidos que llevan a cabo operaciones cuánticas centrales) que los usuarios del tiempo de ejecución de Qiskit pueden usar para crear aplicaciones. A partir de 2023, IBM permitirá ejecutar estas primitivas en paralelo en múltiples procesadores cuánticos, acelerando significativamente los programas de los usuarios.
Las ambiciones de IBM también incluyen permitir que los desarrolladores construyan programas complejos que combinen elementos clásicos y cuánticos. Esto se debe a que a muchos desarrolladores les gustaría llevar capacidades cuánticas a partes específicas de sus flujos de trabajo existentes, dice Johnson, y también porque podría ayudar a abordar problemas más grandes de los que el hardware cuántico es capaz de resolver por sí mismo.
En el centro de esta idea de mashup clásico cuántico se encuentra el concepto de “tejido de circuitos”. Esta es una familia de técnicas que dividen los problemas de computación cuántica en partes que se pueden ejecutar en múltiples procesadores en paralelo, antes de usar computadoras clásicas para volver a unir los resultados. En una prueba de concepto el año pasado , los investigadores de IBM demostraron que podían usar un enfoque de tejido de circuitos llamado forja de entrelazamiento para duplicar el tamaño del sistema cuántico que se puede simular en un número determinado de qubits.
Para 2025, la compañía planea presentar una caja de herramientas de métodos de tejido de circuitos, que los desarrolladores podrán usar para construir algoritmos que aprovechen al máximo los recursos clásicos y cuánticos. Para respaldar esto, también adoptarán un enfoque “sin servidor cuántico” en el que los desarrolladores no necesitan pensar en qué hardware se requiere para ejecutar su código, y los recursos cuánticos o clásicos se proporcionan automáticamente según sea necesario.
“El modelo sin servidor permite que el desarrollador se concentre en su código, use los recursos a pedido cuando los necesite y tenga acceso a una variedad de recursos de infraestructura sin ser un experto en las propias infraestructuras”, dice Johnson.
La hoja de ruta de la compañía predice que todas esas cosas probablemente se unirán para 2025, lo que permitirá a los desarrolladores comenzar a producir aplicaciones completas para cosas como el aprendizaje automático, la optimización y las simulaciones físicas.