Parte del hardware óptico necesario para el funcionamiento de las máquinas de Atom Computing. 
Crédito: Atom Computing

Su plataforma necesita corrección de errores que funcione con diferente hardware.

por Juan Timmer

El jueves, el grupo Azure Quantum de Microsoft anunció que ha definido un plan para la corrección de errores en ordenadores cuánticos. Mientras la compañía desarrolla sus propios proyectos de hardware , el equipo de Azure es un proveedor de plataformas que actualmente ofrece acceso a varios tipos distintos de cúbits de hardware. Por lo tanto, ha elegido un esquema adecuado para diversas tecnologías de computación cuántica (en particular, excluyendo la suya propia). La compañía estima que el sistema elegido puede utilizar cúbits de hardware con una tasa de error de aproximadamente 1 entre 1000 para construir cúbits lógicos donde los errores son de 1 entre 1 millón.

Aunque describe el esquema mediante pruebas matemáticas y simulaciones, aún no ha demostrado su funcionamiento con hardware real. Sin embargo, uno de sus socios, Atom Computing, acompaña el anuncio con una descripción de cómo su máquina es capaz de realizar todas las operaciones necesarias.

Conexiones arbitrarias

Existen similitudes y diferencias entre lo que la compañía comenta hoy y la reciente actualización de la hoja de ruta de IBM , que describió otra vía hacia la computación cuántica resistente a errores. En el caso de IBM, fabrica tanto la pila de software que realizará la corrección de errores como el hardware necesario para implementarla. Utiliza hardware basado en chip, cuyas conexiones entre cúbits se realizan mediante un cableado que se establece durante la fabricación del chip. Dado que los esquemas de corrección de errores requieren una disposición muy específica de conexiones entre cúbits, una vez que IBM decide sobre un esquema de corrección de errores cuántico, puede diseñar chips con el cableado necesario para implementar dicho esquema.

Azure de Microsoft, en cambio, proporciona a sus usuarios acceso a hardware de diversas compañías de computación cuántica, cada una basada en una tecnología distinta. Algunas, como Rigetti y el procesador planificado por Microsoft, son similares a las de IBM en que tienen un diseño fijo durante la fabricación, por lo que solo pueden manejar códigos compatibles con su diseño de cableado. Sin embargo, otras, como las de Quantinuum y Atom Computing, almacenan sus cúbits en átomos que pueden moverse y conectarse de forma arbitraria. Estas conexiones arbitrarias permiten considerar esquemas de corrección de errores muy diversos.

Puede ser útil considerar esto mediante una analogía con la geometría. Un chip es como un plano, donde es más fácil formar las conexiones necesarias para la corrección de errores entre cúbits vecinos; conexiones más largas son posibles, pero no tan fáciles. Elementos como los iones y átomos atrapados proporcionan un sistema de mayor dimensión donde son posibles patrones de conexiones mucho más complejos. (De nuevo, esto es una analogía. IBM utiliza cableado tridimensional en sus chips de procesamiento, mientras que Atom Computing almacena todos sus átomos en un solo plano).

El anuncio de Microsoft se centra en los tipos de procesadores capaces de formar conexiones arbitrarias más complejas. Y, bueno, está aprovechando al máximo esta ventaja, creando un sistema de corrección de errores con conexiones que forman un hipercubo de cuatro dimensiones. «Nos hemos centrado en los códigos de cuatro dimensiones debido a su compatibilidad con los diseños de hardware actuales y a corto plazo», declaró Krysta Svore de Microsoft a Ars.

El código no solo describe la disposición de los cúbits y sus conexiones, sino también la función de cada cúbit de hardware. Algunos se utilizan para retener el valor de los cúbits lógicos almacenados en un único bloque de código. Otros se utilizan para las llamadas “mediciones débiles”. Estas mediciones nos indican el estado de los que retienen los datos; no lo suficiente para conocer sus valores (una medición que detendría el entrelazamiento), pero sí para determinar si algo ha cambiado. Los detalles de la medición permiten realizar correcciones que restablecen el valor original.

El sistema de corrección de errores de Microsoft se describe en una preimpresión publicada recientemente por la compañía. Incluye una familia de geometrías relacionadas, cada una con diferentes grados de corrección de errores, según la cantidad de errores simultáneos que pueden identificar y corregir. Las descripciones se basan en lo que cabría esperar de matemáticas y geometrías complejas: «Dada una red Λ con un HNF L , el subespacio de código del código geométrico 4D C Λ está abarcado por la segunda homología H 2 (T Λ ,F 2 ) del 4-toro T Λ» . Sin embargo, la idea principal es que todas ellas convierten conjuntos de cúbits físicos en seis cúbits lógicos con corrección de errores.

Cuantos más cúbits de hardware se añadan para alojar esos seis cúbits lógicos, mayor protección contra errores obtendrá cada uno de ellos. Esto cobra importancia porque algunos algoritmos más sofisticados necesitarán más que la protección contra errores de uno en un millón que, según Svore, proporcionará la versión favorita de Microsoft. Esa favorita es la llamada versión Hadamard, que agrupa 96 cúbits de hardware para formar seis cúbits lógicos y tiene una distancia de ocho (la distancia es una medida de cuántos errores simultáneos puede tolerar). Puede compararse con el anuncio de IBM, que utilizó 144 cúbits de hardware para alojar 12 cúbits lógicos a una distancia de 12 (es decir, más hardware, pero más cúbits lógicos y mayor resistencia a errores).

Las otras cosas buenas

Por sí sola, una descripción de la geometría no resulta especialmente interesante. Sin embargo, Microsoft argumenta que esta familia de códigos de corrección de errores presenta un par de ventajas significativas. «Todos estos códigos de esta familia son lo que llamamos de un solo disparo», explicó Svore. «Eso significa que, con un número muy bajo y constante de rondas para obtener información sobre el ruido, se pueden decodificar y corregir los errores. Esto no aplica a todos los códigos».

Limitar el número de mediciones necesarias para detectar errores es importante. Para empezar, las propias mediciones pueden generar errores, por lo que reducirlas aumenta la robustez del sistema. Además, en computadoras de átomos neutros, los átomos deben trasladarse a ubicaciones específicas donde se realizan las mediciones, y estas las calientan para que no puedan reutilizarse hasta que se enfríen. Por lo tanto, limitar las mediciones necesarias puede ser fundamental para el rendimiento del hardware.

La segunda ventaja de este esquema, como se describe en el borrador del artículo, es que permite realizar todas las operaciones necesarias para la computación cuántica en los cúbits lógicos que alberga. Al igual que en las computadoras convencionales, todos los cálculos complejos que se realizan en una computadora cuántica se basan en un pequeño número de operaciones lógicas simples. Sin embargo, no todas las operaciones lógicas posibles funcionan bien con cualquier esquema de corrección de errores. Por lo tanto, demostrar que un esquema de corrección de errores es compatible con suficientes operaciones pequeñas como para permitir la computación cuántica universal puede ser significativo.

Así, el artículo describe cómo algunas operaciones lógicas se pueden realizar con relativa facilidad, mientras que otras requieren manipulaciones del esquema de corrección de errores para funcionar. (Estas manipulaciones reciben nombres como cirugía reticular y destilación mágica de estados , lo cual indica que el campo no se toma tan en serio).

En resumen, Microsoft considera haber identificado un esquema de corrección de errores bastante compacto, que puede implementarse eficientemente en hardware que almacena cúbits en fotones, átomos o iones atrapados, y que permite la computación universal. Sin embargo, no ha demostrado su funcionamiento. Esto se debe a que, simplemente, no dispone del hardware adecuado actualmente. Azure ofrece máquinas de iones atrapados de IonQ y Qantinuum, pero estas alcanzan un máximo de 56 cúbits, muy por debajo de los 96 necesarios para su versión preferida de estos códigos 4D. La máquina más grande a la que tiene acceso es una máquina de 100 cúbits de la empresa PASQAL, que apenas alcanza los 96 cúbits necesarios, lo que no deja margen de error.

Si bien debería ser posible probar versiones más pequeñas de códigos de la misma familia, el equipo de Azure ya ha demostrado su capacidad para trabajar con códigos de corrección de errores basados ​​en hipercubos, por lo que no está claro si hay algo que ganar con ese enfoque.

Más átomos

En cambio, parece estar esperando a que otro socio, Atom Computing, presente su máquina de próxima generación, diseñada en colaboración con Microsoft. “Esta primera generación que estamos construyendo conjuntamente entre Atom Computing y Microsoft incluirá capacidades cuánticas de vanguardia y tendrá 1200 cúbits físicos”, declaró Svore. “Y la próxima actualización de esa máquina tendrá más de 10 000. De esta manera, se prevé alcanzar más de cien cúbits lógicos con una computación más profunda y fiable”.

El anuncio de hoy vino acompañado de una actualización sobre el progreso de Atom Computing, centrada en un proceso llamado “medición de circuito intermedio”. Normalmente, durante los algoritmos de computación cuántica, es necesario evitar realizar mediciones del valor de los cúbits hasta que se complete el cálculo. Esto se debe a que los cálculos cuánticos dependen de factores como el entrelazamiento y de que cada cúbit se encuentre en una superposición entre sus dos valores; las mediciones pueden provocar el colapso de todo esto, generando valores definitivos y poniendo fin al entrelazamiento.

Sin embargo, los esquemas de corrección de errores cuánticos requieren que algunos cúbits de hardware se sometan a mediciones débiles varias veces durante el proceso de computación. Estas mediciones cuánticas tienen lugar en medio de un cálculo; en otras palabras, mediciones en el circuito intermedio. Para demostrar que su hardware estará a la altura de las expectativas de Microsoft, la compañía decidió realizar demostraciones de mediciones en el circuito intermedio en cúbits implementando un código simple de corrección de errores.

El proceso revela un par de características notables que lo distinguen de hacerlo con átomos neutros. Para empezar, los átomos utilizados para la corrección de errores deben trasladarse a una ubicación (la zona de medición) donde puedan medirse sin perturbar nada más. Posteriormente, la medición suele calentar ligeramente el átomo, lo que significa que debe enfriarse posteriormente. Ninguno de estos procesos es perfecto, por lo que a veces se pierde un átomo y es necesario reemplazarlo con uno de un depósito de repuesto. Finalmente, es necesario restablecer el valor del átomo y devolverlo a su lugar en el cúbit lógico.

Las pruebas revelaron que aproximadamente el 1 % de los átomos se pierden en cada ciclo, pero el sistema los reemplaza con éxito. De hecho, implementaron un sistema donde se visualizan todos los átomos durante el ciclo de medición, y cualquier átomo perdido es identificado por un sistema automatizado y reemplazado.

En general, sin todos estos sistemas instalados, la fidelidad de un cúbit es de aproximadamente el 98 % en este hardware. Con la corrección de errores activada, incluso este simple cúbit lógico vio su fidelidad superar el 99,5 %. Todo esto sugiere que su próxima computadora debería estar a la altura de algunas pruebas importantes del sistema de corrección de errores de Microsoft.

Esperando los láseres

Las preguntas clave son cuándo se lanzará y cuándo le seguirá su sucesor, que debería ser capaz de realizar cálculos reales. Es una pregunta difícil de responder porque, más que otras tecnologías de computación cuántica, la computación atómica neutral depende de algo que no está fabricado por quienes construyen las computadoras: láseres. Todo en este sistema —mantener los átomos en su lugar, moverlos, medir, realizar manipulaciones— se realiza con un láser. Cuanto menor sea el ruido del láser (en términos de factores como la deriva de frecuencia y las fluctuaciones de energía), mejor será su rendimiento.

Así, si bien Atom puede explicar sus necesidades a sus proveedores y trabajar con ellos para conseguir resultados, tiene menos control sobre su destino que otras empresas del sector.

Fotografía de John Timmer

Juan Timmer

Editor científico séniorJohn es el editor científico de Ars Technica. Es licenciado en Bioquímica por la Universidad de Columbia y doctor en Biología Molecular y Celular por la Universidad de California, Berkeley. Cuando no está físicamente cerca de su teclado, suele buscar una bicicleta o un lugar pintoresco para conectar con sus botas de montaña.

Fuente: https://arstechnica.com/science/2025/06/microsoft-lays-out-its-path-to-useful-quantum-computing/

Deja una respuesta