10.000 cúbits podrían romper Internet
Un nuevo análisis técnico replantea cuánto falta realmente para que la computación cuántica deje de ser una amenaza lejana. Hay un detalle clave que cambia las reglas del juego
Fuente: ChatGPT
Eugenio M. Fernández Aguilar, Físico, escritor y divulgador científico
muyinteresante.okdiario.com/13.04.2026
La seguridad digital se apoya en un supuesto muy concreto: que ciertos problemas matemáticos son prácticamente imposibles de resolver con los ordenadores actuales. Este principio sostiene sistemas de cifrado que protegen desde transferencias bancarias hasta comunicaciones privadas. Durante años, la amenaza de los ordenadores cuánticos ha estado presente, pero parecía lejana, casi teórica, limitada por enormes barreras tecnológicas.
Un nuevo trabajo científico (en pre-print) cambia el tono de esa conversación. En lugar de centrarse en avances espectaculares de hardware, el estudio analiza cómo combinar arquitectura, corrección de errores y diseño algorítmico para estimar qué sería necesario en la práctica. El resultado no es un anuncio inmediato de ruptura, sino algo más sutil: una reevaluación de cuán cerca podría estar realmente ese escenario.
El papel clave del algoritmo de Shor en la seguridad digital
El punto de partida es el algoritmo de Shor, una herramienta matemática diseñada en los años noventa que permite factorizar números grandes de forma eficiente en un ordenador cuántico. Esta tarea, aparentemente técnica, tiene implicaciones enormes, puesto que muchos sistemas de cifrado dependen precisamente de la dificultad de realizar esa operación con ordenadores clásicos.
RSA, uno de los estándares más utilizados en Internet, basa su seguridad en este principio. En la práctica, significa que aunque cualquiera pueda ver los datos cifrados, descifrarlos sin la clave adecuada sería inviable con los medios actuales. La llegada de un ordenador cuántico capaz de ejecutar el algoritmo de Shor a gran escala cambiaría esa situación.
Aquí es donde el estudio introduce su enfoque: no se trata solo de saber si el algoritmo funciona, sino de cuántos recursos reales necesitaría para aplicarse a sistemas criptográficos concretos como RSA-2048 o ECC-256. Este cambio de perspectiva es fundamental, porque traduce una posibilidad teórica en un escenario técnico evaluable.

(a) Esquema de un sistema cuántico con diferentes zonas para almacenar, procesar y operar información. (b) Evolución de las estimaciones de cúbits requeridos para ejecutar el algoritmo de Shor. Fuente: arXiv
Por qué los cúbits son tan problemáticos
A diferencia de los bits clásicos, los cúbits son extremadamente sensibles al entorno. Esto significa que pueden cometer errores con mucha más facilidad durante los cálculos. En términos simples, un ordenador cuántico sin mecanismos de corrección sería demasiado inestable para realizar tareas largas o complejas.
Para resolver este problema se utilizan técnicas de corrección de errores cuánticos, que consisten en agrupar varios cúbits físicos para crear lo que se conoce como cúbits lógicos. Si uno falla, la información puede recuperarse a partir del resto. Sin embargo, este proceso tiene un coste: tradicionalmente se pensaba que hacían falta cientos o miles de cúbits físicos para representar uno lógico.
El artículo científico aborda precisamente este cuello de botella. Según el propio trabajo, “los requisitos de cúbits están impulsados por la gran sobrecarga de la corrección de errores cuánticos, que a menudo requiere cientos de cúbits físicos para codificar un único cúbit lógico”. Esta limitación ha sido durante años una de las principales razones por las que se estimaban sistemas con millones de cúbits.
El cambio de paradigma: menos cúbits, más eficiencia
El resultado más relevante del estudio aparece cuando se combinan nuevas arquitecturas con códigos de alta eficiencia. Los autores proponen sistemas basados en átomos neutros que permiten reorganizar los cúbits durante el cálculo y mejorar la forma en que se distribuyen los errores.
En este contexto, el trabajo afirma que “encontramos que el algoritmo de Shor puede implementarse a escalas criptográficamente relevantes utilizando tan solo 10.000 cúbits atómicos”. Esta cifra representa un cambio importante respecto a estimaciones anteriores, que situaban el umbral en varios millones.
No se trata solo de reducir números, sino de redefinir el problema. El estudio muestra que la combinación de conectividad no local, paralelismo y nuevos códigos de corrección puede disminuir drásticamente los recursos necesarios. Además, añade que “los tiempos de ejecución pueden reducirse en órdenes de magnitud aprovechando el paralelismo”, lo que introduce una segunda variable crítica: el tiempo necesario para romper un sistema de cifrado.
Este doble ajuste —menos cúbits y menos tiempo— es lo que convierte el resultado en algo relevante más allá de la teoría.
![]() |
| Rendimiento de los códigos cuánticos y arquitectura lógica: comparación de tasas de error y flujo de procesamiento en un sistema cuántico con corrección de errores. Fuente: arXiv |
Cuánto tiempo llevaría realmente romper el cifrado
Una vez establecidos los requisitos de hardware, el siguiente paso es estimar el tiempo de ejecución. El estudio analiza distintos escenarios y arquitecturas, mostrando que el rendimiento puede variar enormemente dependiendo de cómo se organice el sistema.
En algunos casos, los cálculos podrían completarse en días o semanas, mientras que en otros se necesitarían meses. Esta variabilidad depende de factores como el grado de paralelismo o la eficiencia de los circuitos cuánticos utilizados. Según el paper, “nuestros diseños más eficientes en tiempo podrían permitir tiempos de ejecución de 10 días para ECC–256 con aproximadamente 26.000 cúbits, y 97 días para RSA–2048 con aproximadamente 102.000 cúbits”.
Esto introduce una idea clave: no existe un único “ordenador cuántico definitivo”, sino múltiples configuraciones posibles con distintos compromisos entre recursos y tiempo. Aun así, el hecho de que estos cálculos entren en escalas temporales humanas cambia la percepción del riesgo.
Además, el propio trabajo señala que estos valores podrían mejorar. Los avances en algoritmos, hardware y corrección de errores podrían reducir aún más los tiempos, lo que añade incertidumbre sobre los límites reales del sistema.
Arquitecturas de átomos neutros: cómo funcionan
El tipo de ordenador cuántico que se analiza en el estudio no es el más conocido. En lugar de circuitos superconductores, se centra en sistemas de átomos neutros atrapados con láseres, conocidos como pinzas ópticas.
Estos átomos pueden reorganizarse dinámicamente durante el cálculo, lo que permite crear conexiones entre cúbits que no están físicamente juntos. Esta propiedad es clave para implementar ciertos códigos de corrección de errores más eficientes y para ejecutar operaciones en paralelo.
El paper describe cómo esta arquitectura permite combinar distintas funciones en el mismo sistema, desde almacenamiento hasta procesamiento. También destaca que “matrices reconfigurables de átomos ofrecen ventajas únicas para la corrección de errores cuánticos porque los cúbits pueden reorganizarse dinámicamente durante un cálculo”.
Esta flexibilidad es lo que hace posible reducir la cantidad total de cúbits necesarios sin perder capacidad de cálculo, algo que en arquitecturas más rígidas resulta mucho más difícil.
Lo que implica para el futuro de la criptografía
El impacto de estos resultados no es inmediato, pero sí relevante. La criptografía actual no se rompe hoy, pero el horizonte en el que podría dejar de ser segura parece más cercano de lo que se pensaba. Esto ha llevado a organismos y empresas a trabajar en lo que se conoce como criptografía post-cuántica, diseñada para resistir ataques de este tipo.
El propio estudio subraya la importancia de este cambio. Señala que “nuestro análisis indica que una arquitectura de átomos neutros adecuadamente diseñada podría soportar computación cuántica a escalas criptográficamente relevantes”, lo que refuerza la necesidad de preparar la transición.
Al mismo tiempo, también advierte que aún quedan desafíos importantes. Construir estos sistemas requerirá avances en ingeniería, estabilidad y control que todavía no están completamente resueltos. Sin embargo, la tendencia es clara: el problema ya no es solo teórico, sino una cuestión de desarrollo tecnológico progresivo.
____________
Referencias
Gidney, C. et al. (2026). Fault-tolerant quantum computing with reconfigurable neutral atom arrays. arXiv. https://doi.org/10.48550/arXiv.2603.28627.
_________
Fuente:

