Computación Cuántica #2


Historia 



Las computadoras cuánticas surgieron por la década de los 80 gracias a Richard Feynman y Yuri Manin. En un discurso titulado “Simulación de física con computadoras”, Feynman argumentó que una computadora cuántica tenía el potencial de simular fenómenos físicos que una computadora clásica no podía simular.

Complementando lo anterior, te contamos loshitos más sobresalientes de la historia que preceden al chip cuántico:

  • En 1985 David Deutsch genera una descripción para una máquina cuántica de Turing.
  • Para 1992, el algoritmo Deutsch-Jozsa es uno de los primeros ejemplos de algoritmos cuánticos.
  • En 1999, Yasunobu Nakamura de la Universidad de Tokio y Jaw-Shen Tsai de la Universidad de Ciencias de Tokio confirman que un circuito superconductor puede emplearse como un qubit.
  • D-Wave Systems ofrece en el 2011 la primera computadora cuánticacomercialmente disponible.
  • Google, en el 2019, asevera haber alcanzado la supremacía cuántica al realizar una serie de operaciones en 200 segundos que una supercomputadora tardaría unos diez mil años en completar. A este respecto, IBM sugiere que una labor podría tomar 2,5 días en lugar de diez mil años. Además, destaca las técnicas que una supercomputadora puede usar para maximizar la velocidad de cómputo.

El primer chip cuántico de la historia

En las últimas semanas de junio del 2022 fuimos testigos de una asombrosa noticia: el primer chip cuántico de la historia. De acuerdo con la líder del proyecto y fundadora de Silicon Quantum Computing (SQC), Michelle Simmons, ha sido una gran evolución para el mundo tecnológico de hoy.

Así, este grupo de científicos australianos crearon el primer chip cuántico del mundo. Este contiene todos los componentes esenciales que se encuentran en un chip de computadora clásico, pero en una escala cuántica.

El chip creado por SQC es capaz de simular una molécula llamada poliacetileno. Asimismo, los científicos explicaron que al colocar átomos en silicio con precisión subnanométrica, se imitan los enlaces de carbono simples y dobles de una cadena de poliacetileno.

Las tres hazañas tecnológicas del chip cuántico

Para el logro de este gran avance, se realizaron tres importantes acciones:

  1. La creación de puntos tan pequeños de átomos de tamaño uniforme. Esto permitió que los niveles de energía se alinearan y los electrones pudieran atravesarlos fácilmente.
  2. La capacidad de ajustar los niveles de energía de cada punto individual y colectivamente. Esto controla el paso de la información cuántica.
  3. Se logró que la capacidad de los equipos controlara las distancias entre los puntos con precisión subnanométrica. El propósito era que los puntos estuvieran lo suficientemente cerca, pero permanecieran independientes para el transporte cuántico coherente de electrones a través de la cadena.

Este asombroso desarrollo de la tecnología de circuitos a escala atómica permitirá a los clientes construir modelos cuánticos para una gama de nuevos materiales. En consecuencia, se pueden crear productos:

  • Farmacéuticos.
  • Materiales para baterías.
  • Catalizadores.

Problemas

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética), está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuántica, con lo cual sí serían posibles tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10–4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.

El doctor Steven Girvin (profesor de física en el Instituto Cuántico de Yale), cuyo enfoque principal es la corrección de errores cuánticos y tratar de comprender el concepto de tolerancia a fallos, dice que «todos creen saberlo cuando lo ven, pero nadie en el caso cuántico puede definirlo con precisión». Así mismo, menciona que en un sistema cuántico, cuando se observa la tolerancia a fallos o se realizan mediciones, el sistema puede cambiar de una manera que está fuera de control.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en cúbits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de cúbits para resolver problemas computacionalmente interesantes hoy en día.

Desventajas 

  • Una de las desventajas que posee es su alto costo.
  • No se ha encontrado el hardware adecuado.
  • Posee una serie de condiciones que se deben cumplir para su uso, tiene grandes dificultades técnicas.
  • Necesita grandes cantidades de qubits para cualquier cálculo.
  • La superposición cuántica es difícil de obtener y de mantener.
  • Necesita mantenimiento

Riesgos

Como señala Forbes, un gran riesgo social que presenta la computación cuántica es el crecimiento exponencial de la brecha digital. Sus elevados costos significan que solo los más acaudalados tendrán acceso a esta tecnología. Esto tan solo acentuará la brecha digital

Comentarios

Publicar un comentario

Entradas más populares de este blog

Desfracmentador de Disco Duro

Python