01-04-2007
Autor
Dr. Rubens Arizmendi
Systems Engineer, Expert in Mathematics, Computation and Systems. Ingeniero de la Universidad de Montevideo-Uruguay. Studies in M.I.T. (USA). Doctor of Science in Information Systems Engineering, Tecana American University.

Mientras unos van en pos de la tecnología que permita llegar a los infinitos confines del Universo (apenas hemos recorrido unos pocos millones de kilómetros), otra parte grande del mundo de la Física y en particular de la Cibernética está abriendo las puertas de la hasta ahora impenetra-ble pequeñez de la materia.

Desde hace tiempo, los científicos crearon los prefijos Nano, Pico, Femto y Atto para designar a los exponentes del Diez que van desde el –9 hasta el –18. Ya se maneja la Nanotecnología, y para avanzar hacia la siguiente profundidad, la Física se enfrenta con la Mecánica Cuántica, que se ocupa de las partículas en que está dividido el átomo y a la vez sus subdivisiones el Electrón, el Quark y otra enorme variedad de nombres en tanto que “Giga” forma parte del léxico popular.

Desde el primer circuito integrado de hace 40 años, la computación se ha basado en la miniaturización creciente de sus componentes con increíbles aumentos en la densidad de transistores por chip. Se pueden fabricar chips de un cuarto de micrón (millonésima de metro) conteniendo cerca de 200 millones de transistores (sin contar lo que  se tiene en  laboratorios para liberar en próximos años).

La Computación Cuántica aún se halla  detectando y resolviendo sus  propios apasionantes proble-mas. El más importante es la dificultad de mantener al bit cuántico, el Qubit, en un estado tal que pueda almacenar

dos valores a la vez en lugar de uno solo como el bit binario. Hay que superar el sistema de captura y refrescamiento del impulso electrónico, normal según  la Física clásica y que ni siquiera se aprecia hoy en día como parpadeo del cursor ante el manejo por el tacto; es que la mínima interacción con el entorno obliga al qubit a adoptar valor  Cero o Uno, anulándose la posibilidad de efectuar cómputos en paralelo

En este punto la Mecánica Cuántica sostiene que cuando se trata de observar y estudiar objetos del tamaño igual o menor que el átomo, es imposible hacer observaciones objetivas que no perturben de manera importante a dicho objeto. El principio que rige en este caso se llama “De Incertidumbre de Heisenberg”, el cual limita la precisión de cualquier observación sobre partículas subatómicas pues se afecta de modo incontrolable el equilibrio entre las diferentes variables que componen la partícula. Dicho de otra manera, en el mundo del átomo se pierden las trayectorias objetivas habituales de la experiencia diaria.

Se ha logrado fabricar qubits con  una duración de pequeñas fracciones de  segundos de vida manipulando los núcleos atómicos de moléculas en una solución, y aún en estado sólido por medio de metal y silicón, pero todavía no son fáciles de agrupar de manera de explotar sus increíbles posibilidades de cómputo.

 

“Volarán” los tiempos de proceso

Un artículo de la revista científica Science explicaba “la posibilidad de manipular un qubit de modo de cambiar su estado cada 100 femtosegundos (el femto vale 10 a la –15) de modo que puedan efectuarse un millón de cambios de estado antes que ese qubit se desapareciera, tiempo durante el cual  el cual podría realizar un trabajo útil. Para esos experimentos se usaron pulsos de láser de diferente frecuencia para manipular electrones en un material semiconductor, procurando que el espín (rotación)  de los diferentes electrones adoptara un mismo valor para luego cambiar ese valor y medir el cambio. Esta habilidad de manipular partículas subatómicas a tan alta velocidad parece abrir posibilidades de fabricar qubits que puedan agruparse para realizar trabajos específicos, en este caso, cálculos.”

A nivel  de hardware, a medida que la información pase a ser representada por partículas subatómicas en lugar de usar las diferencias de voltaje de los componentes de la computadora, los dispositivos tendrán que reconocer distintos  fenómenos cuánticos como los varios estados atómicos (niveles de energía), o las diferentes formas de movilizaciones.

Pero lo más espectacular ocurre con los algoritmos, para los cuales la computación cuántica abre posibilidades increíbles como la disminución hipergeométrica en los tiempos de procesamiento y la realización de operaciones en paralelo sin necesidad de agregar procesadores a la máquina. No debe olvidarse que las partículas a esos niveles son consideradas como “ondas que se propagan”, como si el electrón pudiera estar en varias partes a la vez. Y como tales, las partículas pueden experi-mentar interferencias no solo con otras partículas sino consigo mismas. (Cuidado, nos estamos refiriendo a múltiples procesadores en una misma máquina. . . )

 

La Superposición “coherente”

Una amplia y esclarecedora interpretación de todo esto se toma de la página web “Cuantum Computing”, vinculo desde la página “qubit.org”, bajo el titulo “A short introduction to quantum computation (from Un saut d’échelle pour les calculateurs), por Barenco, Ekert, Sanpers y Machiavello, appeared in La Recherche, Nov 1996”.

Dice el artículo que “Por ejemplo, en los computadores digitales, el voltaje entre dos placas en un capacitor representa un bit de información: vale 1 si el capacitor está cargado, 0 en caso contrario. Un bit de información puede ser codificado usando dos polarizaciones diferentes de luz, o dos estados diferentes en un átomo. Sin embargo, si usamos al átomo como bit físico, entonces la mecánica cuántica nos dice que además de los estados electrónicos ese átomo puede ser también preparado en una superposición coherente de dos estados. Y eso significa que el átomo se encuentra en estado 1 y en estado 0 al mismo tiempo.”

Para tener noción de cómo un objeto cuántico puede estar en dos estados a la vez, acudiremos a la siguiente experiencia: supongamos que pudiéra-mos aislar una partícula de luz (llamada Fotón) y que la reflejemos en repetidas ocasiones hacia uno de esos espejos que reflejan exactamente el 50% de la luz mientras la otra mitad de la luz es trasmitida directamente a través de él. ¿Dónde piensa el lector que está el fotón después de su encuentro con el espejo, en el rayo reflejado o en el rayo trasmitido? Sería sensible decir que tiene la misma probabilidad de estar en uno u otro, en cuyo caso dicho fotón podría elegir en forma random hacia qué camino ir.

Efectivamente, si colocamos dos fotodetectores detrás del semi-espejo en líneas directas de los dos rayos, el fotón “debiera” ser detectado con la misma probabilidad en uno u otro. Pero no es así: el fotón toma los dos caminos a la vez.

Esto puede ser demostrado recombinando los dos rayos con la ayuda de dos espejos completos y colocando otro espejo semireflector en el punto de cruce de los rayos, y aún dos fotodetectores más en líneas directas con ambos rayos (se trata de un esquema algo complicado pero fielmente traducido del inglés). Y así podrá observarse un fenómeno de interferencia cuántica realmente sorprendente.

Si se coloca una pantalla que absorba el fotón en la línea de cualquiera de ambos caminos, se podrá observar que ambos detectores vuelven a ser activados en forma intermitente, lo que dicho en lenguaje técnico, significa que el fotón se halla en “superposición coherente” para ser trasmitido en uno u otro rayo. Y en forma general un átomo puede ser preparado en una superposición de dos estados electrónicos diferentes y este sistema cuántico de doble estado se denominará “quantum bit” o “qubit”. Concretando, un qubit puede ser codificado en un momento dado, como un 1 y un 0 a la vez y en este caso no será biestable sino de doble estado).

Para tener una idea numérica, si tenemos un registro clásico de tres bits sólo podemos registrar un valor y uno solo de los 8 que van desde el 000 hasta el 111; en cambio si es un registro cuántico de tres qubits, por el fenómeno de la superposición cada uno puede estar en 0 o en 1, y su capacidad de almacenamiento será de 8 valores a la vez. Luego, L qubits podrán almacenar (2 elevado a la L números a la vez) y este será el factor de multiplicación del almacenamiento cuántico.

Comparación impactante: si el registro fuera de 300 qubits, ese numero superaría al de partículas en el mundo entero.

 

Miles de  algoritmos “en paralelo”

En cuanto a algoritmos, sigue diciendo el referido informe:

“Como se pueden efectuar operaciones en todos esos números a la vez si los qubits fuesen átomos, entonces adecuados pulsos de láser afectarían sus estados electrónicos involucrando en diferentes superposiciones a los números procesados, lo que generará una computación paralela masiva en un solo dispositivo de hardware cuántico. Esto equivale a decir que un computador cuántico puede en un solo paso computacional realizar la misma operación matemática en (2 elevado a la L) diferentes inputs de números codificados en superposiciones coherentes de L qubits.

Para cumplir esta misma tarea cualquier computador clásico debe repetir la misma operación (2 elevado a la L) veces o tener esa misma cantidad de procesadores diferentes trabajando en paralelo. En otras palabras, un computador cuántico ofrece una ganancia enorme en el uso de los recursos computacionales tales como memoria y tiempo. Esta necesidad de mayores tiempo y memoria en niveles exponen-ciales  hace que a medida que crecen los dígitos de los valores procesados, las comparaciones resultarían fabulosas. En un algoritmo corriente que factorice números enteros, si este tiene 1.000 dígitos o más, la computación tomaría más tiempo que la edad estimada del Universo. En cuántica, menos de una hora “. - ¿Impactante, no?

La historia de la computación cuántica comienza en 1982, cuando el físico Rochard Feynman trabajó sobre la simulación de objetos mecánico-cuánticos sobre otros sistemas cuánticos, pero el verdadero poder de la nueva computación comenzó a verse cuando David Deutsch de la Universidad de Oxford publicó un trabajo teórico crucial en el que describía al computador cuántico. De ahí en adelante el tema fue una curiosidad académica hasta que inesperadamente Peter Shor de los laboratorios de AT&T Bell escribió el primer algoritmo cuántico de factorización, llamado “la aplicación asesina”.

Existen ya algunas realidades teóricas: en materia de encriptado, el computador cuántico tumba la base de los métodos actuales (el tiempo de descifrado) y hará obsoletos todos los métodos conocidos. En suma, todos los procesos de la información experimentarían una auténtica revolución afectando las tecnologías existentes.

Al día de hoy, la computación cuántica tiene muchos detractores, y algunos con poderosas razones técnicas. Pero, la respuesta en favor de esa “seudoutopía” es aquella “verdad científica” de que “ninguna máquina más pesada que al aire podrá volar...”