Etiqueta: Computación cuántica

Lógica cuántica

Lógica cuántica

La computación cuántica es una corriente que se está propagando dentro de las nuevas investigaciones, con el objetivo de hacer que las máquinas puedan resolver en un tiempo menor los problemas. Con este tipo de investigación se logra fusionar dos teorías que están luchando por mantenerse una y sobresalir la otra, la física clásica y la física cuántica, los conceptos de una y otra hicieron nacer primero el concepto de computación normal y ahora con los nuevos conceptos aplicados a la computación de la física cuántica surge la computación cuántica.

Una de las primeras presentaciones de la idea de potencialidad clásica puede ser encontrada en el famoso poema de Parménides con la exposición del principio lógico de no contradicción. Este principio esconde una ontología donde lo actual, lo determinado, se presenta como fundamento de toda forma de pensamiento. El principio de no contradicción evita la posibilidad de pensar aquello que se encuentra indeterminado, todo debe ser en tanto que es, o no es. El espectro se resume, se amputa ante la posibilidad de lo indeterminado. Del mismo modo, en lógica clásica, las proposiciones encuentran su determinación en las tablas de verdad: una proposición resulta entonces verdadera o falsa. El principio de no contradicción esconde detrás de sí el principio de identidad: si A es A, entonces A no puede ser no A.

Este presupuesto se presenta como una intuición incuestionable, sin embargo, existen muchos camia la hora de “elegir”. Una lógica exenta del principio de no contradicción no se encuentra condenada al sinsentido, muy por el contrario, del mismo modo en que la geometría no Euclidiana resulta un sistema en pie de igualdad al de la geometría Euclidiana, las lógicas carentes de éste principio pueden sostener cierto “sentido”. La geometría de Riemann atenta contra el “sentido común”: en ella la idea de que dos paralelas no se cruzan es dejada de lado. Los matemáticos anteriores buscaban una demostración ad absurdum de la imposibilidad de desprenderse del quinto axioma de Euclides; en su lugar Riemann erigió un nuevo sistema en geometría tan consistente como su predecesor. Este sinsentido, que es la geometría de Riemann, hizo posible el desarrollo de la teoría de la relatividad, una de las más bellas teorías creadas por el hombre; del mismo modo, una lógica carente del principio de no contradicción puede abrir las puertas de la mecánica cuántica. El principio de no contradicción hace explicita la negación de aquello que se presenta indeterminado; ha creado al mismo tiempo un sendero “seguro” que ha seguido el pensamiento occidental a través de centurias. Este es el camino de la objetividad. La idea de objeto se sustenta en la estabilidad del ser, en la posibilidad de adjudicar a una entidad una serie de propiedades que la determinan.

El significado de una sentencia elemental en la lógica asociada a la computación cuántica está representado por la cantidad de información cuántica codificada en una colección de qbits, el equivalente cuántico de los bits clásicos o de qmixes. La conjunción y la disyunción de la información contenida en los q-registros tienen características diferentes de sus homónimas no solo en la lógica clásica sino también en la lógica cuántica estándar. La articulación de esas sentencias admite además otros conectivos, como el unario no funcional, que reflejan un comportamiento cuántico genuino asociado al procesamiento de la información en una computadora cuántica, en particular la aparición de estados tipo gato de Schrodinger de los qbits, que no admiten un paralelo ni en la lógica clásica ni en la cuántica ordinaria. Se puede decir que existe una lógica cuántica, pero esa lógica fue inventada mucho antes de la computación cuántica; fue desarrollada con base en la mecánica cuántica, de manera ad-hoc, tratando de capturar su comportamiento. Luego, con el advenimiento de la computación cuántica, se ha tratado intensamente de hacer una correspondencia entre los algoritmos cuánticos y la lógica cuántica, para lo cual se ha ido modificando la lógica a medida que avanzan las investigaciones de manera de adecuarla a los algoritmos.

En física, la lógica cuántica es el conjunto de reglas algebraicas que rigen las operaciones para combinar y los predicados para relacionar proposiciones asociadas a acontecimientos físicos que se observan a escalas atómicas. Ejemplos de tales proposiciones son aquellas relativas al momento lineal o a la posición en el espacio de un electrón. La lógica cuántica puede considerarse como un sistema formal paralelo al cálculo proposicional de la lógica clásica, donde en esta última, las operaciones para combinar proposiciones son las conectivas lógicas y los predicados entre proposiciones son la equivalencia y la implicación. La lógica cuántica fue creada con el propósito de tratar matemáticamente las anomalías relativas a la medición en la mecánica cuántica. Estas anomalías surgen por la medición simultánea de observables complementarios en escalas atómicas.

El concepto de lógica cuántica fue propuesto originalmente por Garrett Birkhoff y John von Neumann en el año 1936. Tal como fue propuesta originalmente, la lógica cuántica se fundamenta en la idea que el reticulado de proyecciones ortogonales en un espacio de Hilbert es la estructura que corresponde en la mecánica cuántica al reticulado de proposiciones en la física clásica. La lógica cuántica puede formularse como una versión modificada de la lógica proposicional. Tiene algunas propiedades que la diferencian de la lógica clásica, la más notable es que la propiedad distributiva, que constituye una propiedad básica en la lógica clásica, ya no es válida en la lógica cuántica.

La tesis que la lógica cuántica es la lógica apropiada para el raciocinio de manera general ha sido trabajada por varios filósofos y físicos. Entre los proponentes de esta tesis se encuentra el filósofo estadounidense Hilary Putnam, la tesis mencionada fue un ingrediente importante en su trabajo titulado “¿Es empírica la lógica?” en el cual analizó el fundamento epistemológico de las leyes de la lógica proposicional. Putnam atribuyó la idea que las anomalías asociadas a la medición cuántica surgen de anomalías en la lógica de la física misma, en conjunción con el investigador David Finkelstein.

La idea que una modificación de las reglas de la lógica sería necesaria para razonar correctamente con proposiciones relativas a eventos subatómicos, había existido en alguna forma con anterioridad al trabajo de Putnam. Ideas parecidas, aunque con menos proyección filosófica habían sido propuestas por el matemático George Mackey en sus estudios en los cuales relacionaba la teoría cuántica y la teoría de representaciones unitarias de grupos. Sin embargo, el punto de vista más prevaleciente entre los especialistas en fundamentos de mecánica cuántica, es que la lógica cuántica no debe considerarse como un sistema de reglas de deducción. Lo que la lógica cuántica proporciona es un formalismo matemático para relacionar diversos elementos de la mecánica cuántica, que son, a saber, filtros físicos para la preparación de estados y los estados mismos.

Las leyes formales de una teoría física están justificadas por un proceso de repetidas observaciones controladas. Esto, desde el punto de vista físico constituye el significado de la naturaleza empírica de estas leyes. La idea de una lógica proposicional con reglas radicalmente diferentes de la lógica booleana no era algo novedoso. De hecho, como ya se ha mencionado, Birkhoff y von Neumann lo habían intentado a partir precisamente de la mecánica cuántica. Putnam y el físico David Finkelstein propusieron que había algo más en esta correspondencia que la mera analogía: Que de hecho existía un sistema lógico cuya semántica estaba dada por un retículo de los operadores de proyección en un espacio de Hilbert. Esta era en realidad la lógica correcta para razonar sobre el mundo microscópico.

Desde esta perspectiva, la lógica clásica era meramente un caso límite de esta nueva lógica. Si así fuera el caso, entonces la lógica booleana “preconcebida” tendría que ser rechazada por evidencia empírica en la misma forma en que la geometría euclidiana fue rechazada sobre la base de los hechos que apoyan la teoría de la relatividad general. Este argumento favorece la concepción de que las reglas de la lógica son empíricas. Dicha lógica llegó a ser conocida como lógica cuántica. Sin embargo, hay algunos filósofos hoy en día que ven esta lógica como un reemplazo de la lógica clásica; Putnam sostiene esta opinión. La lógica cuántica continua siendo utilizada como un formalismo fundacional para la mecánica cuántica, pero en una forma en que los eventos primitivos no son interpretados como frases atómicas sino en términos operacionales como los resultados posibles de las observaciones. Por consiguiente la lógica cuántica proporciona una teoría matemática unificada y consistente de los observables físicos y la medición cuántica.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Noviembre 2 de 2009
Software cuántico

Software cuántico

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras que, una computadora clásica equivale a una máquina de Turing, una computadora cuántica equivale a una máquina de Turing indeterminista.

A lo largo de la historia el ser humano ha usado diversos materiales y utilizado múltiples mecanismos en el diseño, construcción y operación de máquinas que agilicen y automaticen la realización de cálculos y el procesamiento de información, desde el ábaco hasta las actuales computadoras personales. En los últimos años la densidad de los circuitos electrónicos ha aumentado sin cesar, gracias a la disminución en el tamaño de los componentes. Pero supuestamente llegará un momento en que no sea posible reducir más los circuitos. Debido a que muy pronto la miniaturización será tal que las leyes de la física clásica ya no sean válidas, entonces se entrará en los dominios del mundo subatómico, y aquí es donde entra la mecánica cuántica. Dado que el tratamiento de la información cuántica es notablemente distinto al que se hace con la información clásica, se necesitaran algunas herramientas para construir el denominado software o programa cuántico.

El software es un elemento lógico de un sistema computacional, a diferencia del hardware que es un elemento físico, y presenta las siguientes características: (1) Se desarrolla no se fabrica en un sentido clásico. (2) No se estropea, se deteriora hasta la obsolescencia. (3) Se construye a medida, en lugar de ensamblarse a partir de componentes existentes. Existen tres cosas básicas que distinguen de manera inicial al software cuántico: (1) Un conjunto apropiado de puertas. Una forma de obtener puertas cuánticas es la cuantización de las puertas clásicas, que pasa por reinterpretar los bits como qubits. Se puede demostrar que el conjunto de puertas cuánticas que afectan a un sólo qubit, conjuntamente con las puertas llamadas control-not, que son aquellas que afectan a dos qubits, forman un conjunto universal con las que se puede construir cualquier programa cuántico. (2) Algoritmos que aprovechen el comportamiento cuántico. A pesar del esfuerzo que se ha dedicado a la obtención de algoritmos que aprovechen el comportamiento cuántico, en la actualidad, su número es bastante reducido. Aunque mediante superposiciones apropiadas, es posible manejar un número exponencial de estados, eso no supone que esta información esté disponible. Para acceder a esa información se debe medir sobre el estado colapsándolo, y la información se pierde casi en su totalidad. Para aprovechar los aspectos cuánticos, es necesario combinar la posibilidad del paralelismo cuántico con la interferencia. (3) Métodos apropiados para controlar los posibles errores. Quizás es éste uno de los mayores problemas a la hora de construir una computadora. Estos errores provienen de la inexorable interacción de la computadora con su entorno, proceso denominado decoherencia. Se pensó que no podían existir métodos para el control de errores cuánticos, pero se ha mostrado cómo es posible contener los errores mediante códigos cuánticos correctores de errores. Estos códigos, detectan y corrigen estos errores, usando sofisticadas técnicas cuánticas.

En resumen, la ventaja en la potencia de estas máquinas proviene del paralelismo masivo y exponencial, debido a la superposición de estados en los qubit. Si estas computadoras fueran factibles en la práctica, permitirían atacar aquellos problemas que en las computadoras clásicas implicarían tiempos astronómicos. Aparte de las aplicaciones encaminadas a la ciencia básica, estas computadoras podrían usarse en la criptografía, criptoanálisis, búsquedas en inmensas bases de datos, simulaciones meteorológicas, etc. Queda por saber si el aislamiento de los sistemas permitirá escapar al límite impuesto por el decaimiento y la decoherencia que destruyen la mezcla cuántica de estados. Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.

A diferencia de los bloques binarios de una computadora convencional con interruptores de apagado-encendido, ó cero-uno, los bloques básicos de las computadoras cuánticas, conocidos como bits cuánticos, o qubits, tienen la capacidad, difícil de entender para la mente humana, de existir en ambos estados “encendido” y “apagado” simultáneamente, como consecuencia del principio de superposición de la física cuántica. Una vez dominado el principio de superposición, éste debería permitir a las computadoras cuánticas extraer patrones de los resultados de un gran número de cómputos sin realizarlos todos realmente, otro fenómeno que constituye un desafío para la lógica humana. Un problema, sin embargo, es que los prototipos de los procesadores cuánticos son propensos a los errores causados, por ejemplo, por el “ruido” de los campos eléctricos o magnéticos. Las computadoras convencionales pueden protegerse contra los errores usando técnicas como la repetición, en la cual, como su nombre sugiere, la información de cada bit es copiada varias veces y las copias se verifican entre sí a medida que avanza el cálculo. Pero esta clase de redundancia es imposible en una computadora cuántica, ya que en ella las leyes del mundo cuántico prohíben duplicar tal información.

Para mejorar la eficacia de la corrección de errores, los investigadores están diseñando arquitecturas de computadoras cuánticas que limiten la propagación de los errores. Una de las formas más simples y eficaces de asegurar esto es el citado método mediante software, un equipo de investigadores ha demostrado matemáticamente como inadecuado para ser usado como sistema único en esa tarea de protección contra los errores. Por consiguiente es necesario emplear soluciones más complejas para manejar y corregir los errores.

Intuitivamente es posible concluir que en una computadora cuántica el poder de proceso es exponencialmente mayor. Un problema bastante álgido es el relacionado con el manejo de operadores lógicos. Los operadores lógicos tradicionales que sustentan a las computadoras actuales tienen un valor bastante bajo en un dominio cuántico. Hasta ahora el problema de la computación cuántica no ha sido tanto de nanoingeniería, aislar y manipular la orientación de un grupo de átomos, sino de implementar en esos sistemas de laboratorio, aún bastante primitivos, algoritmos y sistemas lógicos funcionales que permitan realizar cálculos y operaciones útiles que posibiliten un ulterior desarrollo de software para los sistemas. La verdadera frontera está en la algoritmia y la lógica. Por ejemplo, en las computadoras actuales, los procesadores fallan continuamente aunque el usuario no siempre está enterado, cada operación se repite un cierto número de veces, se compara el resultado y el más repetido se da por bueno. Algo que no se puede hacer en un mundo cuántico, donde la observación modifica el resultado.

El año 1999 el matemático Peter W. Shor y el físico Andrew M. Steane idearon un algoritmo que permitía resolver este problema. El año 1994 Shor fue aún más lejos desarrollando un algoritmo que permitía factorizar números con sistemas cuánticos: la clave para romper sistemas criptográficos. En diciembre del año 2001, la empresa IBM declaró haber implementado el sistema en una computadora de siete átomos, factorizando con éxito el número 15, es decir obteniendo como resultado 3×5.

Sin embargo, un equipo japonés ha saltado a la actualidad al publicar sus resultados en la revista “Nature” capitaneado por el profesor Tsai Jaw-Shen, de la empresa NEC, llevando hasta el momento una gran ventaja respecto a estudios precedentes. El grupo japonés ha implementado con relativo éxito el año 1999 el equivalente cuántico de uno de los dos operadores lógicos que se necesitan para construir una computadora cuántica funcional. Al año 2008 ha realizado la implementación de un segundo operador. Su objetivo ahora es combinar ambos en lo que llama una puerta única, la base de las futuras computadoras cuánticas. El objetivo de este grupo de investigadores es construir algunos algoritmos cuánticos basados en estos operadores. Y es que aunque las computadoras cuánticas puedan tardar en llegar a ser plenamente operativas más de una década, nadie duda de que una serie de aplicaciones, como la factorización de grandes números, puedan estar desarrolladas experimentalmente mucho antes.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Julio 27 de 2009

Factorización cuántica

Factorización cuántica

Desde tiempos del genial Euclides se conoce que todo entero positivo puede ser factorizado en forma única como un producto de números primos, excepto por el orden de sus factores; esta propiedad es conocida como el “teorema fundamental de la aritmética”. En la actualidad, los sistemas de encriptación de datos ampliamente utilizados, tales como el sistema criptográfico “Rivest, Shamir, Adleman”, están basados en la siguiente conjetura: La factorización de enteros es mucho más difícil que su multiplicación. Mientras que la multiplicación de enteros se realiza en tiempo polinomial, no hay algoritmos clásicos de tiempo polinomial para su factorización. Esta suposición se encuentra fundamentada en el hecho de que, a pesar de los esfuerzos para encontrar un algoritmo de factorización de tiempo polinomial, no se ha tenido éxito hasta ahora. El algoritmo clásico más eficiente, para este propósito, conocido hasta la fecha es la “criba numérica de campo”. La criba numérica de campo es un algoritmo especializado de factorización en números primos. La frase “criba del cuerpo de números” se utiliza de manera equivalente a la criba general numérica de campo.

En teoría de números, el problema de la factorización de enteros consiste en encontrar un divisor no trivial de un número compuesto. Cuando los números son muy grandes no se conoce ningún algoritmo que resuelva eficientemente este problema; un reciente intento de factorizar un número de 200 dígitos tardó 18 meses y consumió más de medio siglo de tiempo de cálculo. Su supuesta dificultad es el núcleo de ciertos algoritmos criptográficos. Muchas áreas de las matemáticas y de las ciencias de la computación, como la teoría algebraica de números, las curvas elípticas o la computación cuántica, están relacionadas con este problema. Descomponer dos números de igual longitud no tiene por qué tener la misma complicación. Actualmente, a pocos meses de llegar a la primera década del siglo veintiuno, se considera que los casos más duros son aquellos para los que los factores son dos números primos, elegidos al azar, de aproximadamente el mismo tamaño. Por el “teorema fundamental de la aritmética”, cada entero positivo tiene una única descomposición en números primos. Dado un algoritmo para la factorización de enteros, se puede factorizar cualquier número entero a sus factores primos mediante la aplicación repetitiva de dicho algoritmo.

Los algoritmos de factorización se dividen en dos grupos claramente diferenciados: los de propósito general y los de propósito específico. El tiempo de ejecución de un algoritmo de factorización de propósito general depende solamente del tamaño del entero a factorizar. La mayoría de algoritmos de factorización de propósito general están basados en el método de congruencia de cuadrados. Algunos de los algoritmos de propósito general son los siguientes: (1) Algoritmo de Dixon, (2) Factorización con fracciones continuas. (3) Criba cuadrática. (4) Algoritmo general de criba de campos de números y (5) Factorización de formas cuadradas de Shanks. Por su parte el tiempo de ejecución de un algoritmo de factorización de propósito específico depende de las propiedades de sus factores desconocidos: tamaño, forma especial, etc. Dichos factores cambian de un algoritmo a otro. Algunos de los algoritmos de propósito específico general son los siguientes: (1) División por tentativa, (2) Algoritmo rho de Pollard, (3) Algoritmo p-1 de Pollard, (4) Algoritmo p+1 de Williams, (5) Factorización de curva elíptica de Lenstra, (6) Método de factorización de Fermat y (7) Algoritmo especial de criba numérica de campo.

El principal método para aumentar la capacidad de cálculo de una computadora clásica es el procesamiento en paralelo. Las computadoras que soportan este esquema de proceso disponen de varios cientos o miles de procesadores. Se conoce en el medio científico que la capacidad de almacenamiento de información y la capacidad de cálculo de una computadora son proporcionales al número de celdas de memoria y al número de procesadores respectivamente, es decir, al tamaño de la computadora. Entonces la capacidad de una computadora clásica, de almacenamiento y de cálculo, crece linealmente con respecto a su tamaño.

En una computadora cuántica la situación cambia por completo, hasta el punto que su capacidad crece exponencialmente con respecto a su tamaño. Este hecho, estrechamente relacionado con el principio de superposición de la mecánica cuántica, se denomina paralelismo cuántico. Se llama qbits o bits cuánticos a los sistemas cuánticos elementales, es decir, a los sistemas cuánticos de dos estados. Los sistemas cuánticos de varios qbits se describen mediante vectores de un espacio de Hilbert complejo de dimensión 2n. Esto permite codificar una cantidad exponencial de información en el estado de un sistema cuántico de varios qbits. Además, cualquier transformación del estado del sistema se traduce en la modificación simultánea de toda la información almacenada. Por tanto, la capacidad de una computadora cuántica crece exponencialmente con respecto a su tamaño. Sin embargo, la medición de estados cuánticos es un inconveniente importante para la computación cuántica. Hay que señalar que las medidas cuánticas no son deterministas. Esto quiere decir que si se miden dos estados iguales los resultados no tienen por qué ser iguales. El proceso de medida es, por tanto, un experimento aleatorio en el que la probabilidad de cada resultado está determinada por el estado del sistema.

Las dificultades para sacar provecho del paralelismo cuántico son tan notables que hubo que esperar más de una década para encontrar el primer gran resultado. El año 1994 Peter W. Shor, científico de los laboratorios AT&T Bell, sorprendió a todos presentando sendos algoritmos polinomiales para factorizar números enteros y para calcular logaritmos discretos. Fue el primer problema en el que se alcanzaba una aceleración exponencial con respecto a los mejores algoritmos clásicos conocidos. A raíz de este descubrimiento se generó una gran actividad, tanto en el desarrollo de la tecnología necesaria para la construcción de computadoras cuánticas como en el estudio de algoritmos cuánticos. La parte central del algoritmo de Shor es el algoritmo cuántico para encontrar el orden “ere minúscula” de un numero entero “equis minúscula” módulo un entero “ene mayúscula”, con “equis minúscula” menor que “ene mayúscula” y “equis minúscula” coprimo a “ene mayúscula”. El algoritmo de Shor para encontrar los factores primos de un número compuesto de varios cientos de dígitos, es bastante interesante porque prueba directamente que las computadoras cuánticas son mas poderosas que las clásicas y pueden ser utilizadas para romper las claves publicas del sistema criptográfico “Rivest, Shamir, Adleman” en tiempo polinomial.

El algoritmo de Shor rompió teóricamente el sistema criptográfico más difundido en la actualidad, el sistema propuesto por Rivest, Shamir y Adleman en 1978. Este hecho contribuyó a su vez al desarrollo de los sistemas criptográficos cuánticos. Las técnicas que se utilizan para garantizar la confidencialidad de los canales cuánticos se apoyan en una propiedad característica de la mecánica cuántica: los estados cuánticos no se pueden clonar. En el área de las comunicaciones, además del estudio de la confidencialidad, se están investigando otros problemas como, por ejemplo, la codificación de información clásica en canales cuánticos y el teletransporte de estados cuánticos. Sin embargo, el estudio de este modelo de computación apenas si ha comenzado. Hasta el momento, sólo se han desarrollado computadoras cuánticas basadas en resonancia magnética nuclear, en trampas de iones y en cavidades cuánticas. Con la primera de estas técnicas se han conseguido prototipos de hasta 10 qbits, sobre los que se ha probado el algoritmo de Shor. También se ha propuesto la construcción de computadoras cuánticas aprovechando los conocimientos actuales sobre semiconductores, aunque esta técnica está menos desarrollada.

Como señala Simon Singh en su excelente libro “The Code Book”, a medida que la información se convierte en uno de los bienes más valiosos, el destino político, económico y militar de las naciones depende de la seguridad de los criptosistemas. Sin embargo, la construcción de una computadora cuántica acabaría con la privacidad, con el comercio electrónico y con la seguridad de las naciones. Una computadora cuántica haría zozobrar el ya frágil equilibrio mundial. De ahí la carrera de las principales naciones por llegar primero a su construcción. El ganador será capaz de espiar las comunicaciones de los ciudadanos, leer las mentes de sus rivales comerciales y enterarse de los planes de sus enemigos. La computación cuántica, todavía en mantillas, representa una de las mayores amenazas de la historia al individuo, a la industria y a la seguridad global.

 

Guillermo Choque Aspiazu
www.eldiario.net
Abril 27 de 2009
Teoría cuántica de la información

Teoría cuántica de la información

La información puede definirse como la “comunicación o adquisición de conocimientos que permiten ampliar o precisar los que se poseen sobre una materia determinada”. En esta definición se recogen los tres aspectos esenciales de la información, a saber: transmisión, procesado, y almacenamiento. El aspecto de transmisión corresponde a la “comunicación”. También el término “adquisición” puede entenderse como proporcionado por la transmisión: para ello es necesario hacer la abstracción de que el emisor de la señal, de la información comunicada, no es necesariamente un ser consciente. Así, se puede recibir información de un proceso físico. Y, de hecho, desde el punto de vista de entrada de información, el que ésta haya sido transmitida desde una voluntad de proporcionar esa información o no es irrelevante. Por lo que se prescinde de la volición del emisor para conceptualizar el proceso de comunicación, de manera análoga para el receptor. En cuanto al procesado, naturalmente parece implicar una sucesión de estados, que serán anímicos o mentales en un ser vivo o consciente, o meramente estados de un sistema físico. Por lo que a almacenamiento se refiere, las implicaciones físicas de la palabra son evidentes, y más aún en la actual sociedad tecnológica.

La teoría de la información es una rama de la teoría matemática de la probabilidad y la estadística que estudia la información y todo lo relacionado con ella, es decir canales, compresión de datos, criptografía y otros temas. La teoría de la información fue iniciada por Claude E. Shannon a través de un artículo publicado el año 1948, titulado “Una teoría matemática de la comunicación”. En este, la información es tratada como magnitud física y para caracterizar la información de una secuencia de símbolos se utiliza el concepto de entropía. Se parte de la idea de que los canales no son ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos utilizados para enviar información o la cantidad de información útil que se puede enviar a través de un canal. La teoría de la información matemática y la teoría de la codificación son dos disciplinas relativas al problema de transmitir información, de manera eficiente y precisa, desde una fuente a un receptor. Su análisis comienza por tratar de manera cuantitativa la información y sus diferentes manejos. Proporciona las bases teóricas para la observación, medida, compresión de datos, almacenamiento de datos, comunicación y sistemas de transmisión, estimación y toma de decisiones.

Se habla de la “teoría de la información cuántica”, un campo de investigación relativamente joven, que propone emplear sistemas cuánticos para almacenar y procesar información de manera más eficiente que por medios clásicos. La idea básica es muy sencilla y utiliza el principio de superposición de la mecánica cuántica: un sistema físico puede encontrarse en una superposición de dos o más estados medibles. Por ejemplo, los electrones tienen un momento angular intrínseco, el espín, que dada una dirección puede estar “apuntando hacia arriba”, o “hacia abajo”. Pero un electrón también puede encontrarse en un estado intermedio con el 50% de probabilidad de cada sentido.

La teoría de la información cuántica ha descubierto que el entrelazamiento o coherencia es, como la energía, un recurso cuantificable que posibilita tareas de procesado de información: algunos sistemas tienen un poco de entrelazamiento, otros mucho. Cuanto mayor sea el entrelazamiento disponible, más valdrá un sistema para el procesado cuántico de la información. Esta ciencia es lo bastante nueva para que se esté aún intentando aprehender su auténtica naturaleza. Si se llega a conocer los principios generales o leyes del entrelazamiento o coherencia cuántica quizá se podrá interpretar la complejidad de los sistemas cuánticos. La transición entre lo cuántico y lo clásico, en los sistemas complejos con muchas partes constituyentes, ocurre porque los grandes sistemas cuánticos interaccionan fuertemente con su entorno y sufren un proceso de decoherencia o pérdida del entrelazamiento que destruye las propiedades cuánticas del sistema. La clave para que un sistema complejo presente un comportamiento verdaderamente cuántico consiste en aislar muy bien el sistema del resto del mundo, de forma que se evite la decoherencia y se preserven los frágiles estados cuánticos. Conforme sea más complejo el sistema más difícil será aislarlo de las interacciones del medio y de hecho los grandes sistemas, prácticamente todos los objetos que se encuentran alrededor de las personas, por pequeños que sean, han perdido su coherencia cuántica y presentan un comportamiento puramente clásico, siendo esta la mayor dificultad a la hora de construir una computadora cuántica.

El recurso fundamental en el tratamiento de la información cuántica es el qubit, objeto cuántico ideal que proviene de la mecánica cuántica. Sus propiedades son independientes del soporte físico sobre el que se trate, sea el espín de un núcleo atómico o de la polarización de un electrón. Cualquier objeto que tenga dos estados diferentes, necesariamente, poseerá además un conjunto de otros estados posibles conocidos como superposiciones, que incluyen ambos estados en grados distintos. El continuo cambio de estados entre el cero y el uno causa muchas de las extraordinarias propiedades de la información cuántica. Los qubits individuales son interesantes, pero cuando se combinan varios entrelazándose aparece un comportamiento aún más fascinante. Estos estados entrelazados poseen propiedades fundamentalmente distintas de las que caracterizan a cualquier ente de la física clásica. Para Schrödinger el entrelazamiento no era un rasgo característico, sino el rasgo característico de la mecánica cuántica, el que la aparta por completo de las líneas de pensamiento clásicas. Los objetos entrelazados se comportan como si estuvieran conectados entre sí, con independencia de lo alejados que se hallen el uno del otro, pues la distancia no atenúa lo más mínimo el entrelazamiento. Si se realiza una medición sobre un ente entrelazado con otros objetos, proporcionará a la vez información acerca de éstos. Sin embargo el entrelazamiento no vale para enviar señales más deprisa que la velocidad de la luz, pues la naturaleza probabilística de la mecánica cuántica desbarata tal posibilidad.

El año 2001, Benjamin Schumacher, del Kenyon College, planteó que los elementos esenciales de la ciencia de la información, tanto clásica como cuántica, se resumían en un procedimiento que abarca tres etapas: (1) Identificar un recurso físico. Una cadena de bits o qubits codificados mediante objetos físicos reales, en el presente caso los dos estados fundamentales de un átomo, o del spin de un electrón, por ejemplo, que pueden codificar un qubit. (2) Identificar una tarea de procesado de información que pueda realizarse gracias al recurso físico del paso. (3) Identificar un criterio que establezca cuándo ha tenido éxito la tarea del paso (2). La pregunta fundamental que la ciencia de la información menciona, en este entendido es:¿Cuál es la mínima cantidad de recurso físico (1) que se necesita para realizar la tarea de procesamiento de la información (2) cumpliendo el criterio de éxito (3)?.

El año 1948 Shannon resolvió el problema fundamental relacionado con la información clásica, determinando el mínimo número de bits necesarios para almacenar la información producida por una fuente. Sus trabajos fundaron la teoría de la información, y su expresión matemática del contenido de información recibe hoy el nombre de entropía de Shannon. La clave de la nueva ciencia la tiene la calibración del entrelazamiento de los qubits. Las medidas cuantitativas del entrelazamiento están demostrando una enorme utilidad como conceptos unificadores en la descripción de una amplia gama de fenómenos. Se puede analizar el flujo de entrelazamiento, de un subsistema a otro, que se requiere para ejecutar un determinado proceso de información, de forma parecida a como se estudia el flujo de energía entre distintas partes de un sistema, pues el entrelazamiento de un estado se puede transmitir a otro tal como fluye la energía.

Además de las generalizaciones cuánticas de nociones clásicas como las de fuentes, canales y códigos, esta nueva teoría de la información incluye dos tipos complementarios de información cuantificable: la información clásica y el entrelazamiento cuántico. La información clásica puede copiarse a voluntad, pero sólo puede transmitirse hacia adelante en el tiempo, hacia un receptor situado en el cono de luz futuro del emisor. Por el contrario, el entrelazamiento no puede copiarse, pero puede conectar dos puntos cualesquiera en el espacio-tiempo. Las operaciones convencionales de procesamiento de datos destruyen el entrelazamiento, pero las operaciones cuánticas pueden crearlo y usarlo para distintos propósitos, como acelerar determinadas computaciones clásicas o ayudar en la transmisión de información clásica o de estados cuánticos. Una parte de esta teoría consiste en el estudio cualitativo y cuantitativo del entrelazamiento y de sus interacciones con la información clásica.

 

Guillermo Choque Aspiazu
www.eldiario.net
Enero 26 de 2009
Códigos Cuánticos

Códigos Cuánticos

La teoría de la información y codificación, además de la computación han experimentado un acelerón provocado por la aparición de una nueva rama y una renovación de sus conexiones históricas con la física básica, cuando se han extendido para abarcar el hasta entonces intacto territorio de la transmisión y el procesamiento de los estados cuánticos y la interacción de esta “información cuántica” con las formas tradicionales de información. Cabría preguntarse por qué esto no ha sucedido antes, puesto que hace mucho tiempo que los principios cuánticos se aceptaron como el fundamento de toda la física. Quizá los fundadores de la teoría de la información y la computación, como Shannon, Turing y von Neumann, estaban demasiado acostumbrados a pensar en el procesamiento de información en términos macroscópicos, al no tener todavía ante sí ejemplos tan convincentes como el código genético o la cada vez más pequeña microelectrónica. Sea como fuere, hasta hace poco se pensaba en la información en términos clásicos, y la mecánica cuántica jugaba sólo un papel secundario en el diseño de los equipos para procesarla y en el establecimiento de límites al ritmo con que se podía enviar por cierto tipo de canales.

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras una computadora clásica equivale a una máquina de Turing, una computadora cuántica equivale a una máquina de Turing indeterminista. La empresa canadiense D-Wave System había supuestamente presentado el 13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una computadora cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia, que causa la pérdida del carácter unitario y la reversibilidad de los pasos del algoritmo cuántico. Los tiempos de de coherencia para los sistemas candidatos, en particular el tiempo de relajación transversal, en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética, está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de de coherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de de coherencia. Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de de coherencia y, en principio, arbitrariamente largos.

En las computadoras actuales, todo está basado en ceros y unos, el mítico código binario, que no es tan moderno, se usó en los sesenta y cuatro hexagramas del I-Ching: el libro de las mutaciones, escrito hace varios miles de años en China. La ventaja del código binario es su sencillez, son dos estados, apagado/encendido, cero/uno, si/no, con la tecnología actual estos dos niveles de voltaje se pueden guardar durante mucho tiempo, de tal manera que luego se pueden recuperar, si se almacena la hilera 11000001 en el disco duro, dentro de seis meses será posible volver a leer 11000001, y eso aunque parezca extraño, es mágico. Ese guiño tecnológico es el que permite guardar este archivo y volverlo a leer. Ese flujo infinito de ceros y unos por doquier hacen posible Internet, la telefonía digital, la televisión digital, y muchas otras cosas más.

Es vox populi que un bit clásico, o bit de Shannon, corresponde a la mínima cantidad de información que es posible manejar con la tecnología actual, y que puede almacenar un cero o un uno que luego puede ser copiado. La información digital parece materia mundana. Los ceros y unos de un código binario pueden ser fácilmente medidos, copiados, y modificados. Pero se asigna una pieza de información a una partícula cuántica, y asume las características extrañas del mundo cuántico. Esta unidad fundamental de la información cuántica es llamada un bit cuántico, o qubit, y es un poco diferente de su clásica contraparte. Un qubit puede ser ambos un cero y un uno al mismo tiempo. Tomar el spin de un electrón, una propiedad que puede ser imaginada como el giro de un trompo con su eje apuntando o arriba o abajo. El giro arriba o abajo puede corresponder a un cero o uno. Pero el electrón puede también estar situado en una existencia dual como un espectro, conocido como una superposición de estados, en los cuales están en ambos arriba o abajo, un cero y un uno, al mismo tiempo. Lleva a cabo un calculo usando un electrón, y ejecutando simultáneamente en ambos el cero y el uno, dos cálculos por el precio de uno. Gracias al principio de superposición de la física cuántica, el qubit puede ser cero y uno a la vez, se puede estar vivo y muerto a la vez hasta que alguien pueda realizar una observación, como en la historia del sapo transformado en príncipe. Se diferencia del bit de Shannon porque no puede ser copiado a causa del teorema de no clonación.

La computación cuántica ofrece la posibilidad de realizar procesamiento paralelo a gran escala. A diferencia de los “interruptores” en las computadoras actuales, que están totalmente encendidas o totalmente apagadas, los bits cuánticos pueden estar apagados, encendidos, o apagados y encendidos al mismo tiempo. La disponibilidad de tales “superposiciones”, además de otras extrañas propiedades cuánticas, brindan los medios para que una computadora cuántica pueda resolver ciertos problemas en un tiempo exponencialmente más corto que una computadora convencional con el mismo número de bits. Y para ciertas clases específicas de problemas, una computadora cuántica con 300 qubits tiene potencialmente más poder de procesamiento que una computadora clásica con tantos bits como partículas existentes en el universo.

La estructura básica de los códigos cuánticos es la misma que la de los clásicos. Se codifica la información introduciendo redundancia con la finalidad de utilizar esta información adicional para detectar y corregir errores. Como se ha comentado, la teoría cuántica de códigos debe abordar algunos problemas nuevos respecto a la teoría clásica de códigos: errores continuos, imposibilidad de copiar estados, debido al teorema de no-clonado y el colapso de los estados durante su lectura. A pesar de estas dificultades las ideas propuestas por Shor y Steane han permitido establecer de forma consistente la teoría cuántica de códigos. En la teoría cuántica de códigos se considera un código cuántico de longitud asociada al par ordenado compuesto por dos variables ene y eme, es decir, un código que codifica un qubit de tamaño eme en un qubit de tamaño ene. Formalmente se trata de una aplicación lineal inyectiva que conserva el producto escalar entre dos espacios de Hilbert que describen el qubit de tamaño m y el qubit de tamaño n respectivamente.

Se conoce que una teoría cuántica de la información y del procesamiento de la información ofrece, entre otras ventajas, un tipo de criptografía cuya seguridad descansa sobre los principios fundamentales de la física, y la razonable esperanza de construir computadoras cuánticas que podrían acelerar de forma espectacular la resolución de ciertos problemas matemáticos. Estas ventajas dependen de propiedades inconfundiblemente cuánticas como la incertidumbre, la interferencia y el entrelazamiento. A un nivel más fundamental, ha quedado patente que una teoría de la información basada en los principios cuánticos amplía y completa la teoría clásica de la información, del mismo modo que los números complejos amplían y completan los reales. Además de las generalizaciones cuánticas de nociones clásicas como las de fuentes, canales y códigos, la nueva teoría incluye dos tipos complementarios de información cuantificable: la información clásica y el entrelazamiento cuántico. La información clásica puede copiarse a voluntad, pero sólo puede transmitirse hacia adelante en el tiempo, hacia un receptor situado en el cono de luz futuro del emisor. Por el contrario, el entrelazamiento no puede copiarse, pero puede conectar dos puntos cualesquiera en el espacio/tiempo. Las operaciones convencionales de procesamiento de datos destruyen el entrelazamiento, pero las operaciones cuánticas pueden crearlo y usarlo para distintos propósitos, como acelerar determinadas computaciones clásicas o ayudar en la transmisión de información clásica o de estados cuánticos.

 

Guillermo Choque Aspiazu
http://www.eldiario.net/
Octubre 27 de 2008

Paralelismo Cuántico

Paralelismo Cuántico

La falta de velocidad para el procesamiento de datos no es un problema nuevo. Para solucionarlo se intenta, desde mediados de los años 1960, diseñar arquitecturas de hardware compuestas por procesadores paralelos, que ejecuten instrucciones de forma independiente, y que analicen datos de forma simultánea: sería como poner a todos a trabajar al mismo tiempo, desde distintos ángulos, sobre el mismo tema. Sin embargo, dichas computadoras paralelas son muy costosas y tienen usos muy específicos: procesamiento de imágenes, cálculos científicos, sistemas de control, etc. Como en muchos otros casos, la naturaleza se encarga de burlar al hombre poniendo en sus narices el botín inalcanzable, como en el caso de uno de los sistemas más antiguos y que mejor funciona: el sistema nervioso. Los neurólogos creen que gran parte del poder expresivo del cerebro humano se debe al procesamiento simultáneo, en paralelo, que permite la evaluación de miles de combinaciones al mismo tiempo y que permite resultados nuevos e imprevisibles.

Frente a este cúmulo de dificultades los especialistas están buscando múltiples salidas. Una de ellas surge de la física cuántica. Esta teoría que explica el curioso comportamiento de las partículas a nivel subatómico no parece coincidir con lo que el sentido común dice acerca del mundo rutinario de cada día. La física cuántica teoriza acerca de fenómenos que sólo pueden explicarse abstrayendo cosas como: “Una partícula es capaz de estar en dos lugares al mismo tiempo”. En los años 1980 tres físicos llamados Feynman, Benioff y Deutsch fueron aún más lejos y concibieron una máquina que aprovechara los fenómenos cuánticos para aumentar la capacidad de procesamiento de una computadora. Si una partícula puede estar en dos estados al mismo tiempo, se la puede utilizar para codificar, a su vez, dos datos al mismo tiempo; en el caso de una computadora binaria, sobre cero y uno. Hace sólo algunos años atrás, un científico de la Bell Labs, Peter Shor, demostró que las computadoras cuánticas podrían ser utilizadas de manera eficiente para resolver un problema de gran interés práctico: factorizar números enteros, una de las necesidades básicas de las empresas de seguridad informática que utilizan estos complejos cálculos matemáticos para crear claves de seguridad. Apareció una utilidad práctica y detrás de ella los que podían llegar a obtener un beneficio: la poderosa industria de la seguridad abrió los ojos y las billeteras, y el dinero comenzó a llegar a los laboratorios que se dedicaron a estudiarlas.

La computación cuántica nace con el objetivo de combinar las propiedades de la física y las ciencias computacionales para solucionar problemas de computación. La base teórica de la computación tradicional está basada en saber utilizar el lenguaje binario de unos y ceros para resolver problemas. Se utilizan los transistores como elemento principal, de forma que las diferencias de energía que existan en él son unos y ceros lógicos. Sin embargo, en la computación cuántica, se reduce la escala del elemento primario, lo que conlleva una serie de efectos cada vez más obvios. Una parte básica de la computación cuántica es estudiar las consecuencias de dichos efectos en la computación tradicional. Dichos estudios fueron los que llevaron a los científicos a emplearlos para sacar provecho, de tal manera que físicos e informáticos teóricos, comenzaron a crear diversas hipótesis basadas en la afirmación de que a partir de las leyes de la mecánica cuántica se podrían desarrollar nuevos planteamientos en la teoría y procesamiento de la información. Resulta obvio pensar que, para aplicar estas teorías cuánticas, se necesita obtener una computadora cuántica. Hasta estos primeros años del presente siglo, los componentes de hardware han evolucionado para ser miniaturizados hasta llegar a conseguirse nanocircuitos. Sin embargo, se alcanzará un punto en el que esta miniaturización sea tal que no se pueda avanzar más. En ese momento tendrá que entrar en juego la mecánica cuántica.

El modelo cuántico de computación se introdujo en la década de 1980. Es una extensión del modelo clásico en el que los bits cuánticos o qubits, pueden tomar el valor cero o uno, como los bits clásicos, y además combinaciones de cero y uno, por ejemplo un medio de cero más un medio de uno. En el mundo cuántico estas combinaciones existen debido al denominado principio de superposición que, desde un punto de vista computacional, es el responsable del paralelismo cuántico y del entrelazamiento de los qubits. Un qubit es la unidad mínima de información cuántica. Sus dos estados básicos se llaman, convencionalmente ket cero y ket uno. Un estado qubital puro es una superposición cuántica de esos dos estados. Esto es significativamente distinto al estado de un bit clásico, que puede asumir solamente un valor cero ó uno. Sin embargo, la diferencia más importante entre un qubit y un bit clásico no es la naturaleza continua de este estado, que se puede replicar con cualquier cantidad análoga), sino que múltiples qubits pueden experimentar un entrelazamiento. El enredo es una interacción no local que permite a un conjunto de qubits expresar superposiciones de diferentes cadenas binarias simultáneamente. En este “paralelismo cuántico” está la posible potencia del cómputo cuántico.

Formalmente, la unidad básica de información de la computación cuántica, el qubit, o bit cuántico, se define como un sistema cuántico bidimensional con un espacio de Hilbert, isomórfico al conjunto de números complejos. Este sistema puede estar en uno de sus dos estados básicos, cero o uno, o bien en una superposición lineal de ambos. El qubit, es la clave del paralelismo cuántico. Mediante la superposición de estados un registro de qubits podría guardar la información de varios registros clásicos. Haciendo esto con el registro de estados de la máquina cuántica, se consigue que la máquina tenga en él una superposición coherente de varios registros clásicos, cada uno representante de un estado, logrando que la máquina cuántica “se encuentre en varios estados a la vez”. Sin embargo, las máquinas cuánticas son máquinas lineales. En términos de programación, el paralelismo se consigue al aplicar una transformación a un registro de qubits que contenga información superpuesta de varias variables. El resultado de esta transformación sería igual a aplicarla a todas las variables al mismo tiempo y luego superponer todos los resultados en el registro cuántico. Por tanto, actuando de esta manera se consigue operar emulando un número indeterminado de registro y procesadores haciendo uso de un solo registro y un solo procesador.

El paralelismo cuántico, por tanto, supera al clásico en que en una computadora cuántica es posible tener un número exponencialmente alto de estados en un espacio reducido. Esto, en una computadora clásica, no sería viable debido al costo computacional del número de procesadores y del espacio de memoria. A pesar de ello, el paralelismo cuántico por sí no es suficiente para lograr una computación satisfactoria. Tras la fase de cálculo, se tiene que medir el registro de salida para obtener el resultado. Sin embargo, al ser un registro cuántico, éste se colapsará con la medida y tan sólo se podrá obtener el resultado de una de las ramas de la computación, de forma aleatoria. Se tiene, por tanto, que el resultado de una computación cuántica es probabilista; No se puede saber con una seguridad completa que el resultado que se obtenga sea el que se está buscando. Para asegurar esto se podría realizar un número determinado de medidas hasta tener la seguridad de obtener la información deseada. Pero si no se realiza el diseño del programa con cuidado, el número de medidas necesarias puede ser exponencial, perdiendo así las ventajas de la computación cuántica. Para evitar este efecto, se deben diseñar los programas de manera que el máximo de la distribución de probabilidad en el dato de salida corresponda al resultado deseado. De esta manera se consigue reducir el número de medidas a unas pocas. Las técnicas para lograr esto se basan en el principio de superposición de ondas, con el que se consigue una interferencia constructiva en los casos de resultados deseados. De esta manera se consigue que la probabilidad de que al hacer una medida correcta ésta sea alta.

De manera hipotética, una computadora cuántica, capaz de realizar muchas operaciones lógicas sobre muchos qubits, comienza por inicializar todos los bits de entrada en una superposición en la cual los ceros y unos se encuentran en proporciones iguales. La computadora está entonces en una superposición de todas las posibles formulaciones del problema. Se utiliza estos datos para alimentar los circuitos lógicos que llevan a cabo una determinada computación. El resultado es una superposición de todos los posibles resultados de dicha computación. De manera paradójica, la computadora realiza de una sola vez todas las computaciones posibles. Este fenómeno ha sido llamado “paralelismo cuántico” por David Deutsch del Instituto Matemático de la Universidad de Oxford.

Guillermo Choque Aspiazu
http://www.eldiario.net/
28 de julio de 2008

Translate »