UNIVERSIDAD NACIONAL DEL ALTIPLANO – PUNO FACULTAD DE INGENIERÍA MECÁNICA ELÉCTRICA, ELECTRÓNICA Y SISTEMAS ESCUELA PROFESIONAL DE INGENIERÍA ELECTRÓNICA
FISICA APLICADA A LA INGENIERÍA ELECTRÓNICA TRABAJO ENCARGADO: COMPUTACIÓN CUÁNTICA
PRESENTADO POR:
QUILLA MANGO, Gerson Paolo
105656
PUNO 2013
COMPUTACIÓN CUÁNTICA
I.
INTRODUCCIÓN:
La computación cuántica nace con el objetivo de combinar las propiedades de la física y las ciencias computacionales para solucionar problemas de computación. La base teórica de la computación tradicional está basada en saber usar unos y ceros para resolver problemas. Se utilizan los transistores como elemento principal, de forma que las diferencias de energía que existan en él son unos y ceros lógicos. Sin embargo, en la computación cuántica, se reduce la escala del elemento primario, lo que conlleva una serie de efectos cada vez más obvios. Una parte básica de la computación cuántica es estudiar las consecuencias de dichos efectos en la computación tradicional. Dichos estudios fueron los que llevaron a los científicos a emplearlos para sacar provecho, de tal manera que físicos y computólogos (principalmente teóricos) comenzaron a crear diversas hipótesis basadas en la afirmación de que a partir de las leyes de la mecánica cuántica se podrían desarrollar nuevos planteamientos en la teoría y procesamiento de la información. Resulta obvio pensar que para poder aplicar estas teorías cuánticas necesitaremos obtener una computadora cuántica. Hasta hoy día, los componentes de hardware han estado siendo miniaturizados hasta llegar a conseguir nano circuitos. Sin embargo, vamos a alcanzar un punto en el que esta miniaturización sea tal que no se pueda avanzar más en este aspecto. En ese momento tendrá que entrar en juego la mecánica cuántica.
En las décadas de 1970 y 1980, algunos teóricos como Richard Feynmann, (California Institute of Technology, de Pasadena); Paul Benioff, (Argonne National Laboratory, de Illinois); David Deutsch, (Universidad de Oxford, en Inglaterra), y Charles Bennett, (T.J. Watson Research Center de IBM en Nueva York), propusieron el concepto de las computadoras cuánticas, obteniendo como respuesta las dudas de muchos científicos respecto a que alguna vez ese tipo de computadoras pudieran llegar a resultar realmente prácticas. Sin embargo, Peter Shor (AT & T Research) describió en 1994 un algoritmo cuántico, diseñado para realizar la factorización de números grandes, de una forma exponencialmente más rápida que las computadoras convencionales (hasta el punto de poder llegar a hacer saltar la seguridad de muchos criptosistemas de clave pública). Esto animó a muchos científicos a intentar explotar las capacidades de las computadoras cuánticas. Desde entonces, varios grupos de investigación de todo el mundo han logrado progresos realmente importantes en este ámbito.
Isaac L. Chiang (IBM y Gershenfeld), uno de los experimentalistas cuánticos más importantes del mundo, y Mark G. Kubinec (Universidad de Berkeley), se lanzaron a construir un ordenador cuántico simple que fuera capaz de ejecutar un algoritmo de búsqueda, denominado “de Grover” en honor a su creador. En 1998, en la Universidad de California en Berkeley, consiguieron crear bits cuánticos a partir de átomos de hidrógeno y cloro procedentes del cloroformo. Tras alinear los núcleos, obligaban a las moléculas a comportarse como ordenadores, leyendo los resultados mediante resonancia magnética. Utilizaba 5 bits cuánticos (o qubits), y la factorización de dicho algoritmo es el algoritmo más complejo que se ha podido demostrar hasta el momento usando una computadora cuántica. La División de Investigación de IBM Research ha aportado además múltiples teorías cuánticas. Sus científicos, por ejemplo, fueron pioneros en criptografía y comunicaciones cuánticas, así como en metodologías de corrección de errores. Desde aquí se promulgaron los cinco criterios básicos para la realización de un computadora cuántica eficiente:
II.
Un sistema físico de escala flexible con qubits bien caracterizados. Capacidad de inicializar el estado de un qubit. Tiempos de descoherencia más largos que el tiempo de operación de la puerta cuántica. Un conjunto universal de puertas cuánticas. La capacidad de medir qubits específicos.
ORIGEN:
A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en el mismo espacio; así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel.
Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente.
En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica en escena. La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits. El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así, un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops(10 millones de millones de operaciones en coma flotante por segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).