Mostrando entradas con la etiqueta computación cuántica. Mostrar todas las entradas
Mostrando entradas con la etiqueta computación cuántica. Mostrar todas las entradas

7 de mayo de 2016

El futuro de la computación cuántica.

La computación cuántica amenaza con aumentar el potencial de cálculo de los ordenadores, que el proceso de descifrado por ensayo y error de los algoritmos actuales de encriptación, resultarían un juego de niños en comparación con el de la computación cuántica. Esta revolución se apoya en la mecánica cuántica, cuyo edificio teórico levantaron cuatro personalidades excepcionales: Niels Bohn, Max Planck, Werner Heisenberg y Erwin Schrödinger. La mecánica cuántica es una teoría de la física que sostiene que, en el ámbito macroscópico, rige las leyes de la física clásica, pero que, en el ámbito microscópico, rige la mecánica cuántica y sus paradojas. 

Una de las aportaciones más brillantes a la mecánica cuántica es la de Erwin Schrödinger y su experimento del "gato de Schrödinger". La idea de este experimento era explicar el concepto de superposición de estados. El fenómeno de la superposición de estados sucede cuando una partícula ocupaba, a la vez, más de una posición, o poseía, al mismo tiempo, cantidades distintas de energía. Cuando se introducía un observador para medir alguna de estas variables, la partícula decidía adoptar una posición u otra o poseer una cantidad de energía u otra. Para explicar este fenómeno, Erwin Schrödinger ideó el famoso experimento del "gato de Schrödinger". ¿En qué consistió? "Imagínese un felino del tipo mencionado depositado en una caja sellada y opaca. En el interior de la caja se coloca un recipiente de gas venenoso conectado por un dispositivo a una partícula radiactiva de modo que, si ésta se desintegra, el gas escapa del recipiente y el gato muere envenenado. La partícula en cuestión tiene un 50% de probabilidades de desintegrarse durante un periodo de tiempo determinado." El tiempo se ha cumplido, la pregunta, que nos hacemos, es: ¿Está el gato vivo o muerto? En el lenguaje de la mecánica cuántica equivale a decir: ¿cuál es el estado del sistema caja- gato- mecanismo? Para conocer la respuesta es imprescindible que un observador abra la caja y "mida" el estado del sistema, entonces la partícula decidirá si se ha desintegrado o no, y, por tanto, el sistema "caja- gato- mecanismo" está en una superposición de estados: el gato no está ni vivo ni muerto, sino las dos cosas a la vez.

el gato de Schrödinger

Ahora bien, si llevamos el concepto de superposición de estados a la computación o a la criptografía, ¿cuál sería la relación entre ambos? Hasta 1984, nadie se planteó esta posible relación. Fue el físico David Deutsch que empezó a barajar una idea revolucionaria: ¿cómo podría ser los ordenadores si obedecieran a las leyes de la mecánica cuántica? ¿De qué modo podría la computación cuántica sacar partido de la superposición de estados? A través de estas cuestiones, David Deutsch puedo iniciar sus investigaciones sobre la computación cuántica y puedo, posteriormente, a través de su trabajo probar que era posible teóricamente la construcción de un ordenador cuántico.

El desarrollo de una posible computación cuántica traería consigo el desmoronamiento de la criptografía moderna. Tomemos, por ejemplo, romper una clave RSA, ¿es posible? La respuesta es sí. Si se construyera un ordenador cuántico, y se ejecutará el algoritmo de Shor, la clave RSA se desmoronaría, y con él, el edificio de la criptografía moderna. Peter Shor en 1994 pudo demostrar que se puede romper una clave RSA a través de su algoritmo, que lleva su nombre, el algoritmo de Shor. Mediante este algoritmo pudo demostrar que, si se ejecuta este algoritmo en un ordenador cuántico, se podría descomponer números primos enormes en un tiempo menor que el del ordenador convencional más potente del mercado.

Otro aspecto de la mecánica cuántica es el principio de indeterminación de Weiner Heisenberg. Según el propio Heisenberg no podemos conocer con detalle el presente. Resulta imposible determinar ciertas propiedades de una partícula en un momento dado. Pongamos, un ejemplo, para ilustrar estas palabras: el caso de los fotones, y, muy concretamente, una de sus características más fundamentales: la polarización. Pues bien, el principio de Heisenberg afirma que la única manera de averiguar algo sobre la polarización de un foton es haciéndolo pasar por un filtro o "rendija". En función de, si el foton está polarizado, horizontalmente, verticalmente o diagonalmente, el resultado será distinto. En consecuencia, una vez emitido un foton no es posible saber con certeza cuál era la polarización original. Entonces, ¿qué relación existe entre la polarización de los fotones y la criptografía? En 1984, Charles Bennett y Gilles Brassard idearon un criptosistema cuántico basado en la transmisión de fotones polarizados. La información se transmitía por medio de fotones polarizados que es un canal seguro por medio del cual se puede transmitir una clave única. El resultado de este proceso de polarización, es que tanto el emisor como el receptor comparten una secuencia de unos y ceros generada de forma aleatoria. El criptosistema cuántico ideado por Brassard y Bennett impecable, desde el punto de vista teórico, se pudo llevar a la práctica en 1989, cuando se puso a punto un sistema criptográfico formado por dos ordenadores separados por una distancia de 32 centímetros, uno de los cuales iba a hacer las veces de emisor y, el otro, de receptor. Tras pruebas y ajustes, emisor y receptor pudieron verificar sus claves. La criptografía cuántica era posible. El criptosistema cuántico desarrollado por Brassard y Bennett representa el éxito del secreto sobre la indiscreción, de la criptografía frente al criptoanálisis.

Criptosistema cuántico de Charles Bennett y Gilles Brassard

2 de mayo de 2016

Origen, cronología, ventajas y problemática de la computación cuántica

Ya habíamos mencionado, en una entrada anterior, ¿Qué es la computación?, qué era la computación cuántica. Esbozamos muy superficialmente una definición. Ahora, vamos a desarrollar otros aspectos como son el origen, la cronología, las ventajas y la problemática entorno a la computación cuántica.

El origen de la computación cuántica responde a la necesidad de descubrir nuevas tecnologías que superaran las limitaciones que imponen las propias leyes físicas a la hora de miniaturizar los chips. La imposición de estas limitaciones permitió que surgiera la idea de la computación cuántica en 1981. La idea de la Computación cuántica fue expuesta y desarrollada por Paul Benioff en 1981. Paul Benioff expuso su propia teoría sobre la computación cuántica, aplicando las leyes de la física cuántica a la computación. Según su teoría, "la cinta de la máquina de Turing podría ser reemplazada por una serie de sistemas cuánticos. Es decir, que en lugar de trabajar con voltajes eléctricos pasaría hacerlo con cuántos." En la computación clásica, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, como interviene las leyes de la mecánica cuántica, y, por tanto, una partícula puede estar en superposición: puede ser 0, 1 y puede ser 0 y 1 a la vez. Eso permite que se pueda realizar diferentes operaciones a la vez, según el número de qubits. En definitiva, las ideas esenciales de la computación cuántica surgieron del trabajo de Paul Benioff.

Posteriormente, se han realizado numerosas aportaciones a la computación cuántica. Las más significativas son las de David Deutsh, Dan Simon, Peter Shor y Lov Grover. En 1985, David Deutsh describió, por primera vez, el primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico. De este modo, sugerió que un computador cuántico podría ejecutar diferentes algoritmos cuánticos. En los años 90, se aplicó su teoría a la práctica: aparecieron los primeros algoritmos cuánticos y se realizaron los primeros cálculos cuánticos. En 1993, Dan Simon planteó un problema teórico que demostraba la ventaja del computador cuántico frente al clásico. Comparó el modelo clásico de probabilidad con el modelo cuántico. Sus ideas y observaciones sirvieron como base para el desarrollo de algoritmos como el de Lov Grover en 1996. En ese mismo año, 1993, Charles Benett descubrió el teletransporte cuántico y abrió la posibilidad de desarrollar comunicaciones cuánticas. Entre 1994 y 1995, Peter Shor definió un algoritmo, que lleva su nombre, el algoritmo de Shor, que permitía calcular los factores primos de números, mucho más rápidamente que las computadoras clásicas. Su algoritmo permitía romper muchos de los sistemas criptográficos existentes. En 1996, Lov Grover creó un algoritmo cuántico de tipo probabilístico para la búsqueda de datos conocido como Algoritmo de Grover. Ese algoritmo aceleraba los cálculos factoriales o las simulaciones físicas.

La computación cuántica presenta ventajas respecto a la computación clásica. Aporta enormes ventajas como la aplicación de operaciones masivas en paralelo y la capacidad de aportar nuevas soluciones a problemas que son abarcables desde la computación cuántica por su elevado coste computacional.

Uno de los principales problemas de la computación cuántica es el problema de la decoherencia cuántica que causa la pérdida del carácter unitario- o reversibilidad- de los pasos de un algoritmo cuántico. Otro de los principales problemas de la computación cuántica es la escalabilidad, sobre todo teniendo en cuenta el considerable aumento en qubits necesarios para realizar cálculos cuánticos, que implican la corrección de errores.

Computación cuántica

20 de abril de 2016

¿Qué es la computación?

La computación es la ciencia que estudia los sistemas que gestionan automáticamente la información. Existen diferentes tipos de computación: computación ubicua, computación gráfica, computación distribuida, computación en la nube y computación cuántica.

La computación ubicua- conocida como Pervasive computing, Calm Tecnology, Things that Thing o Everywhere- tiene como objetivo la integración de la informática en el entorno de las personas. Su origen está en el trabajo de Mark Weiser en Xerox en el laboratorio de Palo Alto en los años 80. Las áreas de investigación y de desarrollo de la computación ubicua son: los sensores, redes de próxima generación, sistemas distribuidas, computación móvil y desarrollo de sistemas ubicuos.

La computación gráfica( o gráficos por ordenador) es el uso de los ordenadores tanto para generar imágenes visuales como para integrar o cambiar imágenes del mundo real. En la computación gráfica, podemos encontrar gráficos en 2D o en 3D.

La computación distribuida( o informática en malla) es un modelo para resolver problemas de computación utilizando multitud de ordenadores conectados entre sí por una red de comunicaciones.

La computación en la nube( o cloud computing, en inglés) es un conjunto de servicios informáticos, que se ofrecen de forma gratuita o de pago, a los usuarios a través de la conexión a Internet. Hay diferentes tipos de nubes: una nube pública, nubes privadas, nubes híbridas y una nube comunitaria.

La computación cuántica hace referencia a la aplicación de las teorías de la física cuántica en la informática. Es un nuevo paradigma de computación. Surgió en los años 80 y aún está en fase de desarrollo. Se basa en el uso de qubits en lugar de bits. Algunos problemas que se suponían intratables para la computación clásica, ahora se consideran tratables para la computación cuántica. Mientras un ordenador normal equivale a una máquina de Turing, un ordenador cuántico equivaldría a una máquina de Turing cuántica.

computación cuántica