Approche semi-classique de l’information quantique

Approche semi-classique de l’information quantique

 Genèse de l’information quantique et conjecture de Moore

 Depuis le début des années 70, date à laquelle est commercialisé le premier microprocesseur Intel 4004 (doté alors de 2300 transistors à 4 bits), les microprocesseurs n’ont eu de cesse d’augmenter leur puissance de calcul par l’augmentation de leur densité de transistors. En 1965, Gordon Moore publie dans la revue Electronics Magazine un article célèbre dans lequel il postule une augmentation exponentielle du nombre de transistors dans les microprocesseurs tous les deux ans environ. Lorsqu’il postule cette conjecture [2], Moore ne se base que sur 5 observations étalées de 1959 à 1965 (comme l’on peut l’observer sur la gure 1.1 de l’article d’origine)Cependant de façon remarquable, cette conjecture a continué de se vérier jusqu’à nos jours, montrant certes un écart à la loi postulée originellement par Moore (le doublement de la densité de transistors se faisant entre 1.3 et 1.8 ans), mais témoignant cependant de la justesse de son intuition (cf. gure 1.2).

Naissance de l’idée d’un ordinateur quantique

 La conjecture de Moore porte en elle-même une limitation intrinsèque, puisque l’on ne peut envisager de dépasser une valeur de densité limite, qui correspondrait alors à la limite inférieure que l’on est capable d’atteindre en terme de miniaturisation des transistors (de l’ordre de la dizaine d’atomes). Il s’est donc rapidement avéré indispensable de rééchir à d’autres ressources que la miniaturisation pour améliorer la puissance des microprocesseurs. En 1982, Richard Feynman constatant à quel point il est complexe de simuler des systèmes quantiques sur des ordinateurs classiques, est le tout premier à proposer de construire des ordinateurs quantiques qui seraient capables de tirer parti de ce qu’ore la mécanique quantique comme ressources (superposition d’états, interférence, intrication, etc.). C’est à la même époque que David Benio propose au contraire d’utiliser ces ressources pour obtenir une accélération exponentielle des calculs classiques. De tels exemples d’accélération du calcul quantique sur le calcul classique existent, le plus célèbre étant celui de l’algorithme de Shor [3]. Ce dernier permet de factoriser un entier N en O (log(N) 3 ) opérations, alors qu’aujourd’hui le meilleur algorithme classique ne sait faire mieux qu’en un nombre O(e P 1/3 log(P) 2/3 ) d’opérations, où P = log(N) (c’est à dire en un nombre exponentiel d’opérations par rapport à la taille du système). Même si aujourd’hui les applications pratiques restent modestes (on ne sait encore factoriser que de petits nombres), la crainte qu’un ordinateur quantique soit au moins par la théorie capable de déchirer des messages cryptés par la méthode RSA en un temps polynomial, a provoqué l’intérêt de nombreux acteurs (gouvernementaux notamment), et entraîné dans son sillage un développement inespéré de tout le domaine de l’information quantique. D’autres exemples d’accélération existent : l’algorithme de Grover par exemple [4], est capable de retrouver un élément parmi N, en un nombre √ N d’opérations alors que le meilleur algorithme classique ne sait faire mieux qu’en un nombre N d’opérations. On peut également citer le problème de Simon [5] dans lequel on cherche pour une fonction f : {0, 1} m → {0, 1} m , à trouver s tel que ∀x ̸= y : f(x) = f(y) ⇔ y = x ⊕ s, et pour lequel on obtient une accélération d’un nombre exponentiel d’opérations (pour le meilleur algorithme classique connu), à un nombre polynomial d’opérations (pour l’algorithme quantique). Enn on peut citer les travaux récents de Lloyd, Harrow et Hassidim [6], sur la résolution de systèmes d’équations linéaires, où l’on observe pour N équations une accélération d’un nombre O(N) d’opérations pour le meilleur algorithme classique connu, à un nombre poly(log(N)). Nous le voyons donc, utiliser une approche quantique de certains algorithmes classiques, peut conduire à de véritables accélérations salvatrices, ouvrant au moins dans la théorie, la possibilité de résoudre toute une nouvelle classe de problèmes de complexité inaccessible aux ordinateurs classiques. Cependant, nous restons encore aujourd’hui dans l’ignorance des limitations qui seraient celles d’un ordinateur quantique. Ignorance qui s’ajoute à la diculté de trouver quels algorithmes quantiques sont exponentiellement plus ecaces que leurs homologues classiques. 

Naissance du traitement quantique de l’information 

L’expérience sensible qu’il a du monde, a conduit l’homme à subdiviser l’univers en des catégories distinctes, et à construire une représentation relativement manichéenne de son environnement existentiel : froid/chaud, lent/rapide, mort/vivant, ouvert/fermé, etc. On peut dire sans trop de crainte, que c’est de cette expérience quotidienne d’un univers où existent des états classiques exclusifs l’un de l’autre qu’est née un jour la logique binaire dans le domaine du traitement de l’information. Cependant, avec le temps, l’homme s’est rendu compte de la diculté qu’il y avait à réduire l’existant à de simples catégories, et que bien souvent, tout était question de points de vue. Ainsi la relativité lui a par exemple révélé que le cadre même dans lequel il existe (l’espace, le temps) n’est en rien absolu, et que l’essence profonde des choses lui est dissimulée. La mécanique quantique quant à elle, lui a enseigné que les constituants élémentaires de la matière (atomes, électrons, photons, etc.) étaient décrits par des fonctions d’onde donnant la probabilité lors d’une mesure de trouver le système dans tel ou tel état quantique, l’obligeant à se détacher de cette intuition classique naturelle qu’il a du monde au travers de ses sens. Cette étrangeté du monde quantique qui choque la connaissance que nous avons du monde, a été particulièrement bien illustrée par l’expérience de pensée de Schrödinger dans laquelle un dispositif dépendant de l’état quantique d’un atome (qui a 50% de chance d’être dans un état A où dans un état B), doit déclencher tout un processus conduisant à la mort d’une pauvre chat innocent, entraînant ce raisonnement absurde que tant qu’aucun observateur n’observe le système, le chat se retrouve dans un état quantique de superposition cohérente : √ 1 2 (|mort⟩ + |vivant⟩) (cf. gure 1.3). Bien évidemment l’expérience quotidienne nous prouve que les objets macroscopiques n’exis tent pas dans de tels états de superposition quantique (en raison de phénomènes de décohérence (d’autant plus rapides que le système est important) qui entraînent la disparition quasiimmédiate des cohérences de la matrice densité du système macroscopique et ne laissent subsister qu’une distribution de probabilités délocalisée). De ce constat qu’un objet quantique peut exister dans une superposition cohérente d’états qui seraient classiquement exclusifs les uns des autres, nous pouvons dire qu’est née un jour l’idée d’un traitement quantique de l’information. 

Table des matières

Avant-propos
1 Introduction à l’information quantique et rappels utiles
1.1 Un peu d’histoire
1.1.1 Genèse de l’information quantique et conjecture de Moore
1.1.2 Naissance de l’idée d’un ordinateur quantique
1.1.3 Naissance du traitement quantique de l’information
1.2 Le bit quantique ou qubit
1.2.1 Paramétrisation d’un qubit – Sphère de Bloch
1.2.2 Action d’une opération unitaire sur un état pur
1.2.3 Base computationnelle
1.2.4 Convention d’écriture
2 Rôle de l’interférence dans le clonage quantique d’un qubit
2.1 Présentation des cloneurs quantiques
2.1.1 Théorème de non-clonage
2.1.2 Différence entre clonage classique et clonage quantique
2.1.3 Définition d’une fidélité de clonage
2.1.4 Définition d’une fidélité moyenne de clonage
2.1.5 Cloneur de Buzek et Hillery
2.1.6 Cloneurs universels atteignant la valeur optimale classique
2.2 Clonage quantique et interférence
2.2.1 Intérêt de l’interférence
2.2.2 Définition d’une mesure d’interférence
2.2.3 Clonage quantique en terme de matrice dynamique
2.2.4 Optimisation convexe
2.2.5 Classe générale de cloneurs symétriques optimaux sans interférence
2.2.6 Cas du cloneur de Buzek et Hillery
2.3 Conclusion partielle
3 Amplification de spin
3.1 Intérêt des chaînes de spins
3.1.1 Problème du transfert de spin
3.1.2 Transfert d’état parfait
3.1.3 Détection d’un spin unique
3.1.4 Mesure d’un spin unique
3.1.5 Philosophie de l’amplification de spin
3.1.6 Équivalence entre transfert de spin et amplification de spin
3.1.7 Influence de la topologie, de la géométrie et des conditions aux frontières
3.1.8 Approche semi-classique de l’amplification de spin
3.1.9 Introduction de la base des |Γk,l⟩
3.2 Chaîne linéaire
3.2.1 Modèle physique de Lee et Khitrin
3.2.2 Équivalence entre le problème d’amplification de spin et le problème de transfert de spin
3.2.3 Propagateur quantique en terme de fonctions de Bessel
3.2.4 Approximation semi-classique du propagateur : l’approximation WKB
3.2.5 Comportement des polarisations individuelles moyennes
3.2.6 Comportement linéaire de la polarisation totale moyenne
3.3 Chaînes circulaires
3.3.1 Hˆ
: Fermeture par identification de SNL+1 et S1
3.3.2 Hˆ
: Chaîne circulaire complètement périodique
3.3.3 Hˆ
: Fermeture par un couplage particulier entre SNC −1, SNC
, S1, S2
3.3.4 Hˆ
: Existence d’une chaîne circulaire dynamiquement équivalente à une chaîne linéaire
3.4 Comparaison de l’efficacité de l’amplification de spin pour les différents systèmes
3.4.1 Définition d’une fidélité totale de polarisation
3.4.2 Étude comparative des différents systèmes
3.4.3 Origine des différences observées
3.5 Conclusion partielle
Conclusion générale
Annexe
A Fonctions de Bessel et fonctions de Airy
A.0.1 Fonctions de Bessel du premier type
A.0.2 Fonctions de Airy
B Fidélité moyenne et matrice dynamique
Bibliographie

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *