Il y a un siècle, la première révolution quantique fondée sur les travaux de Max PlanckMax Planck, Niels BohrNiels Bohr et surtout Albert EinsteinEinstein et Louis de BroglieLouis de Broglie se déployait de façon spectaculaire de 1925 à 1927 grâce aux travaux de Werner HeisenbergWerner Heisenberg, Max Born, Pascual Jordan, Wolfgang Pauli, en Allemagne, Erwin SchrödingerErwin Schrödinger, Paul DiracPaul Dirac et Enrico Fermi, respectivement en Suisse, au Royaume-Uni et en Italie.
Plus précisément, il y a un siècle cette année, Heisenberg puis Born et Jordan d’abord et Schrödinger ensuite découvraient les équations fondamentales de la mécanique quantique sous la forme dite matricielle d’un côté, et ondulatoire de l’autre, gouvernant les ondes de matière dont l’existence avait été proposée par le Français Louis de Broglie dans sa thèse en 1924 (Schrödinger n’allait publier le début de ses travaux à ce sujet qu’au début de l’année 1926, même si la découverte initiale a été faite à la fin de l’année 1925). On fait généralement coïncider la formulation finale de la théorie quantique avec les publications et les débats qui ont eu lieu pendant le mythique congrès Solvay, à Bruxelles, en 1927.
Découvrez en animation-vidéo l’histoire de la physique quantique : depuis la catastrophe ultraviolette jusqu’aux promesses de l’ordinateur quantique en passant par la première et la deuxième révolution quantique. Une animation-vidéo co-réalisée avec L’Esprit Sorcier. © CEA
Une révolution quantique dans le traitement de l’information
La première révolution quantique allait donner les clés pour comprendre et maîtriser les réactions nucléaires, expliquer les liaisons chimiques et des propriétés des matériaux comme leur aimantationaimantation, leur conductivitéconductivité et même la supraconductivitésupraconductivité, ou encore l’existence des semi-conducteurssemi-conducteurs. Plus généralement, cette explosion de physique quantiquephysique quantique théorique fournissait une description qui allait se révéler extraordinairement précise des interactions entre matière et lumièrelumière, comme l’effet laserlaser, tout en métamorphosant complètement notre conception de ces deux entités physiques et au fond, notre vision même de la réalité, de la fameuse Phusis grecque.
Un nouveau bond technologique et dans la connaissance se prépare sous nos yeuxyeux depuis quelques décennies au point que l’on parle de « seconde révolution quantique ». Elle repose sur la découverte du phénomène d’intrication quantiqueintrication quantique par Albert Einstein, Boris Podolsky et Nathan Rosen en 1935 sous la forme du paradoxe EPRparadoxe EPR, ainsi que la même année, par Erwin Schrödinger sous la forme du paradoxe du chat éponyme.
Elle repose aussi sur la possibilité de manipuler des objets quantiques individuels, notamment avec des sources de photonsphotons uniques.
Trois domaines sont essentiellement concernés et semblent prometteurs :
- la cryptographie quantiquecryptographie quantique et plus généralement les communications/téléportations d’informations quantiques ;
- des capteurscapteurs quantiques pour faire des mesures de grande précision, par exemple de champs de gravitégravité et de champs magnétiqueschamps magnétiques du cerveaucerveau ;
- enfin et surtout des ordinateursordinateurs ou pour le moins des simulateurs/calculateurs quantiquescalculateurs quantiques pour résoudre des problèmes bien spécifiques, totalement hors de portée des ordinateurs classiques.
On ne sera donc pas surpris par la décision prise le 7 juin 2024 par les Nations unies, reconnaissant l’importance de la science quantique et la nécessité d’une plus grande sensibilisation à son impact passé et futur, de proclamer 2025 « Année internationale des sciences et technologies quantiques (AISQ) ».
Futura a décidé de participer à cette célébration en publiant régulièrement au cours de cette année une chronique sur les révolutions quantiques, dont voici un premier épisode.
Celui-ci est l’occasion de saluer la parution en janvier 2025 d’un livre que l’on doit à l’un des principaux acteurs de la seconde révolution quantique : le prix Nobel de physique Alain AspectAlain Aspect. Il existe de nombreuses vidéos en ligne qui accompagnent et complémentent l’ouvrage d’Alain Aspect. Nous en donnons ici quelques-unes avec, bien sûr, celle du CNRS sur Alain Aspect lui-même.
Alain Aspect a voulu écrire ce livre pour nous faire partager sa fascination pour le débat entre deux géants de la physique, Niels Bohr et Albert Einstein, portant sur l’interprétation de la mécanique quantique. Presque un demi-siècle après ses propres expériences, Alain Aspect a reçu le prix Nobel de physique pour avoir montré que l’on doit renoncer à la vision du monde quantique défendue par Einstein. Alain Aspect replace le débat dans l’incroyable histoire de la physique quantique. Ne cachant pas son admiration pour Einstein, il nous montre comment la controverse quasi philosophique que celui-ci a engagée avec Niels Bohr a conduit à des expériences bien réelles et à l’invention de nouvelles technologies quantiques. Tout en faisant le récit de son parcours, Alain Aspect nous explique avec passion et clarté comment il a mis en évidence l’une des propriétés les plus extraordinaires de l’intrication quantique, et il tente d’imaginer la réaction d’Einstein à ses résultats expérimentaux. © Odile Jacob
À destination du grand public, mais aussi de celui qui est déjà un peu initié après quelques années d’études universitaires, son ouvrage intitulé « Si Einstein avait su » conduit pas à pas le lecteur des débuts de la physique quantique – avec les travaux fondateurs d’Einstein et Niels Bohr sur la lumière et les atomesatomes capables de l’absorber et de l’émettre – jusqu’à la réalisation de plusieurs expériences conçues et menées par Alain Aspect, en collaboration avec des collègues, les principaux étant Philippe Grangier et Jean Dalibard, deux physiciensphysiciens, et deux ingénieurs, Gérard Roger et André Villing.
La dernière expérience surtout, réalisée en 1982, a depuis fait grand bruit et souvent on la réduit à dire qu’elle a donné tort à Einstein dans le débat légendaire l’opposant à Niels Bohr depuis 1927 en ce qui concerne l’interprétation et le caractère complet de la mécanique quantique. Cette victoire prend racine dans un travail théorique publié en 1964 par le physicien irlandais John BellJohn Bell, alors en poste au CernCern et qui travaillait selon ses mots le week-end sur ce débat et la semaine sur des sujets considérés comme beaucoup plus sérieux à l’époque par la communauté scientifique mondiale, en l’occurrence la physique des particules élémentairesphysique des particules élémentaires avec la théorie quantique des champs.
L’intrication quantique est l’un des phénomènes les plus fascinants de la physique moderne. Dans les années 1930, elle fut l’objet d’un débat houleux entre deux géants de la physique : Albert Einstein et Niels Bohr. Pour Einstein, l’intrication, qui semble relier comme par magie des particules éloignées, est une aberration de la théorie quantique, et la preuve que celle-ci est incomplète. Pour Bohr, l’intrication est bien réelle, et nous pousse à accepter l’idée que des objets quantiques séparés peuvent former un tout indivisible. Mais faute de preuves expérimentales et d’applications scientifiques concrètes, le débat Bohr-Einstein passe inaperçu pendant près de 30 ans… Première partie d’un documentaire consacré à l’histoire de l’intrication quantique. Avec la participation de : Alain Aspect (laboratoire Charles Fabry de l’Institut d’Optique), Sara Ducci (laboratoire Matériaux et Phénomènes Quantiques), Philippe Grangier (laboratoire Charles Fabry de l’Institut d’Optique), Franck Laloë (laboratoire Kastler Brossel), Pérola Milman (laboratoire Matériaux et Phénomènes Quantiques). © Photons Jumeaux
Le grand débat de la théorie quantique
Pour essayer de mieux comprendre la position d’Einstein (partagée par Schrödinger et Louis de Broglie) en quoi elle différait de celle de Bohr (partagée par Heisenberg, Pauli et Born), il faut sans doute commencer par rappeler qu’Einstein était l’un des principaux créateurs de la mécanique quantique. Il avait été le premier à introduire des calculs de probabilité en théorie quantique dans son travail sur l’émission stimuléeémission stimulée de la lumière, publié en 1917.
Mais il ne croyait pas que ces probabilités soient différentes de celles utilisées depuis le XIXe siècle en théorie cinétique des gazgaz. L’emploi d’une distribution de probabilité pour décrire les positions et les vitessesvitesses des moléculesmolécules d’un gaz n’est alors qu’un expédient permettant d’obtenir des résultats en moyenne, du fait de l’ignorance, avec de plus une précision arbitrairement grande des positions et des vitesses de ces molécules à un instant donné, des paramètres de l’état du gaz qui sont cachés à la connaissance humaine.
Mais, selon Niel Bohr, Werner Heisenberg et surtout Max BornMax Born, le recours à des distributions statistiques pour décrire les résultats de mesures sur des systèmes quantiques devait être fondamental, il ne devait pas y avoir de paramètres cachés. Il fallait donc renoncer à un déterminisme absolu gouvernant l’évolution des grandeurs mesurables pour un système physique.
Pire, la description donnée par la mécanique quantique revenait à admettre, selon les propres mots d’Einstein, que des objets physiques, comme la LuneLune, n’existaient pas vraiment avec les propriétés que leur donne la physique classique, indépendamment d’un observateur pour les mesurer, fût-ce cet observateur une souris. Il fallait introduire comme le montrait bien le fameux paradoxe EPR l’idée que les objets classiques n’existaient pas vraiment dans l’espace et dans le temps et que les états de ces objets semblaient impliquer des influences non locales, plus rapides que la lumière et même ayant des actions instantanées, bien peu dans l’esprit de la théorie de la relativité.
Pendant longtemps, pour la communauté scientifique, le débat entre le camp d’Einstein et le camp de Bohr était essentiellement philosophique, donc stérile car, en pratique, les règles standards d’applicationapplication de la théorie quantique donnaient des résultats spectaculaires. John Bell avait finalement fourni un outil théorique permettant de trancher entre les positions d’Einstein et de Bohr via des expériences, mais encore fallait-il pouvoir les concevoir en détail et les réaliser.
Pour Alain Aspect, son voyage et son aventure vers le prix Nobel de physique via les travaux d’Einstein et John Bell ont débuté après avoir intégré ce qui s’appelait à l’époque « l’École normale supérieure de l’enseignement technique (ENSET) » et qui devint plus tard « l’École normale supérieure de Cachan » (aujourd’hui l’École normale supérieure Paris-Saclay). Il avait passé ensuite une première thèse, sur l’holographie.
Alain Aspect, alors directeur de recherche CNRS au Laboratoire Charles Fabry de l’Institut d’optique d’Orsay, lorsqu’il a reçu la Médaille d’or du CNRS en 2005 pour ses travaux dans le domaine de l’optique quantique et de la physique atomique. Il raconte son parcours et décrit ses travaux. © CNRS
L’école française d’optique quantique
Agrégation de physique également en poche, il se rend en 1973 au Cameroun pour effectuer sa coopération en compagnie de sa femme, elle-même professeur de chimiechimie. S’il avait reçu une excellente formation en physique classique, mettant l’accent sur des technologies comme l’électronique, l’enseignement concernant la physique quantique laissait encore à désirer, de sorte que dans l’article que le CNRS le Journal avait publié lors de la remise de sa médaille d’or en 2005, il avait déclaré : « À l’époque, la physique quantique était enseignée de manière un peu obscure. Certaines propriétés me semblaient relever de la schizophrénieschizophrénie et je me posais beaucoup de questions sur le formalisme quantique ». Par chance, il peut passer son temps libre au Cameroun à étudier un ouvrage tout juste publié, Mécanique quantique par Claude Cohen-Tannoudji, Bernard Diu et Franck Laloë. L’ouvrage s’est depuis taillé une réputation mondiale et l’un de ses auteurs, Claude Cohen-Tannoudji, décrochera plus tard le prix Nobel de physique pour ses travaux sur l’optique quantique.
Incidemment, l’enseignement en France de la théorie quantique commençait tout juste à rattraper son retard grâce à la génération précédente de jeunes physiciens français qui, comme Albert Messiah et Cécile DeWitt-Morette, s’étaient exilés, frustrés par le retard pris plus généralement par la France en physique théorique et qui était largement restée à l’écart de la première révolution quantique, à part quelques grands noms, comme Louis de Broglie, Léon Brillouin ou encore du point de vue expérimental par Alfred Kastler. Prix Nobel de physique en 1966, Kastler était né dans l’Alsace encore sous domination allemande. Parfaitement bilingue, il avait donc pu suivre les développements de la physique quantique dans les articles et traités rédigés en allemand, notamment celui publié par Arnold Sommerfeld sur la vieille théorie quantique qui l’avait beaucoup influencé et bien sûr ceux des élèves de Sommerfeld, comme Heisenberg et Pauli qui avaient suivi ses cours (toujours très instructifs) à Munich.
Kastler a été un des fondateurs de l’école française d’optique quantique. Le livre d’Alain Aspect révèle que Kastler a de plus joué un rôle dans la préparation de l’expérience qui lui vaudra en 2022 le prix Nobel de physique à son tour, bien qu’il ne l’ait pas su à l’époque.
De retour en France, à la fin de l’année 1974, Alain Aspect est bien préparé par sa maîtrise du « Cohen » (comme on l’appelle souvent), lorsqu’il découvre l’article de 1964 de John Bell. Fasciné, il va vouloir en faire le sujet de thèse d’État qu’il voulait entreprendre tout en ayant déjà un poste d’enseignant chercheurenseignant chercheur à Cachan.
David Bohm et John Belle entrent en scène. © Photons Jumeaux
D’Einstein à John Bell en passant par Bohm
Mais, avant l’article de John Bell et après celui sur le paradoxe EPR, d’importantes contributions ont été apportées par le physicien états-unien David Bohm, qui avait passé sa thèse sous la direction de Robert Oppenheimer, juste avant que celui-ci ne prenne la direction du projet Manhattan.
Tout comme Einstein, Schrödinger et de Broglie, il n’aimait pas l’abandon du déterminisme en mécanique quantique ainsi que les obscurités de la théorie du point de vue conceptuel, notamment sur la dualité onde-corpusculedualité onde-corpuscule selon le principe de complémentaritéprincipe de complémentarité de Bohr et le rejet des images des phénomènes de la physique classique.
En 1951, il publie un ouvrage sur la théorie quantique exposant sa compréhension du sujet, ce qui va attirer l’attention d’Einstein, qui considérait que c’était la meilleure exposition de la théorie qu’il ait vue jusqu’à présent. La même année et la suivante, il va reformuler le paradoxe EPR en utilisant non plus des variables continues, en l’occurrence de position et de quantité de mouvementquantité de mouvement, mais les variables discrètes permettant de décrire le moment cinétiquemoment cinétique propre des particules, le spinspin. En l’occurrence, la nouvelle formulation de Bohm faisait intervenir des paires de particules portant chacune un spin de valeur +/- ½, comme c’est le cas des électronsélectrons. Elle permet une discussion plus simple du paradoxe EPR.
Il va également reprendre, en la poussant plus loin, la théorie de « l’onde pilote » exposée en 1927 lors du congrès Solvaycongrès Solvay par Louis de Broglie (qu’il appelait aussi sa théorie de la double solution). Elle proposait que les particules quantiques soient bel et bien des paquetspaquets d’énergieénergie localisés, mais dont les déplacements étaient guidés par une onde associée à ses particules. Conforme à sa réputation de Méphistophélès (« Je suis l’esprit qui toujours nie », lui fait dire Goethe dans son Faust) de la physique théorique, Wolfgang Pauli avait dézingué la théorie du français avec des arguments auxquels de Broglie ne pensait pas pouvoir répondre en 1927.
La théorie dite aujourd’hui de « de Broglie-Bohm » est aussi déterministe. Elle explique notamment l’emploi des probabilités par l’équivalent d’une interaction entre les particules et une sorte de réservoir de chaleurchaleur caché forçant les particules (en plus d’être guidées par ce que de Broglie a appelé un potentiel quantique selon des trajectoires permettant de reproduire des phénomènes d’interférenceinterférence et de diffractiondiffraction, d’après la fameuse expérience des trous de Young) à avoir des mouvements browniens stochastiquesstochastiques.
John Bell va être fasciné par les idées de Bohm, d’autant plus que la théorie « de Broglie-Bohm » apparaît alors comme visiblement un contre-exemple à un théorèmethéorème du génial von Neumann, que celui-ci avait exposé dans son traité légendaire sur les fondements mathématiques de la mécanique quantique au début des années 1930. Ce théorème était censé montrer que la théorie quantique déjà testée par les expériences ne pouvait pas être déduite un jour d’une théorie déterministe avec des variables cachées. Bell va découvrir que le théorème de von Neumann repose sur des hypothèses tellement contestables qu’il en est même idiot, selon les mots de Bell lui-même, et que finalement il ne prouve rien.
La fameuse inégalité de Bell violée par la mécanique quantique ne permet pas encore d’imaginer concrètement une expérience pour la tester. Ce sont les physiciens John Clauser, Michael Horne, Abner Shimony et Richard Holt qui, en 1969, vont proposer une telle expérience, mais avec des paires de photons polarisés et intriqués. Ils dérivent alors en suivant un raisonnement analogue à celui de Bell une nouvelle inégalité, celle de Clauser-Horne-Shimony-Holt (CHSH), qui est donc la forme de celle de Bell quand on passe des paires de particules de spin ½ à des paires de photons.
Eugene Wigner et David Mermin vont trouver de nouvelles inégalités similaires par la suite, plus simples à établir.
L’expérience cruciale de 1982 à Orsay. © Photons Jumeaux
Des verrous méthodologiques et technologiques en série
Après avoir expliqué tout cela dans les premiers chapitres de son livre et présenté les travaux pionniers d’Einstein et son débat avec Bohr du congrès Solvay à l’article sur le paradoxe EPR, Alain Aspect montre de façon passionnante à quel point des expériences fondamentales en physique nécessitent aussi des compétences de théoriciens.
Il y a d’abord celles qui, comme dans son cas, font comprendre l’impact potentiel de ces expériences sur notre compréhension de l’UniversUnivers.
Il y a ensuite celles qui ont permis à Alain Aspect de faire sauter plusieurs verrousverrous dans les étapes de la réalisation de l’expérience qui l’a rendu célèbre. Le lecteur ou la lectrice en ressort enchanté(e) d’avoir pu pénétrer les arcanes d’une de ces expériences fondamentales et d’en apprécier toute la beauté. On prend connaissance aussi de l’existence d’autres verrous, technologiques cette fois, qui ont pu être contournés.
Chacun des chapitres de l’ouvrage se termine par un long encadré très utile et efficace qui est un résumé, un distillat de l’essentiel du chapitre. Pour les courageux, et aussi les curieux disposant d’un bagage scientifique d’une à deux années universitaires en physique, qui veulent en savoir plus, Alain Aspect a ajouté des compléments plus techniques sur des points précis. Par exemple, sur la notion ubiquiste en science d’écart type et de test scientifique d’une mesure avec les fameux 5 sigma ou exposant plus en détail la dérivation de l’inégalité de Bell sous la forme connue sous le nom de Clauser-Horne-Shimony-Holt (CHSH).
La très grande majorité du livre peut se comprendre avec du travail et – au plus – l’équivalent d’un bac scientifique. C’est d’autant plus vrai que le génial prix Nobel de physique Richard FeynmanRichard Feynman a expliqué dans un extrait vidéo que l’on peut trouver sur YouTubeYouTube qu’il ne fallait pas de capacités hors du commun pour comprendre les bases de la physique classique et moderne du XXe siècle, mais juste de la curiosité et la volonté de consacrer beaucoup de temps pour les étudier.
Voyons quelques exemples des difficultés qu’Alain Aspect a dû résoudre.
De nos jours, il est assez bien connu dans le grand public, comme l’explique Alain Aspect dans les premiers chapitres de son livre, qu’il existe de multiples niveaux d’énergie pour l’état des électrons dans un atome et qu’un électron sur une orbiteorbite quantique peut passer d’un niveau à un autre en absorbant ou émettant un photon. Toutefois, et les étudiants en physique finissent par l’apprendre, toutes les transitions atomiques ne sont pas possibles et il y a des règles de sélection qui autorisent ou interdisent certaines de ces transitions.
Alain Aspect s’était heurté à un problème en raison de ces règles au début. Elles semblaient interdire la formation d’un état excitéétat excité dans un atome de calciumcalcium, précisément celui à partir duquel la théorie prévoyait une transition radiative en cascade en deux étapes, deux niveaux, d’un électron dans l’atome de calcium produisant les paires de photons intriqués, recherchées pour optimiser l’expérience testant l’inégalité de Bell.
Toutefois, en entendant parler d’une expérience récente faite par des collègues parisiens, il s’est rendu compte qu’il pouvait résoudre son problème en utilisant une technique basée sur l’emploi de deux faisceaux laser et d’un processus là aussi connu des étudiants avancés en physique quantique. Il s’agit des transitions multi-photoniques.
Le cas le plus simple est celui de l’absorptionabsorption à deux photons (ADPADP), prédite théoriquement pour la première fois en 1931 dans la thèse par la prix Nobel de physique Maria Goeppert-Mayer. Deux photons, de fréquencefréquence identique ou différente, peuvent être absorbés quasi simultanément en un seul événement quantique, permettant de produire une transition entre deux niveaux qui semblait interdite. De facto, il a fallu attendre les années 1960 avec la constructionconstruction des lasers pour valider la prédiction de Goeppert-Mayer.
On reste songeur…
Einstein est le découvreur de l’effet laser, lequel sert de base aux technologies permettant de valider deux autres prédictions d’Einstein, les ondes gravitationnellesondes gravitationnelles et l’intrication quantique.
Donnons encore un exemple d’une technologie qui s’est révélée être l’un des ingrédients cruciaux de l’expérience d’Alain Aspect.
Comme on produit plusieurs paires de particules intriquées, il faut être sûr que les photons que l’on reçoit sont bien ceux d’une seule et même paire et donc que l’on observe bien des événements en coïncidence. Heureusement, déjà dans les années 1970, Alain Aspect pouvait bénéficier d’une technologie alors bien utilisée et développée dans le domaine des expériences en physique des particules et avant en physique nucléaire et des rayons cosmiquesrayons cosmiques (notamment par Rossi), celle des détections en coïncidence avec des instruments appropriés.
En fait, c’est même de l’histoire ancienne car le premier détecteur d’événements en coïncidence avait été construit par Walther Bothe (il a reçu le prix Nobel de physique en 1954 pour ce développement et les expériences successives utilisant cette méthode) et Hans Geiger de 1924 à 1925 pour conduire justement l’expérience de coïncidence dite de Bothe-Geiger. Elle allait servir à réfuter la théorie BKS de Niels Bohr, Hendrik Kramers et John C. Slater où les trois physiciens avaient proposé la possibilité que la conservation de l’énergie ne soit vraie qu’en moyenne, pour les grands ensembles statistiques, et puisse être violée pour les petits systèmes quantiques. La théorie BKS permettait alors de se passer des photons d’Einstein et donc d’éliminer tous les paradoxes et conflits entre les quanta de lumière d’Einstein et la théorie classique des ondes électromagnétiquesondes électromagnétiques de Maxwell.
De l’intrication quantique à la seconde révolution quantique. © Photons Jumeaux
Pour ceux qui voudrait en apprendre un peu plus sur la physique quantique et la physique classique utilisée dans les expériences faites par Alain Aspect à partir des travaux de John Bell et ses successeurs, il y a bien sûr les cours de physique de Feynman, mais aussi, notamment sur la notion de polarisation de la lumière, Quantique, rudiments de Jean-Marc Lévy-Leblond et Françoise Balibar ainsi que le Cours de physique de l’université de Berkeley sur la physique quantique d’Eyvind Hugo Wichmann.
Une alternative plus courte consiste à étudier les trois ouvrages de Léonard Susskind :
Très peu connus, alors qu’ils sont incroyablement bien rédigés et avec un jugement physique spectaculaire, sont les ouvrages d’Igor V. Savelyev, la version courte du cours de Landau en mécanique quantique et le cours d’un autre prix Nobel de physique, James Peebles.
Pour conclure, certains se demandent peut-être à quoi ressemblait le paradoxe EPR dans sa version initiale. Voici une reprise de plusieurs explications que Futura avait données dans plusieurs autres articles.
Conférence donnée sur l’intrication et l’information quantiques par Alain Aspect à l’occasion de l’assemblée générale de l’Union des professeurs de classes préparatoires scientifiques. Institut d’Optique Graduate School, le vendredi 12 mai 2017. © Institut d’Optique
Einstein a souvent été présenté comme un physicien génial avant son arrivée à l’université de Princeton au début des années 1930, puis comme une victime de l’âge et de la « fossilisationfossilisation » (selon ses termes) par la suite, ne comprenant rien à la révolution quantique.
C’est complètement faux, comme l’explique Alain Aspect dans la vidéo ci-dessus. Non seulement il a été l’un des fondateurs de la première heure de la théorie quantique, mais même après 1930 ses tentatives pour aller au-delà de la théorie quantique orthodoxe ont pavé la voie de la révolution moderne concernant l’information quantique via sa découverte, avec Schrödinger, du phénomène de l’intrication quantique.
De nos jours, les expériences faites pour tester le phénomène de l’intrication quantique et l’utiliser, par exemple pour faire de la téléportation d’états quantiques ou de la cryptographie, reposent sur la mesure de la polarisation de paires de photons jumeaux, ou sur le spin de paires d’électrons jumeaux. Mais en 1935, lorsque Einstein, Podolsky et Rosen (EPR) ont publié leur célèbre article pour tenter de démontrer que la théorie quantique orthodoxe devait être incomplète et laisser la place à une théorie plus profonde, il en était tout autrement.
Pour comprendre l’expérience de pensée proposée par ces trois chercheurs, il faut savoir qu’en mécanique quantique, des grandeurs physiques, comme la quantité de mouvements et la position d’une particule, sont décrites par des objets mathématiques appelés « opérateurs ». Il s’agit de grandeurs mathématiques qui obéissent à une algèbre inhabituelle pour des nombres ordinaires, leur produit ne commute pas nécessairement. On peut souvent, mais pas toujours, se les représenter sous forme d’une matrice pour chaque opérateur, un tableau de nombres.
Un défi aux inégalités de Heisenberg position-impulsion
Cette non-commutativité impose alors, que lorsque l’on considère un objet avec des grandeurs physiques associées sous forme d’opérateurs, il n’est pas possible de mesurer simultanément précisément ces grandeurs. Pire, la théorie dénie même l’existence simultanée des valeurs ces deux grandeurs.
Ainsi, avec un quanta de matière ou de lumière, on ne peut non seulement pas connaître la position et la quantité de mouvements de cette particule avec une précision infinie, mais la position et la quantité de mouvements au sens classique ne sont pas des caractéristiques possédées simultanément par la particule. Cet interdit est bien exprimé par les fameuses inégalités de Heisenberginégalités de Heisenberg.
Ce comportement étrange indique en réalité que dans le monde quantique il n’existe pas vraiment de particule au sens classique du terme, qui pourrait ressembler à une boule de billard. Il existe un objet, un quanta de matière ou de lumière, qui, selon la situation expérimentale, peut être décrit en partie avec des images de position et de quantité de mouvements, mais sous réserve que ces images n’existent pas simultanément.
Pour des gens comme Einstein et Schrödinger, une telle situation ne reflétait qu’une impuissance momentanée de la théorie quantique à fournir une image claire et précise de ce qu’il fallait entendre par un quanta de lumière ou de matière dans l’espace et le temps. C’est pour le prouver qu’Einstein et ses collaborateurs, Podolski et Rosen, proposèrent donc, en 1935, un moyen de violer les inégalités de Heisenberg avec une expérience de pensée conduisant à ce que l’on a depuis appelé le paradoxe EPR ou encore l’effet EPR.
Pour cela, ils ont considéré une particule au repos décrite par une fonction d’onde Ψ, la fameuse fonction donnant l’amplitude de probabilité de trouver un système physique dans un état donné, par exemple de position, d’énergie, de spin, etc. Le carré de cette fonction permet de trouver la probabilité, de trouver les valeurs de ces grandeurs physiques dans les résultats des expériences que l’on peut mener et finalement de calculer des valeurs moyennes pour ces grandeurs.
La particule se désintègre en donnant deux autres particules, par exemple un électron et un positronpositron se déplaçant presque à la vitesse de la lumièrevitesse de la lumière et qui sont précisément dans un état que l’on décrit aujourd’hui par le terme d’intrication quantique. La conservation de la quantité de mouvements fait que positron et électron partiront dans des directions opposées et avec des quantités de mouvements identiques en valeur absolue.
Mesurons précisément la quantité de mouvements d’une des particules (par l’exemple la noire sur les deux schémas). On connaît a priori instantanément la valeur de l’autre (rouge). Réalisons simultanément une mesure de la position sur la deuxième particule. On devrait pouvoir aussi connaître sa position avec la précision désirée.
Il semble donc que l’on ait violé les inégalités de Heisenberg, à moins d’imaginer un signal envoyé par le premier électron vers l’autre pour brouiller toute mesure de sa position. Mais si l’on considère la mesure de la quantité de mouvements du premier électron six mois après son émission, pour respecter la théorie quantique, il faut que le signal rejoigne instantanément – ou pour le moins plus vite que la lumière – le second électron à une année-lumièreannée-lumière de là. On obtient donc une contradiction avec la relativité restreinte, indiquant un problème dans la théorie quantique et donc la nécessité de la modifier.
C’est du moins ce qu’Einstein pensait, mais Niels Bohr n’a pas tardé à contrer cet argument en répliquant qu’il n’était pas possible de parler de phénomènes physiques ni d’objets possédant telle ou telle propriété, indépendamment de la situation expérimentale dans le formalisme de la théorie quantique.
Ainsi, dans l’exemple précédent, électron et positron sont en fait intriqués et ne sont pas décrits par deux fonctions d’ondes indépendantes avant toute mesure. Il n’existe qu’une seule fonction globale, un seul objet, et on ne peut pas parler de deux objets séparés dans l’espace et dans le temps.
L’ensemble réagit d’un bloc lors d’une mesure, quelles que soient les distances, et exhibe une non-localité. Cette dernière propriété est malgré tout en accord avec la relativité restreinterelativité restreinte car le flou quantique interdit de pouvoir prédire le résultat des deux mesures. On ne peut pas s’en servir pour transmettre de l’information directement et quasi-instantanément car on ne contrôle pas le résultat des mesures.
L’inégalité de Bell, un test de la présence de l’intrication quantique
Le débat était purement théorique au sujet de l’effet EPR dans les années 1930, mais dans les années 1960, est entré en lice le physicien John Bell qui a montré dans un article – en prenant une nouvelle version de l’expérience EPR – qu’il était possible de départager Einstein et Bohr, au moins jusqu’à un certain point.
L’article de Bell prenait comme base le travail du physicien David Bohm qui avait transposé le raisonnement EPR, portant initialement sur la mesure des positions et des vitesses d’une paire de particules de matière intriquées, à la mesure des spins de ces particules. Plus tard, on montra que l’on pouvait faire de même en mesurant la polarisation d’une paire de photons intriqués. C’est précisément de cette façon que les idées de Bell ont pu être mises en pratique par Alain Aspect et ses collègues Philippe Grangier, Gérard Roger et Jean Dalibard au moyen d’une expérience conduite à l’université d’Orsay en 1982. Niels Bohr est sorti victorieux de cette expérience, bien que le dernier mot au sujet de la mécanique quantique ne soit pas encore dit et que l’on pourrait bien découvrir un jour qu’Einstein avait fondamentalement raison, mais sous une forme très sophistiquée.
Toujours est-il que depuis lors, la majorité des expériences permettant de tester l’effet EPR se font avec des mesures de grandeurs physiques qui ne peuvent prendre que des valeurs discrètes, en l’occurrence, celles du spin de particules mises en jeu. Ces valeurs constituent ce que l’on appelle le spectrespectre des opérateurs associés aux grandeurs physiques. Dans le cas des mesures de positions et de quantités de mouvements, les spectres sont continus.
Bell avait déduit une célèbre inégalité, portant son nom, concernant les résultats des mesures d’un effet EPR avec des variables discrètes. Or, il se trouve que l’on soupçonne que l’intrication quantique apparaît dans bien plus de phénomènes qu’on ne pourrait le penser. Elle pourrait jouer un rôle considérable en biologie quantique et même en cosmologie, voire dans le fonctionnement du cerveau.