On se souvient que le 25 février 2025, une tribune signée par plus de 400 scientifiques a été publiée par le journal Libération, faisant un certain bruit. On peut trouver son contenu en accès libre avec la liste de ses signataires sur le site de Scientifiques en rébellion. Étant donné les contraintes et défis sur l’énergie, les matériaux, l’environnement, le climatclimat et la biodiversitébiodiversité et même l’économie mondiale déjà présents et qui vont devenir de plus en plus importants dans les 50 prochaines années, on peut très légitimement se demander si le projet de la constructionconstruction d’un collisionneur géant de particules envisagé et étudié par le Cern depuis quelques années est bien raisonnable. Ne faudrait-il pas rediriger l’argent et les matériaux pour sa construction vers des objectifs en accord avec l’urgence écologique ?
Le Future Circular Collider ou FCC, qui prendrait place dans un tunnel circulaire de presque 90 kilomètres de circonférence, devait coûter au moins 15 milliards d’euros dans la première phase de sa construction. Elle verrait la mise en place, dans le tunnel passant de 200 à 400 mètres de profondeur sous le lac Léman et le Rhône, d’un collisionneur d’électrons et d’antiélectrons (des positrons) dans un premier temps, le FCC ee.
Dans un second temps, et après une phase d’exploitation d’environ 15 ans à partir des années 2040, il serait démantelé pour permettre de construire un collisionneur d’hadronshadrons, en l’occurrence des protonsprotons, le FCC hh.
Ses données scientifiques commenceraient à être disponibles à l’horizon des années 2070 pendant 25 ans, portant le coût du FCC à au moins 30 milliards d’euros. Le LHC à haute luminositéLHC à haute luminosité, le HL-LHC, serait lui arrêté vers 2040.
C’est basiquement le même programme et modus operandi que l’on a vu en œuvre avec d’abord la construction et l’exploitation du LEP (de l’anglais Large Electron Positron collider) dans le tunnel de 27 kilomètres de circonférence où prendra place ensuite le LHC.
On en donnera les raisons plus loin dans cet article.
Le Cern rappelle que le projet scientifique du LHC a été présenté en 1984, qu’il a fallu 10 ans pour que le projet soit approuvé, puis 25 ans pour que les aimantsaimants supraconducteurssupraconducteurs l’équipant soient développés et installés. Il donne précisément le calendrier suivant pour le projet qui attend encore une décision.
- 2025 : achèvement de l’étude de faisabilité du FCC.
- Aux environs de 2027-2028 : décision des États membres du Cern et des partenaires internationaux.
- Décennie 2030 : début de la construction.
- Milieu de la décennie 2040 : le FCC ee entre en service pour une duréedurée d’environ 15 ans.
- Décennie 2070 : le FCC hh entre en service, pour une durée d’environ 25 ans.
Une présentation du futur collisionneur circulaire européen, le FCC, et certaines des motivations pour le construire. Traduction et sous-titrages en cliquant sur la roue dentée en bas à droite de l’écran. © Cern
Or, les ingénieurs savent bien que s’applique parfois « la règle du facteur pipi », c’est-à-dire qu’entre le coût prévu pour un projet ou son temps d’exécution, un facteur multiplicatif d’environ 3 peut s’appliquer et ce n’est pas si rare que ça.
Rien que dans sa première phase, on peut se poser des questions sur les dépenses en énergie pour le fonctionnement, le bilan carbonebilan carbone pour la construction, l’impact sur l’environnement en surface des bâtiments au-dessus du tunnel du FCC et des volumesvolumes de roches sous forme de molasse à extraire pour creuser le tunnel.
Une nouvelle physique encore élusive
Mais surtout, rien ne semble garantir que le FCC permettra la découverte de nouvelles particules et d’une nouvelle physiquephysique en mesure de résoudre les énigmes du Big BangBig Bang et de la cosmologiecosmologie actuelles, comme celles de l’origine de la matièrematière et l’absence de galaxiesgalaxies d’antimatièreantimatière dans l’UniversUnivers observable ou encore celles de la nature de la matière noirematière noire et de l’énergie noireénergie noire, en supposant que ce soit toujours des composantes essentielles du modèle cosmologique standardmodèle cosmologique standard d’ici 2050.
La surprise a été désagréable avec le LHC en ce qui concerne la découverte d’une nouvelle physique, au point que l’on se demande depuis la fin des années 2010 si nous n’allons pas finalement être confrontés au cauchemar du « DésertDésert » envisagé dès les années 1970.
À ce moment-là, avant l’émergenceémergence des théories supersymétriques, des supercordes et, plus tard, des théories à basse massemasse de PlanckPlanck (qui laissaient entrevoir la possibilité de détecter des minitrous noirs au LHC) prolongeant le modèle standardmodèle standard, les théories unifiant les forces nucléaires et électromagnétiques ne prévoyaient pas de particules à des masses/énergies accessibles aux futurs accélérateurs… à part les bosons Z, W et de Brout-Englert-Higgs. Tout au plus, pouvait-on envisager des détections indirectes d’effets, par exemple avec une possible détection de la désintégration des protons dans des expériences comme Kamiokande, désintégration prédite par certaines GUT.
Paradoxalement, la découverte du bosonboson de Brout-Englert-Higgs, sa masse et ses caractéristiques sont à la fois un triomphe et un désastre.
Un triomphe parce que cela montre que les principes et les raisonnements utilisés pour construire le fameux modèle électrofaible et celui des quarks avec la chromodynamique quantiquechromodynamique quantique étaient parfaitement justifiés.
Un désastre parce que ces mêmes principes ont été appliqués pour développer une nouvelle physique, principes qui ont livré des arguments raisonnables suggérant fortement qu’on aurait dû rapidement la voir se manifester dans les toutes premières années de l’exploitation du LHC, avec des particules dont les masses devaient être de quelques TeV tout au plus (rappelons que, selon E=mc2, 1 TeV vaut 103 GeVGeV, c’est-à-dire 1 000 fois la masse d’un proton environ).
Cela n’a pas été le cas. Nous n’avons plus vraiment de raisons d’espérer avec confiance l’existence de nouvelles particules à des masses plus lourdes mais pas trop. Bien au contraire, il redevient tout à faire possible, voire raisonnable, qu’elles soient si massives (de l’ordre de 1015 GeV !) qu’il faudrait un accélérateur de la taille de la Galaxie pour les produire, bien au-delà des presque 14 TeV disponibles avec le LHC.
Des contraintes environnementales et énergétiques prises en compte pour le FCC
Dans ce contexte, et bien que le texte publié par Libération ait été signé par un nombre non négligeable de spécialistes en neurosciences, des sociologues, des psychologues, des géographes, des médecins, des agronomes, des mathématiciensmathématiciens, des historienshistoriens etc. – bref, le lecteur l’aura compris par finalement plus d’une centaine de personnes dont on se demande vraiment en quoi leurs compétences seraient utiles à l’évaluation rationnelle et fondée des éléments présents dans le débat avec le FCC -, on peut se demander avec raison si cela vaut bien la peine de prendre le risque sérieux de jeter de l’argent et des matériaux par les fenêtresfenêtres alors qu’il y a bien d’autres priorités que celles de résoudre les énigmes du Big Bang.
Pour éclairer toutes ces questions, le Cern a récemment mis en ligne trois imposants rapports concernant tous les aspects discutés au sujet de la construction du FCC, que ce soit dans sa première phase avec des collisions entre positrons et électrons, ou sa seconde phase avec des collisions de protons.
Avant la mise en ligne de ces rapports, Futura avait eu la chance d’écouter la présentation faite dans une conférence presse organisée par Arnaud Marsollier, responsable des relations presse du Cern. On pouvait en particulier poser des questions aux deux intervenants qui font également partie des auteurs des rapports à savoir Jean-Paul Burnet, responsable des infrastructures techniques du FCC et qui est un des experts du Cern concernant la technologie et la physique des accélérateurs, et Patrick Janot, coordinateur de la physique et des expériences FCC et qui, lui, est un des experts de la phénoménologie d’une nouvelle physique accessible en accélérateur.
Voici donc quelques éléments de réflexion que nous en avons tirés
Le premier point que l’on peut en partie aborder, c’est sans doute le coût. On sait déjà que, dans le cadre du LHC et tout comme le projet ApolloApollo, sa construction a stimulé certaines technologies mais pas seulement, que ce soit avec la technologie des supraconducteurs ou des détecteurs pour la médecine, mais aussi divers aspects de l’économie. Au final, dans le cas LHC, chaque euro investi par les Européens non seulement sera au total remboursé sur toute la période d’activité du LHC mais il engendre même un surplus !
Si tel sera le cas avec le FCC, alors l’argument comme quoi on risque fort de ne rien trouver et donc de jeter de l’argent par les fenêtres alors que cet argent aurait été utile pour, par exemple, décarboner l’économie, tombe.
Comme on peut le voir sur l’une des pages du Cern consacrées au FCC, il semble que ce sera bien le cas avec un rapport bénéfice-coût estimé à 1,66, voir plus.
Plus généralement, des dizaines de pays, et pas seulement européens, vont, tout comme dans le cas du LHC, se répartir le coût du FCC. On peut considérer qu’il y a environ 430 millions de contribuables répartis dans 23 États membres du Cern (en fait, la collaboration mondiale FCC regroupe déjà plus de 140 instituts dans plus de 30 pays). Sur 30 ans d’exploitation du FCC et avec un coût de 30 milliards d’euros, cela revient à environ 2,5 € par personne et par an… et ce, sans compter le rapport bénéfice-coût précédent !
Bref, clairement, le problème n’est finalement pas dans l’argent dépensé pour un projet dont on peut dire en fait qu’il constitue une entreprise de toute la noosphère pour comprendre l’Univers.
Quid maintenant de l’énergie électrique consommée ?
Nous savons que la consommation en énergie de l’Humanité est problématique aussi bien en raison du changement climatiquechangement climatique que l’augmentation des besoins de la population et surtout des limites de l’utilisation des énergies fossilesénergies fossiles.
La consommation actuelle du LHC est d’environ 1,3 TWh/an. Le FCC sera plus grand et capable de monter presque à 100 TeV dans les collisions avec des protons mais la physique de l’accélération des particules est telle qu’elles perdent moins d’énergie par rayonnement avec une grande machine donc au bout du compte, on estime que la consommation du FCC ee sera entre 1,1 et 1,8 TWh/an.
On ne devrait pas dépasser 3 TWh/an et on a bon espoir de descendre en dessous de 2 TWh/an avec le FCC hh.
Comme le FCC fonctionnera alors que le HL-LHC sera définitivement arrêté et que l’on continuera à utiliser de l’électricité décarbonée, on ne voit vraiment pas en quoi la consommation du FCC serait vraiment plus un problème que ne l’est l’actuel LHC. Elle sera en fait de l’ordre de celle d’un grand data-center actuel dans le monde.
Il faut quelques millions de m3 d’eau par an pour refroidir certains des dispositifs du Cern et l’ordre de grandeurordre de grandeur nécessaire pour le FCC sera le même. Pour ce qui est du génie civil, le Cern explique que « les activités de construction de l’accélérateur produiraient environ 16,4 millions de tonnes de matériaux d’excavation sur une période de neuf ans » ; il ajoute que des études ont permis de « mettre au point des techniques crédibles et innovantes de réutilisation d’une partie des matériaux d’excavation : utilisation du calcairecalcaire pour la production de bétonbéton et la stabilisation des constructions dans le cadre du projet, réutilisation des matériaux d’excavation comme remblais pour des carrières et des mines, et transformation en sol fertile pour des projets de réensauvagementréensauvagement ».
Le LHC lui-même et ses aimants supraconducteurs n’ont nécessité qu’une infime partie du marché mondial avec le niobiumniobium qui n’est pas une terre rareterre rare et qui est largement utilisé pour la production de certains aciersaciers. Plus généralement, Jean-Paul Burnet nous a expliqué que le Cern n’avait quasiment aucun impact sur l’utilisation des matériaux considérés comme critiques. Là aussi, il n’y a donc pas vraiment de problème.
Un résumé très court, avec des chiffres de toutes ces considérations et d’autres sur la faisabilité du FCC, se trouve sur cette page du Cern.
Terminons par les perspectives sur la physique.
Une physique de précision au FCC ee pour percer les derniers secrets du boson de Higgs
La première machine qui fonctionnera serait, on l’a dit, un collisionneur électron-positron comme le fut le LEP mais à des énergies dans les collisions qui pourrait atteindre 360 GeV. C’est nettement en dessous des 14 000 GeV des collisions de protons du LHC mais presque 1,7 fois supérieur aux collisions finales du LEP ; surtout, les faisceaux du FCC ee seront nettement plus lumineux (voir les explications à ce sujet plus loin).
On ne s’attend donc pas à produire des particules massives que le LHC n’a pas déjà produites mais comme l’a expliqué Patrick Janot, une énorme variété de théories basées sur de la nouvelle physique pourrait pointer le bout de son neznez.
En effet, la théorie quantique des champs nous dit que des particules, comme les électrons ou les quarksquarks, sont entourées par les fluctuations quantiques de ces mêmes particules et d’autres apparaissant puis disparaissant sans cesse, tout en interagissant avec les électrons, les quarks ou encore les photonsphotons et même les bosons de Brout-Englert-Higgs (BEH). Il s’agit d’une situation violemment non-linaire où même des particules très massives d’une nouvelle physique participent à la danse.
En pratique, cela veut dire que les masses, les charges et d’autres caractéristiques des particules du modèle standard ainsi que les taux des réactions avec ces particules sont légèrement perturbées par ces fluctuations quantiques qui donnent ce que les physiciensphysiciens appellent dans leur jargon des corrections radiatives.
En mesurant avec une grande précision les propriétés des bosons BEH, des bosons W et Z, ainsi que celles du plus lourd des quarks, le quark topquark top, à l’aide du FCC-ee, (le FCC est d’ailleurs considéré comme une usine à bosons BEH), il est possible de remonter aux causes des perturbations. Ainsi, dans le modèle standard, une propriété observable, qui aurait comme valeur 1,000, aurait selon l’existence de nouvelles particules entre quelques dizaines de TeV à une centaine, voire plus, une valeur de 1,XYZ. Or, les valeurs de X, Y et Z dépendent de la nouvelle physique présente. Ainsi, une valeur de 1,010 pour la masse des bosons Z pourrait nous dire qu’il existe des particules de matière noire bien précises.
Le FCC ee pourrait donc plus généralement nous dire qu’il y a effectivement de nouvelles particules en dessous de 100 TeV que le FCC hh pourrait alors produire. Inversement, certaines théories seraient réfutées en l’absence de la présence de corrections radiatives mesurables.
On attend du FCC ee en particulier qu’il nous aide à comprendre l’origine de la masse du boson BEH lui-même (rappelons que le champ de ce boson explique la masse de certaines particules élémentairesparticules élémentaires et qu’en se couplant à lui-même, il explique en partie peut-être aussi sa propre masse) ainsi que la forme précise dans les équationséquations de ce qui assure la brisure de symétrie électrofaible. Il existe en particulier des alternatives à la forme standard de la brisure qui permettrait de comprendre pourquoi le cosmoscosmos observable ne contient presque pas d’antimatière.
Pour obtenir une traduction en français assez fidèle, cliquez sur le rectangle blanc en bas à droite. Les sous-titres en anglais devraient alors apparaître. Cliquez ensuite sur l’écrou à droite du rectangle, puis sur « Sous-titres » et enfin sur « Traduire automatiquement ». Choisissez « Français ». © Future Circular Collider Study
Futura avait déjà consacré des articles au FCC et à la recherche d’une nouvelle physique avec des accélérateurs comme le LHC et le LEP. En complément de celui de ce mois d’avril 2025, nous reprenons donc certaines des explications et des précisions déjà exposées.
Commençons par rappeler quelques principes simples de la physique des accélérateurs et de la détection des particules. Il s’agit bien sûr d’atteindre un seuil énergétique donné pour produire des particules, car plus elles sont lourdes, plus il faut monter en énergie. Les nouvelles particules sont aussi créées dans les collisions selon des lois de probabilité bien déterminées. Plus elles sont rares, plus il faut un grand nombre de collisions par seconde pour les observer. Il est donc nécessaire de disposer de faisceaux de particules avec une luminosité élevée, comme on dit dans le jargon des physiciens. Faute de quoi, même une particule comme le boson de BEH aurait fort bien pu nécessiter des siècles de collisions sans interruption pour être découverte au LHC.
Leptons ou hadrons ? Telle est la question
Pour ce qui est des contraintes sur l’énergie, il faut savoir que des particules chargées de masse M, tournant sur une orbiteorbite circulaire de rayon R et possédant une énergie E, perdent cette énergie par rayonnement avec une puissance proportionnelle à E4/(R2M4).
Un proton, étant environ 2 000 fois plus lourd qu’un électron, perd donc bien moins d’énergie qu’un électron. Dans tous les cas, les pertes sont d’autant plus faibles que le rayon de l’orbite est grand. Dans l’idéal, les pertes sont nulles si l’accélération se fait non plus sur un cercle mais sur une ligne. Cependant, l’avantage d’un accélérateur circulaire est que l’on peut faire passer plusieurs fois une particule chargée dans une zone où règne le champ électriquechamp électrique qui sert à l’accélérer. Pour monter en énergie, il vaut donc mieux des collisionneurs de protons circulaires que des collisionneurs d’électrons, qu’ils soient linéaires ou circulaires.
Malheureusement, les collisions de protons génèrent un bruit de fond important, et il est plus difficile de réaliser des mesures précises pour étudier les propriétés de particules déjà identifiées que de le faire avec des collisions d’électrons. En outre, les collisionneurs circulaires permettent d’avoir une luminosité plus importante plus facilement qu’avec deux faisceaux de particules produits par deux accélérateurs linéaires. En rassemblant toutes ces considérations, on aboutit à deux conclusions :
- pour découvrir rapidement et facilement de nouvelles particules massives, il faut des collisions de hadrons, protons ou antiprotonsantiprotons ;
- pour effectuer une étude fine de la physique associée à ces nouvelles particules, une fois que l’on sait exactement quoi et où chercher, le choix de collision d’électrons et de positrons, voire de muonsmuons et d’antimuons (qui sont des leptonsleptons plus lourds que les électrons) s’impose, et si possible avec des accélérateurs linéaires.
Tout ceci explique pourquoi la découverte des bosons W et Z a d’abord été faite avec des collisions de protons et d’antiprotons au Cern. Une étude fine de leurs propriétés a ensuite été conduite avec le grand collisionneur électron-positron, ou LEP (de l’anglais Large Electron PositronLarge Electron Positron collider), dans l’espoir déjà à l’époque de trouver des traces de l’existence des particules supersymétriques et du boson de Brout-Englert-Higgs.
Une vidéo expliquant les avantages et les inconvénients entre les différents types de collisionneurs. Pour obtenir une traduction en français assez fidèle, cliquez sur le rectangle blanc en bas à droite. Les sous-titres en anglais devraient alors apparaître. Cliquez ensuite sur l’écrou à droite du rectangle, puis sur « Sous-titres » et enfin sur « Traduire automatiquement ». Choisissez « Français ». © Fermilab
En mars 1989, l’informaticien britannique, Tim Berners-LeeTim Berners-Lee, est au Cern : une serre chaude non seulement pour la physique des particules, mais aussi pour toutes les technologies nécessaires à son développement. Dans cet environnement stimulant, Tim Berners-Lee vient juste de mettre en pratique son idée de créer, pour faciliter les échanges entre les chercheurs, rien de moins que ce que nous appelons le World Wide Web. Un tel outil était nécessaire au moment où le grand collisionneur électron-positron – ou LEP (en anglais, Large Electron Positron collider) – se mettait en chasse d’une nouvelle physique, et surtout du boson de Brout-Englert-Higgs (BEH), le 20 septembre 1989.
Quelques années auparavant, au Cern, la découverte des bosons W et Z prédite par la théorie électrofaiblethéorie électrofaible de Glashow-Salam-Weinberg (GSW) a, en effet, dopé la physique des particules. Elle a montré que l’utilisation de la théorie des groupes en théorie quantique relativiste des champs et l’utilisation des théories de Yang-Millsthéories de Yang-Mills sont bien la clé d’une compréhension profonde des forces et des particules fondamentales du cosmos. Non seulement le boson de BEH de la théorie électrofaible devait bien exister mais il devait en être de même pour les particules supersymétriques, découlant des théories qui prolongent naturellement le modèle de GSW en utilisant la logique même qui a conduit à sa formulation.
Des expériences à tâtons
Problème : personne n’avait de certitudes quant à la masse de ces nouvelles particules. Pas d’autres choix que de faire des expériences à tâtons. Une chose était certaine cependant. Si des collisions de protons et d’antiprotons étaient bien la meilleure approche pour découvrir rapidement les bosons W et Z, elles produisaient aussi un bruit de fond qui ne permettait pas l’étude précise des propriétés de ces particules. Or, ce type d’études est nécessaire pour préparer au mieux les découvertes ultérieures.
Pour cette raison, on a donc fait des collisions entre électrons et antiélectrons (les positrons) avec un accélérateur de 27 kilomètres de circonférence, dans le tunnel prévu pour accueillir le LHC si l’on n’arrivait pas à découvrir le boson BEH et les particules supersymétriques aux niveaux d’énergie accessible avec le LEP. Plus les particules sont massives et rares à produire au cours des réactions, plus il faut, en effet, accélérer des particules à des niveaux élevés d’énergie et avec des faisceaux intenses.
La dernière pièce manquante du puzzle du modèle standard de la physique des particules a finalement été trouvée, avec la confirmation de l’existence du champ de Brout-Englert-Higgs (BEH) dans la nature. Les physiciens savent bien cependant que le modèle standard fait lui-même partie d’un puzzle beaucoup plus vaste, dont on sait qu’il a à voir avec la matière et l’énergie noires, l’évaporation quantique des trous noirs et la cosmologie. On s’attendait à ce que les collisions de protons au LHC nous donnent rapidement de nouveaux éléments à son sujet. Ce ne fut pas le cas.
Le champ de BEH nous offre tout de même potentiellement une fenêtre sur de la nouvelle physique, car via notamment les couplages de Yukawa, il semble être à l’origine des masses des quarks et des leptons du modèle standard. Ces couplages sont autorisés par les équations et les symétries du modèle standard, mais ils ne s’en déduisent pas. Faire leur étude en détail pourrait donc nous permettre de remonter à une théorie plus profonde et plus large, dictant les propriétés des champs de force et de matière.
L’existence du boson de Brout-Englert-Higgs pose certains problèmes que l’on peut résoudre en postulant l’existence d’une nouvelle symétrie dans la nature : une supersymétriesupersymétrie. Elle permettrait d’unifier naturellement la force électrofaible avec la force nucléaire forte. Elle prédit naturellement l’existence de particules de matière noire, et elle est potentiellement très bavarde sur la nature de l’énergie noire et même de la gravitationgravitation. Les théories supersymétriques les plus simples prédisaient un zoo de nouvelles particules dont les traces auraient dû être facilement décelables dans les produits des collisions de protons en dessous de 10 TeV au LHC. Il semble maintenant clair qu’il va falloir monter en énergie pour voir ces nouvelles particules… en supposant qu’elles existent bel et bien. Toute la question est de savoir jusqu’où aller : 14 TeV ? 1.000 TeV, ou plus encore ? Nul ne le sait vraiment…
La physique des particules a des retombées inattendues et protéiformes
Que le LEP ait échoué ou non, sa construction et son exploitation ont stimulé la découverte et la mise en place du World Wide Web dont chacun sait, très concrètement, l’immense impact que cette technologie a aujourd’hui sur le monde. Datant de cette époque, d’autres retombées de la physique des hautes énergies se sont concrétisées. Ainsi, la technologie des détecteurs, comme celle du défunt prix Nobel Georges Charpak ou celle des accélérateurs, se retrouve en médecine pour l’imagerie médicale ou la destruction des tumeurstumeurs cancéreuses.
Simplement aussi, en faisant rêver, la physique des hautes énergies suscite des vocations de physiciens, d’ingénieurs et d’informaticiens ; certes, ceux-ci ne vont pas tous intégrer cette quête mais ils contribueront ailleurs et autrement, à servir la société – dans un registre similaire, citons des auteurs de SF comme Ray Bradbury et Arthur Clarke qui ont inspiré bien des futurs ingénieurs du spatial.
On aurait donc tort de ne voir, dans ces projets pharaoniques comme le LHC et maintenant le FCC, que des sommes d’argent dépensées, peut-être en pure perte, pour un savoir fondamental qui n’aurait d’intérêt que pour les physiciens philosophes, héritiers de Pythagore, Platon, Démocrite, etc., alors que ces sommes d’argent seraient plus utiles, par exemple en développant l’énergie nucléaire, les OGM, etc., nécessaires pour relever les défis de l’humanité du XXIe siècle.