Dessin dans le style des leçons de steampunk. Style Steampunk - une réalité alternative de l'ère moderne

Pourquoi les physiciens ont-ils besoin d'un nouveau collisionneur ?
Si vous demandez aux physiciens de quel autre collisionneur ils auront besoin dans un avenir très proche, vous obtiendrez très probablement la réponse qu'il s'agit d'un collisionneur électron-positon.

Pourquoi avons-nous besoin d'un nouveau collisionneur et pourquoi ne pouvons-nous pas nous débrouiller avec le seul LHC ?

La réponse à cette question réside dans la nature des particules accélérées. Les protons accélérés au LHC participent aux processus d'interaction "forte". L'interaction "forte" est l'une des quatre interactions fondamentales de la nature avec les interactions "faibles", électromagnétiques et gravitationnelles. Comme son nom l'indique, une interaction "forte" est la plus forte de tous les types d'interaction. Sa force dépasse de loin les forces des interactions "faibles" et électromagnétiques, et plus encore la gravité, qui (aussi étrange que cela puisse paraître !) est la plus faible de toutes les interactions existantes. Alors pourquoi est-ce que la plupart des gens n'ont jamais entendu parler de l'existence de la force "forte", même si nous sommes tous très familiers avec la gravité et l'électricité ? Ceci s'explique par le fait que l'interaction "forte" n'agit qu'à de très petites distances comparables à la taille des noyaux atomiques. Par exemple, en raison de l'interaction "forte", les protons et les neutrons sont maintenus ensemble à l'intérieur des noyaux atomiques. Sans elle, les protons s'envoleraient dans des directions différentes sous l'action de forces de répulsion électrique. Et les neutrons, qui n'ont aucune charge électrique, ne pouvaient tout simplement pas être conservés dans les noyaux.

il est possible de faire une découverte, mais pour mesurer avec précision les paramètres des particules nouvellement découvertes, il faut autre chose.

Cet « alambic » ce sont précisément les collisionneurs électron-positon. Contrairement aux protons, les électrons et les positrons ne participent pas aux processus d'interaction "forte". Leur interaction est due à des processus électrofaibles. En raison de la spécificité de ces interactions, les sections efficaces pour la production de nouvelles physiques et de bruits de fond sont faibles. Pour cette raison, le collisionneur électron-positon est difficile à utiliser pour la découverte initiale (bien que cela soit possible). Cependant, si la découverte a déjà été faite et que la masse des nouvelles particules est approximativement connue, alors. en ajustant de manière appropriée l'énergie des électrons et des positrons en collision, il est possible de multiplier la probabilité de génération d'événements de signal, tout en maintenant les arrière-plans faibles. Le collisionneur électron-positon sera donc un bon complément au LHC.

Collisionneurs électron-positon
À ce moment il y a deux projets concurrents pour le futur collisionneur électron-positon. Le nom du premier projet est l'International Linear Collider (ILC), à ce sujet en détail. On suppose que l'énergie de collision à ce collisionneur sera de 500 GeV à une longueur de collision de 31 km. Le projet inclut la possibilité d'augmenter l'énergie de collision à 1 TeV, tandis que la longueur du collisionneur sera portée à 50 km. La technologie censée être utilisée dans la construction de l'ILC est bien établie. À bien des égards, il s'appuie sur la technologie créée pour la construction de TESLA. L'accélérateur TESLA devait être construit sur le territoire du centre de recherche DESY (Hambourg, Allemagne). En termes de caractéristiques techniques, il est similaire à ILC. La construction a été pratiquement approuvée et annulée au tout dernier moment en raison de difficultés financières. ILC est un projet international dont les pays participants peuvent offrir leur propre territoire pour la construction. La Russie, en tant que participant à l'ILC, a proposé de le construire à Dubna.

Le collisionneur linéaire compact, ou CLIC en abrégé, est le deuxième des projets de construction de collisionneurs électron-positon. L'énergie de collision attendue sera de 3 TeV avec la possibilité d'une augmentation ultérieure à 5 TeV. La longueur du complexe d'accélérateurs sera de 48,3 km. L'énergie CLIC dépasse l'énergie ILC. C'est un plus indéniable. Cependant, la technologie CLIC n'a pas encore été développée aussi complètement que pour l'ILC. Cela prendra encore au moins quelques années.

À première vue, l'énergie du collisionneur électron-positon est bien inférieure à l'énergie du LHC. Cependant, contrairement aux électrons, qui sont de véritables particules élémentaires, les protons ont une structure interne. Ils sont constitués de quarks maintenus ensemble par la force "forte", portée par les gluons. Lorsque des protons entrent en collision dans un collisionneur, des collisions se produisent en fait entre leurs quarks et gluons constitutifs, dont chacun ne transporte qu'une petite partie de l'énergie totale des protons. En comparant l'énergie de ces collisions avec l'énergie du collisionneur électron-positon, il s'avère qu'elles sont comparables.

Dans tous les cas, la décision finale quant à la nécessité de construire un collisionneur électron-positon et le choix de la technologie ne seront pris qu'après l'obtention des résultats au LHC.

Pourquoi linéaire ?

Et pourquoi le futur collisionneur électron-positon devrait-il être linéaire ? En effet, dans ce cas, le principal avantage des accélérateurs en anneau est perdu, dans lequel les particules sont accélérées plusieurs fois, passant par les mêmes éléments accélérateurs lorsqu'elles se déplacent en cercle. Par exemple, l'accélération de protons au LHC d'une énergie de 450 GeV à une énergie de 7 TeV est supposée être réalisée en 20 minutes. Pendant ce temps, le faisceau de protons parvient à parcourir une distance de 36∙10 7 km (soit environ le double de la distance Terre-Soleil). Il est tout simplement impossible de construire un collisionneur linéaire de cette longueur. Ainsi, pour construire un collisionneur linéaire, il est nécessaire d'augmenter considérablement le taux d'accélération. Même ainsi, la longueur du collisionneur sera de plusieurs dizaines de kilomètres. Un autre inconvénient des collisionneurs linéaires est la possibilité d'installer une seule configuration expérimentale, car il n'y a qu'un seul point de collision de faisceau. Sur le LHC, par exemple, il y a 4 points de ce type.

Il semblerait que si les physiciens ont vraiment besoin d'un collisionneur électron-positon, pourquoi ne pas en faire un anneau ? Malheureusement, les possibilités de création d'un collisionneur électron-positon en anneau sont limitées par la nature elle-même. Lorsque des particules chargées se déplacent en cercle, un rayonnement synchrotron est généré, à la suite duquel les particules perdent leur énergie. Cet effet est pratiquement insignifiant pour les protons (même aux énergies du LHC). Cependant, les électrons, dont la masse est presque 2000 fois inférieure à la masse d'un proton, perdront une fraction importante de leur énergie à cause du rayonnement synchrotron. Sortie dans la construction d'un collisionneur linéaire. La possibilité de construire un tel collisionneur a été démontrée à Stanford, où se trouve le seul collisionneur linéaire électron-positon au monde.

Collisionneur de muons
L'électron appartient à la classe des leptons, un groupe de particules participant aux interactions électrofaibles. Un autre représentant de cette classe de particules est le muon. Il s'agit d'une particule élémentaire chargée négativement, dont la masse est 210 fois la masse d'un électron, ce qui permet de ne pas se soucier du rayonnement synchrotron lors de l'accélération des muons dans un accélérateur en anneau. Le muon serait une particule idéale pour l'accélération si ce n'était pour sa courte durée de vie. Il n'est que de 1,6 µs. Pendant ce temps, les muons doivent être accélérés à des vitesses relativistes. Cela présente de sérieuses difficultés techniques. De sérieux efforts pour développer la technologie des collisionneurs de muons ont commencé au milieu des années 1990. À l'heure actuelle, il existe une conception conceptuelle d'un collisionneur de muons d'une énergie de l'ordre de 1,5 à 4 TeV. Cependant, la mise en œuvre de ce projet relève très probablement d'un avenir plus lointain que la construction d'un collisionneur électron-positon.

La première étape vers la création d'un collisionneur de muons sera peut-être la construction d'une usine à neutrinos.

Un neutrino est une particule avec une section efficace d'interaction étonnamment petite, qui, par conséquent, a un pouvoir de pénétration énorme. Par exemple, pour qu'un neutrino frappe une barrière de fer, la taille de cette barrière doit être comparable à la distance du Soleil à Jupiter. Paul Dirac, le scientifique qui a le premier proposé théoriquement cette particule, a même fait le pari qu'elle ne serait jamais découverte expérimentalement (vraiment, comment peut-on la détecter si elle n'interagit avec rien ?). Cependant, il a perdu le pari. La particule a été découverte du vivant du scientifique. À l'heure actuelle, les propriétés des neutrinos sont activement étudiées. Pour cela, en particulier, des faisceaux de neutrinos sont utilisés. À première vue, il semble incroyable qu'il soit possible de créer un faisceau de neutrinos ? Comment faire voler des particules qui n'ont pas de charge électrique et qui sont extrêmement réticentes à interagir avec la matière dans une direction ? Pour cela, des particules chargées pré-accélérées (par exemple, des muons) sont utilisées, qui donnent des neutrinos lors de la désintégration. Si de nombreux muons volent dans la même direction, les neutrinos résultants voleront également dans la même direction. Voici un faisceau de neutrinos pour vous ! Le seul problème est que les muons vivent très peu de temps et qu'il est impossible de les accumuler en grand nombre au cours de leur vie. Ou plutôt, ça n'a pas marché. Cette lacune est destinée à combler le projet d'usine à neutrinos, qui repose sur la création d'anneaux de muons « de stockage », qui est à son tour la première étape vers la création d'un collisionneur de muons.

Le prochain hadron ?
Et le prochain collisionneur de hadrons sera-t-il construit, dépassant l'énergie du LHC ? Après tout, tôt ou tard l'ère des mesures précises (pour lesquelles, tout d'abord, un collisionneur linéaire électron-positon est nécessaire) sera révolue, et à nouveau un collisionneur sera nécessaire pour étudier de nouvelles gammes d'énergie. Un tel projet existe. En 2010, le CERN a annoncé son intention de construire un collisionneur de hadrons de 35 TeV dans le tunnel du LHC (après son arrêt).

Limite technologique
Chaque nouvelle génération d'accélérateurs devient plus grande et plus chère. Le coût énorme et la complexité de la conception sont en grande partie dus au fait que la technologie d'accélération existante a atteint ses limites. Ainsi, d'énormes champs accélérateurs doivent être maintenus à l'intérieur d'une nouvelle génération d'accélérateurs linéaires. Cependant, à mesure que l'intensité du champ augmente, des pannes se produisent à l'intérieur des éléments accélérateurs, entraînant leur destruction. Pour faire face à ce problème, des conceptions spéciales et des matériaux coûteux sont utilisés. Pour ILC et CLIC, on a pu créer très difficilement des gradients accélérateurs de l'ordre de 100 MeV/m.

Il est peu probable que cette valeur puisse être fortement augmentée. Cela définit la limite technologique pour les collisionneurs linéaires.

Dans les collisionneurs en anneau, l'accélération des gradients n'est pas un problème, car les particules peuvent être accélérées plusieurs fois dans un cercle.

Cependant, plus l'énergie des particules accélérées est élevée, plus il est difficile de les maintenir sur une trajectoire circulaire à l'intérieur de l'accélérateur. Pour cela, des champs magnétiques puissants sont utilisés. Au LHC, le champ magnétique est de 8,33 Tesla. Au prochain collisionneur de hadrons, qui devrait être situé dans le tunnel du LHC, une fois que le LHC aura terminé ses travaux (cela a été discuté un peu plus haut), le champ magnétique sera d'environ 20 Tesla. C'est presque la limite de la technologie moderne. Une autre façon consiste à augmenter la taille de l'anneau d'accélération, en conséquence, la courbure de la trajectoire des particules diminue, de sorte qu'il devient plus facile de les maintenir à l'intérieur du collisionneur. Cependant, étant donné que la taille des collisionneurs modernes est déjà de plusieurs dizaines de kilomètres, leur augmentation supplémentaire semble être une tâche très problématique et chronophage.

En raison du coût gigantesque des nouveaux accélérateurs, les questions relatives à leur construction sont débattues au niveau national. Et même devenir une monnaie d'échange entre les mains des politiciens. Rappelons par exemple le projet SSC (Superconducting Super Collider).

Ce collisionneur de hadrons avec une énergie de faisceau de 20x20 TeV devait être construit aux États-Unis. Oui, ce n'est pas une faute de frappe ! L'énergie totale des faisceaux en collision aurait dû être de 40 TeV.

C'est près de trois fois l'énergie maximale du LHC, qui ne sera atteinte qu'après les travaux de conception pour améliorer le collisionneur, prévus pour 2012. La longueur de l'anneau d'accélération du SSC devait être de 87,1 km (longueur du LHC 27 km). La construction devait être achevée en 1999. La mise en œuvre du projet a commencé. 22,5 km du tunnel ont été creusés, 17 mines ont été inondées. Malheureusement, le projet a été fermé par la suite.

Tout cela ne signifie-t-il pas la fin de la physique des accélérateurs ? La construction de nouveaux collisionneurs utilisant les technologies existantes devient de plus en plus coûteuse. Et les projets prennent des décennies à se concrétiser. Ainsi, pour la première fois, la construction du LHC a été évoquée en 1984, et le lancement officiel du collisionneur n'a eu lieu qu'à la fin de 2009. Peut-être que le jour n'est pas loin où la construction d'un nouveau collisionneur ne sera plus possible ? Une issue possible à cette situation est le développement de nouvelles technologies.

Accélérateurs à plasma
L'une des technologies les plus prometteuses est la méthode d'accélération plasma. Quelle est son essence ? Comme indiqué plus haut, technologie moderne l'accélération a presque atteint sa limite. Une nouvelle augmentation des champs accélérateurs conduit à des claquages ​​et à la destruction des parois des éléments accélérateurs. Mais si c'est le cas, alors peut-être pouvez-vous vous passer de murs du tout ? De grands champs électriques peuvent être créés, par exemple, dans un plasma. Le plasma est un gaz composé d'ions chargés positivement et d'électrons chargés négativement. Le plasma est généralement électriquement neutre, car les électrons et les ions sont uniformément répartis dans le volume de plasma. Et s'il y avait un moyen de les séparer ? Ensuite, les champs électriques générés peuvent être utilisés pour accélérer les particules. Mais comment parvenir à une telle séparation ?

Cela peut être fait avec un laser pulsé ou un faisceau d'électrons.

Un groupe d'électrons, volant à travers le plasma, pousse les électrons du plasma sur le chemin.

Dans ce cas, les ions ne bougent pratiquement pas, du fait que leur masse est bien supérieure à la masse des électrons. En conséquence, à l'endroit par lequel le faisceau d'électrons vient de passer, une région remplie d'une charge positive se forme pendant un temps très court. Immédiatement derrière se trouve une région dans laquelle les électrons du plasma sont déjà revenus à leur place, se refermant derrière le faisceau passé. A la frontière entre ces régions (dans un très grand volume) créent d'énormes champs électriques. Cette section se déplace après le faisceau d'électrons et la particule qui entre dans cette section subira une accélération constante.

En anglais, cette technologie est appelée accélération de wakefield, c'est-à-dire littéralement « accélération dans le sillage ». Cette analogie n'est pas fortuite. Imaginez un surfeur glissant sur une planche sur la crête d'une vague. S'il s'agit d'une vague naturelle, alors le plaisir du surfeur ne dure pas longtemps (jusqu'à ce que la vague faiblisse). Mais que se passe-t-il si cette vague est constamment alimentée ? Par exemple, un bateau à moteur peut aller de l'avant, créant un « courant de sillage » derrière lui. Le surfeur peut surfer sur la crête de cette vague. En même temps, il n'a même pas besoin d'une corde pour s'accrocher au bateau. Tout ce dont vous avez besoin est une vague.

L'idée décrite n'est pas nouvelle. Il a été formulé pour la première fois dans les travaux de Budker et Veksler au milieu des années 1950. Cependant, il est resté longtemps non réclamé en raison d'un grand nombre de problèmes techniques et d'une grande réserve de technologie d'accélération conventionnelle. À l'heure actuelle, la technologie d'accélération plasma se développe activement. Le potentiel est énorme ! Il a été démontré que les gradients d'accélération peuvent dépasser 100 GeV/m. C'est 1000 fois plus que CLIC (le collisionneur électron-positon le plus puissant en cours de développement). Avec un tel taux d'accélération, pour accélérer les protons à l'énergie du LHC, un accélérateur d'une longueur de seulement 70 mètres (au lieu de 27 km) est nécessaire. Malheureusement, tout n'est pas si simple. Et sur le chemin de la création de ce type de collisionneurs, un grand nombre de problèmes techniques doivent encore être résolus. Afin d'utiliser les faisceaux créés dans des expériences, il est nécessaire que l'énergie des particules dans le faisceau ait approximativement la même valeur. Pendant longtemps, cela n'a pas pu être atteint. L'énergie des particules accélérées s'est avérée être dispersée sur une plage extrêmement large. Cependant, dans dernières années des progrès significatifs ont été réalisés sur cette question. Un autre problème est la mise à l'échelle de la technologie.

Comment maintenir un grand gradient d'accélération sur de longues distances ?

Après tout, au départ, de tels taux d'accélération énormes pourraient être créés à des distances ne dépassant pas quelques millimètres. Des progrès ont également été accomplis dans la résolution de ce problème. Pour démontrer la possibilité fondamentale de maintenir de grands gradients sur des distances relativement grandes, une expérience a été réalisée. À la fin du collisionneur linéaire de Stanford (SLC), qui accélère les électrons à 42 GeV, une section d'accélérateur supplémentaire basée sur la technologie d'accélération plasma a été livrée. La longueur de la section était d'environ 85 cm, tandis que l'énergie des électrons y était doublée (l'énergie maximale des électrons était de 857 GeV). C'est d'autant plus fantastique que pour accélérer des électrons à 42 GeV, il faut 3 km au collisionneur lui-même.

Malgré de tels succès, il faudra probablement plusieurs décennies pour créer des collisionneurs multi-TeV basés sur cette technologie. Mais de petits accélérateurs d'une énergie d'environ 1 GeV, pouvant tenir sur une table, pourraient apparaître dans les prochaines années. De tels accélérateurs peuvent être utilisés, par exemple, pour créer des sources compactes de rayonnement synchrotron.

Quoi d'autre?

En parlant d'accélérateurs du futur, je ne pourrais malheureusement pas mentionner beaucoup d'autres projets dont le but n'est pas de conquérir de nouvelles frontières énergétiques, mais de créer des faisceaux de haute intensité pour étudier des processus rares (par exemple, les projets SuperKEKB ou SuperB). Je n'ai pas non plus mentionné les projets de faisceaux d'ions, tels que la création du grand complexe d'accélérateurs FAIR, la modernisation de l'accélérateur RHIC ou le projet du nouveau collisionneur d'ions NICA à Dubna. Il est peut-être difficile de tout énumérer dans un court exposé. On espère que la plupart de ces projets seront mis en œuvre.

Le Grand collisionneur de hadrons a été appelé soit la "machine apocalyptique" soit la clé du mystère de l'univers, mais son importance est indéniable.

Comme l'a dit un jour le célèbre penseur britannique Bertrand Russell: "- c'est ce que vous savez, la philosophie est ce que vous ne savez pas." Il semblerait que ce soit vrai savoir scientifique depuis longtemps séparé de ses origines, que l'on retrouve dans la recherche philosophique La Grèce ancienne, mais il n'en est rien.

Tout au long du XXe siècle, les scientifiques ont tenté de trouver dans la science la réponse à la question de la structure du monde. Ce processus était similaire à la recherche du sens de la vie : un grand nombre de théories, d'hypothèses et même d'idées folles. À quelles conclusions les scientifiques sont-ils parvenus au début du 21e siècle ?

Le monde entier est composé de particules élémentaires, qui sont les formes finales de tout ce qui existe, c'est-à-dire ce qui ne peut pas être divisé en éléments plus petits. Ceux-ci incluent les protons, les électrons, les neutrons, etc. Ces particules sont en constante interaction les unes avec les autres. Au début de notre siècle, elle s'exprimait en 4 types fondamentaux : gravitationnel, électromagnétique, fort et faible. Le premier est décrit par la Théorie Générale de la Relativité, les trois autres sont combinés dans le cadre du Modèle Standard (théorie quantique). Il a également été suggéré qu'il existe une autre interaction, appelée plus tard le "champ de Higgs".

Progressivement, l'idée de combiner toutes les interactions fondamentales dans le cadre de " théorie de tout", qui a d'abord été perçu comme une blague, mais s'est rapidement transformé en un puissant direction scientifique. Pourquoi est-ce nécessaire ? Tout est simple ! Sans une compréhension du fonctionnement du monde, nous sommes comme des fourmis dans un nid artificiel - nous n'irons pas au-delà de nos limites. La connaissance humaine ne peut pas (enfin, ou au revoir ne peut pas, si vous êtes optimiste) couvrir la structure du monde dans son intégralité.

L'une des théories les plus célèbres qui prétendent "tout embrasser" est considérée théorie des cordes. Cela implique que l'univers entier et nos vies sont multidimensionnelles. Malgré la partie théorique développée et le soutien de physiciens célèbres tels que Brian Greene et Stephen Hawking, il n'a aucune confirmation expérimentale.

Les scientifiques, des décennies plus tard, en ont eu assez de diffuser depuis les tribunes et ont décidé de construire quelque chose qui devrait une fois pour toutes mettre les points sur les i. Pour cela, la plus grande installation expérimentale au monde a été créée - Grand collisionneur de hadrons (LHC).

"Au collisionneur !"

Qu'est-ce qu'un collisionneur ? En termes scientifiques, il s'agit d'un accélérateur de particules chargées conçu pour accélérer les particules élémentaires afin de mieux comprendre leur interaction. En termes simples, c'est une grande arène (ou bac à sable, si vous préférez) dans laquelle les scientifiques se battent pour prouver leurs théories.

Pour la première fois, l'idée de faire entrer en collision des particules élémentaires et de voir ce qui se passe est venue du physicien américain Donald William Kerst en 1956. Il a suggéré que grâce à cela, les scientifiques pourront pénétrer les secrets de l'univers. Il semblerait qu'y a-t-il de mal à pousser deux faisceaux de protons ensemble avec une énergie totale un million de fois supérieure à celle de la fusion thermonucléaire ? Les temps étaient propices : la guerre froide, la course aux armements et tout ça.

L'histoire de la création du LHC

Brücke-Osteuropa / wikimedia.org
(CC0 1.0)

L'idée de créer un accélérateur pour obtenir et étudier des particules chargées est apparue au début des années 1920, mais les premiers prototypes n'ont été créés qu'au début des années 1930. Au départ, il s'agissait d'accélérateurs linéaires à haute tension, c'est-à-dire de particules chargées se déplaçant en ligne droite. La version en anneau a été introduite en 1931 aux États-Unis, après quoi des appareils similaires ont commencé à apparaître dans un certain nombre de pays développés - Grande-Bretagne, Suisse et URSS. Ils ont le nom cyclotrons, et plus tard a commencé à être activement utilisé pour créer des armes nucléaires.

Il convient de noter que le coût de construction d'un accélérateur de particules est incroyablement élevé. L'Europe, qui a joué un rôle secondaire pendant la guerre froide, a commandé sa création Organisation européenne pour la recherche nucléaire (souvent lu CERN en russe), qui a ensuite repris la construction du LHC.

Le CERN a été créé à la suite de l'inquiétude de la communauté mondiale concernant la recherche nucléaire aux États-Unis et en URSS, qui pourrait conduire à une extermination générale. Par conséquent, les scientifiques ont décidé d'unir leurs forces et de les diriger dans une direction pacifique. En 1954, le CERN a reçu sa naissance officielle.

En 1983, sous les auspices du CERN, les bosons W et Z ont été découverts, après quoi la question de la découverte des bosons de Higgs n'est plus devenue qu'une question de temps. La même année, débutent les travaux de construction du Grand collisionneur électron-positon (LEPC), qui joue un rôle primordial dans l'étude des bosons découverts. Cependant, même alors, il est devenu clair que la capacité de l'appareil créé serait bientôt insuffisante. Et en 1984, il a été décidé de construire le LHC, immédiatement après le démantèlement du BEPC. C'est ce qui s'est passé en 2000.

La construction du LHC, qui a débuté en 2001, a été facilitée par le fait qu'elle s'est déroulée sur le site de l'ancien BEPK, dans la vallée du Léman. En lien avec les questions de financement (en 1995, le coût était estimé à 2,6 milliards de francs suisses, en 2001 il dépassait 4,6 milliards, en 2009 il s'élevait à 6 milliards de dollars).

Sur le ce moment Le LHC est situé dans un tunnel d'une circonférence de 26,7 km et traverse simultanément les territoires de deux pays européens - la France et la Suisse. La profondeur du tunnel varie de 50 à 175 mètres. Il convient également de noter que l'énergie de collision des protons dans l'accélérateur atteint 14 téraélectronvolts, soit 20 fois plus que les résultats obtenus avec BEPC.

"La curiosité n'est pas un vice, mais un grand dégoûtant"

Le tunnel de 27 km du collisionneur du CERN est situé à 100 mètres sous terre près de Genève. D'énormes électroaimants supraconducteurs seront situés ici. À droite, des wagons de transport. Juhanson/wikipedia.org (CC BY-SA 3.0)

Pourquoi cette « machine apocalyptique » artificielle est-elle nécessaire ? Les scientifiques s'attendent à voir le monde tel qu'il était immédiatement après le Big Bang, c'est-à-dire au moment de la formation de la matière.

Buts, que les scientifiques se sont fixés lors de la construction du LHC :

  1. Confirmation ou réfutation du modèle standard afin de créer davantage une "théorie du tout".
  2. Preuve de l'existence du boson de Higgs en tant que particule de la cinquième interaction fondamentale. Selon les recherches théoriques, il devrait affecter les interactions électriques et faibles, brisant leur symétrie.
  3. L'étude des quarks, qui sont une particule fondamentale, qui est 20 000 fois plus petite que les protons qui les composent.
  4. Obtenir et étudier la matière noire, qui constitue la majeure partie de l'univers.

Ce sont loin d'être les seuls objectifs assignés par les scientifiques au LHC, mais le reste est plus lié ou purement théorique.

Qu'est-ce qui a été réalisé ?

Sans aucun doute, la réalisation la plus importante et la plus importante a été la confirmation officielle de l'existence le boson de Higgs. La découverte de la cinquième interaction (le champ de Higgs), qui, selon les scientifiques, affecte l'acquisition de masse par toutes les particules élémentaires. On pense que lorsque la symétrie est brisée lors de l'action du champ de Higgs sur d'autres champs, les bosons W et Z deviennent massifs. La découverte du boson de Higgs est si importante dans sa signification qu'un certain nombre de scientifiques leur ont donné le nom de "particules divines".

Les quarks se combinent en particules (protons, neutrons et autres), appelées hadrons. Ce sont eux qui accélèrent et se heurtent dans le LHC, d'où son nom. Pendant le fonctionnement du collisionneur, il a été prouvé qu'il est tout simplement impossible d'isoler un quark d'un hadron. Si vous essayez de faire cela, vous retirerez simplement un autre type de particule élémentaire d'un proton, par exemple - méson. Bien qu'il ne s'agisse que de l'un des hadrons et qu'il ne porte rien de nouveau en soi, une étude plus approfondie de l'interaction des quarks devrait être effectuée précisément par petites étapes. Dans la recherche des lois fondamentales du fonctionnement de l'Univers, la hâte est dangereuse.

Bien que les quarks eux-mêmes n'aient pas été découverts lors de l'utilisation du LHC, leur existence a été perçue jusqu'à un certain point comme une abstraction mathématique. Les premières particules de ce type ont été découvertes en 1968, mais ce n'est qu'en 1995 que l'existence d'un « vrai quark » a été officiellement prouvée. Les résultats des expériences sont confirmés par la possibilité de les reproduire. Dès lors, l'obtention d'un résultat similaire par le LHC n'est pas perçue comme une répétition, mais comme une preuve consolidante de leur existence ! Bien que le problème de la réalité des quarks n'ait disparu nulle part, car ils sont simplement ne peut pas être distinguéà partir des hadrons.

Quels sont les plans ?

Hans G / flickr.com (CC BY-SA 2.0)

La tâche principale de créer une "théorie de tout" n'a pas été résolue, mais l'étude théorique des options possibles pour sa manifestation est en cours. Jusqu'à présent, l'un des problèmes d'unification de la théorie de la relativité générale et du modèle standard demeure zone différente leurs actions, à propos desquelles la seconde ne tient pas compte des caractéristiques de la première. Par conséquent, il est important d'aller au-delà du modèle standard et d'atteindre le seuil nouvelle physique.

Supersymétrie - les scientifiques pensent qu'il relie les champs quantiques bosonique et fermionique, à tel point qu'ils peuvent se transformer l'un en l'autre. C'est ce type de conversion qui dépasse le cadre du modèle standard, car il existe une théorie selon laquelle la cartographie symétrique des champs quantiques est basée sur gravitons. Ils peuvent respectivement être une particule élémentaire de gravité.

Boson Madala- l'hypothèse de l'existence du boson de Madala suggère qu'il existe un autre domaine. Ce n'est que si le boson de Higgs interagit avec des particules et de la matière connues que le boson de Madala interagit avec matière noire. Malgré le fait qu'il occupe une grande partie de l'Univers, son existence n'est pas incluse dans le cadre du Modèle Standard.

Trou noir microscopique l'une des recherches du LHC consiste à créer un trou noir. Oui, oui, exactement cette zone noire et dévorante dans l'espace extra-atmosphérique. Heureusement, aucun progrès significatif n'a été réalisé dans cette direction.

Aujourd'hui, le Large Hadron Collider est un centre de recherche polyvalent, sur la base duquel des théories sont créées et confirmées expérimentalement qui nous aideront à mieux comprendre la structure du monde. Des vagues de critiques montent souvent autour d'un certain nombre d'études en cours qui sont qualifiées de dangereuses, y compris de Stephen Hawking, mais le jeu en vaut vraiment la chandelle. Nous ne pourrons pas naviguer dans l'océan noir qu'est l'Univers avec un capitaine qui n'a ni carte, ni boussole, ni connaissance de base du monde qui nous entoure.

Si vous trouvez une erreur, mettez en surbrillance un morceau de texte et cliquez sur Ctrl+Entrée.

Contrairement à leurs homologues en biologie (qui peuvent commander des rongeurs, des annélides ou des sangsues en ligne), les physiciens doivent concevoir leurs propres sujets de test.

Lorsque les physiciens ont besoin de particules pour les accélérateurs, ils viennent sur notre site et laissent des annonces dans les commentaires, proposant des emplois pour les particules vacantes. Parfois, ils ont besoin de particules avec une attitude positive, parfois plus neutres. Les physiciens demandent alors à la particule de sortir avec elle et, si tout se passe bien, proposent de participer au processus d'accélération. C'est ainsi que le boson de Higgs a été fabriqué.

Si. Contrairement à leurs homologues en biologie (qui peuvent commander des rongeurs, des annélides ou des sangsues en ligne), les physiciens doivent créer leurs propres sujets de test. Il n'est pas facile d'obtenir suffisamment de particules pour une collision à grande vitesse au grand collisionneur de hadrons.

Avant de les mettre dans un accélérateur de particules, voyons pourquoi nous devons faire cela. Que sont les accélérateurs et pourquoi ne pouvons-nous pas accélérer quelque chose de plus substantiel que des particules ?

L'accélérateur de particules le plus célèbre est le Large Hadron Collider, un monstre circulaire de 27 kilomètres enfoui sous terre. Situé en Suisse, le LHC relève de l'Organisation européenne pour la recherche nucléaire, alias CERN (l'acronyme a du sens si vous connaissez l'orthographe française). Le LHC est devenu assez populaire en 2012, lorsque des collisions de particules ont mis en lumière les traces du boson de Higgs, pour lequel cet accélérateur a été construit. La découverte du boson de Higgs a permis aux physiciens de parler avec plus de confiance du champ de Higgs, ainsi que de la façon dont la matière dans l'univers acquiert de la masse.

Mais si LHC est une superstar dans le monde des accélérateurs, il existe de nombreux autres studios moins connus qui font leurs propres disques. En général, il y a environ 30 000 accélérateurs dans le monde, et peut-être faut-il les remercier pour les inventions les plus pratiques. Et ce ne sont pas que des mots. Les scientifiques qui voulaient étudier les polymères superabsorbants utilisés dans les couches jetables ont eu du mal à les étudier lorsqu'ils étaient mouillés, alors - ta-da - se sont tournés vers la microscopie à rayons X (qui utilise l'accélération des particules). En étant capables d'identifier et d'étudier la structure des chaînes moléculaires, les scientifiques ont pu formuler correctement la bonne formule, en gardant les couches modernes au sec et grâce aux accélérateurs de particules.

De plus, les accélérateurs sont bien utilisés dans le milieu médical, en particulier - dans l'étude des moyens de traiter le cancer. Les accélérateurs linéaires (lorsque des particules entrent en collision avec une cible en ligne droite) envoient des électrons sur une cible métallique, ce qui produit des rayons X de haute précision et à haute énergie qui peuvent traiter les tumeurs. Et, bien sûr, sans accélérateurs en physique théorique des particules élémentaires, nulle part - toute théorie a besoin de pratique. Maintenant que nous savons un peu à quoi servent les boosters, parlons de quoi les nourrir.

Comme nous l'avons dit plus haut, les scientifiques du CERN produisent eux-mêmes des particules. Cela peut être comparé au fait qu'un comptable assemble sa propre calculatrice. Mais pour la physique des particules, ce n'est pas un problème. Tout ce que les scientifiques ont à faire est de commencer avec l'hydrogène, d'éliminer les électrons avec un duoplasmatron et de rester seuls avec les protons. Cela semble simple, mais c'est en fait plus difficile. Quoi qu'il en soit, pas si facile pour ceux qui ne reçoivent pas de cartes d'anniversaire de Stephen Hawking.

L'hydrogène est le gaz qui pénètre dans le premier étage de l'accélérateur de particules, le duoplasmatron. Le duoplasmatron est un appareil très simple. Les atomes d'hydrogène ont un électron et un proton. Dans un duoplasmatron, un atome d'hydrogène est débarrassé d'un électron grâce à un champ électrique. Ce qui reste est un plasma de protons, d'électrons et d'ions moléculaires qui traversent plusieurs réseaux de filtres, ne laissant que des protons.

Le LHC n'utilise pas seulement des protons pour des tâches de routine. Les physiciens du CERN brisent également des ions plomb pour étudier le plasma quark-gluon, qui nous rappelle vaguement comment était l'univers il y a longtemps. En poussant ensemble des ions de métaux lourds (fonctionne également avec l'or), les scientifiques peuvent créer un plasma quark-gluon pendant un moment.

Vous êtes déjà suffisamment éclairé pour comprendre que les ions plomb n'apparaissent pas comme par magie dans un accélérateur de particules. Voici comment cela se passe : Un physicien du CERN commence à collecter des ions plomb à partir du plomb 208 solide, un isotope spécial de l'élément. Le plomb solide est chauffé à la vapeur - jusqu'à 800 degrés Celsius. Puis ils l'ont battu choc électrique, qui ionise l'échantillon pour créer un plasma. Les ions nouvellement créés (atomes avec une charge électrique qui ont gagné ou perdu des électrons) sont entassés dans un accélérateur linéaire, ce qui leur donne une accélération, ce qui entraîne une perte d'électrons encore plus importante. Ensuite, ils s'éloignent encore plus et accélèrent - et les ions plomb sont prêts à suivre la trajectoire des protons et à s'écraser dans les entrailles du Large Hadron Collider.

Le Large Hadron Collider, l'accélérateur de particules le plus puissant du monde, qui est testé au CERN, a fait l'objet d'un procès avant même son lancement. Qui et pourquoi a poursuivi des scientifiques ?

Ne jugez pas le Large Hadron Collider... Les résidents de l'État d'Hawaï Walter Wagner et Luis Sancho ont intenté une action en justice contre le CERN devant le tribunal de district fédéral d'Honolulu, ainsi que les participants américains au projet - le ministère de l'Énergie, la National Science Foundation et le Fermi National Accelerator Laboratory, pour cette raison.

⦳⦳⦳⦳⦳

Les Américains craignaient que les collisions de particules subatomiques extrêmement énergétiques qui seraient effectuées dans l'accélérateur pour simuler les événements qui se sont produits dans l'Univers dans les premiers instants après le Big Bang, peut créer des objets menaçant l'existence de la terre.

Grand collisionneur de hadrons au CERN. Dans la boîte - simulation du processus de production du boson de Higgs dans le détecteur CMS

Le danger, selon les plaignants, réside principalement dans les soi-disant trous noirs - des objets physiques qui peuvent absorber certains des objets sur notre planète - par exemple, une grande ville.

Malgré le fait que la poursuite ait été déposée auprès du tribunal début avril 2008, les experts ne l'ont pas du tout traitée comme un poisson d'avril.

Et ils ont organisé une journée le 6 avril au Centre de recherche nucléaire portes ouvertes, invitant le public, les journalistes, les étudiants et les écoliers à une visite de l'accélérateur, afin qu'ils puissent non seulement voir de leurs propres yeux cet instrument scientifique unique, mais aussi obtenir des réponses complètes à toutes leurs questions.

Tout d'abord, bien sûr, les organisateurs du projet ont tenté de convaincre les visiteurs que le LHC ne pouvait en aucun cas être le coupable de la « fin du monde ».

Oui, le collisionneur situé dans un tunnel annulaire d'une circonférence de 27 km (de l'anglais collision - «collide») est capable d'accélérer des faisceaux de protons et de les heurter avec des énergies allant jusqu'à 14 téraélectronvolts 40 millions de fois par seconde.

Les physiciens pensent que dans ce cas, il sera possible de recréer les conditions apparues un billionième de seconde après le Big Bang, et d'obtenir ainsi des informations précieuses sur le tout début de l'existence de l'univers.

Grand collisionneur de hadrons et trou noir

Mais concernant le fait qu'un trou noir apparaîtra dans ce cas, ou on ne sait généralement pas quoi, le représentant du CERN, James Gills, a exprimé de grands doutes. Et pas seulement parce que l'évaluation de la sécurité du collisionneur est constamment effectuée par des théoriciens, mais aussi simplement basée sur la pratique.

"Un argument important selon lequel les expériences du CERN sont sûres est l'existence même de la Terre", a-t-il déclaré.

"Notre planète est constamment exposée à des flux de rayonnement cosmique, dont l'énergie n'est pas inférieure, et dépasse souvent celle du Cern, et n'a pas encore été détruite par un trou noir ou d'autres causes.

Entre-temps, comme nous l'avons calculé, au cours de l'existence de l'Univers, la nature a réalisé au moins 1031 programmes similaires à celui que nous sommes sur le point de mettre en œuvre.

Il ne voit pas de danger particulier dans la possibilité d'une réaction d'annihilation incontrôlée impliquant des antiparticules, qui surviendra à la suite d'expériences.

« L'antimatière est en effet produite au CERN,– a confirmé le scientifique dans une interview au magazine New Scientist.

« Cependant, ces miettes qui peuvent être créées artificiellement sur Terre ne suffiraient pas, même pour la plus petite bombe.

Il est extrêmement difficile de stocker et d'accumuler de l'antimatière (et certains de ses types sont impossibles du tout)"...

Grand collisionneur de hadrons et boson

La recherche d'un boson. Soit dit en passant, le même magazine a écrit que des spécialistes russes - le professeur Irina Arefyeva et le docteur en sciences physiques et mathématiques Igor Volovich de l'Institut mathématique Steklov de Moscou - pensent qu'une expérience à grande échelle au CERN pourrait conduire à l'apparition de la première . .. machine à remonter le temps dans le monde.

J'ai demandé au professeur Irina Yaroslavovna Arefyeva de commenter ce message. Et voici ce qu'elle a dit :

« Nous en savons encore pas mal sur la structure du monde qui nous entoure. Rappelez-vous, les anciens Grecs croyaient que tous les objets sont composés d'atomes, ce qui en grec signifie « indivisible ».

Cependant, au fil du temps, il s'est avéré que les atomes eux-mêmes avaient une structure assez complexe, composée d'électrons, de protons et de neutrons. Dans la première moitié du 20e siècle, il s'est soudainement avéré que les mêmes électrons avec des protons et des neutrons, à leur tour, peuvent être divisés en un certain nombre de particules.

Au début, ils étaient imprudemment appelés élémentaires. Cependant, il s'avère maintenant que bon nombre de ces particules dites élémentaires peuvent, à leur tour, se diviser ...

En général, lorsque les théoriciens ont essayé d'apporter toutes les connaissances acquises dans le cadre du soi-disant modèle standard, il s'est avéré que, selon certaines sources, les bosons de Higgs en sont le maillon central.

La mystérieuse particule tire son nom du professeur Peter Higgs de l'Université d'Édimbourg. Contrairement au professeur Higgins de la célèbre comédie musicale, il n'était pas engagé dans l'enseignement de la prononciation correcte des jolies filles, mais dans l'apprentissage des lois du micro-monde.

Et dans les années 60 du siècle dernier, il a fait l'hypothèse suivante : « L'univers n'est pas du tout vide, comme il nous semble.

Tout son espace est rempli d'une sorte de substance visqueuse, à travers laquelle, par exemple, l'interaction gravitationnelle entre les corps célestes est réalisée, à partir de particules, d'atomes et de molécules et se terminant par des planètes, des étoiles et des galaxies.

S'exprimant tout simplement, P. Higgs propose de revenir sur l'idée "diffusion mondiale" qui avait été une fois rejetée. Mais puisque les physiciens, comme les autres, n'aiment pas admettre leurs erreurs, la substance nouvelle-ancienne s'appelle maintenant "Champ de Higgs".

Et maintenant, on pense que c'est ce champ de force qui donne la masse aux particules nucléaires. Et leur attraction mutuelle est fournie par le vecteur de gravité, qui s'appelait à l'origine le graviton, et maintenant le boson de Higgs.

En 2000, les physiciens pensaient avoir enfin « attrapé » le boson de Higgs. Cependant, une série d'expériences entreprises pour tester la première expérience a montré que le boson s'était de nouveau échappé. Néanmoins, de nombreux scientifiques sont sûrs que la particule existe toujours.

Et pour l'attraper, il vous suffit de construire des pièges plus fiables, de créer des accélérateurs encore plus puissants. L'un des instruments les plus grandioses de l'humanité a été construit par des efforts communs au CERN près de Genève.

Cependant, ils attrapent le boson de Higgs non seulement pour s'assurer que les prédictions des scientifiques sont correctes, mais aussi pour trouver un autre candidat au rôle de «première brique de l'Univers».

« Il y a, en particulier, des hypothèses exotiques sur la structure de l'univers,

- Le professeur I.Ya a poursuivi son histoire. Arefieva.

– La théorie traditionnelle dit que nous vivons dans un monde à quatre dimensions

- trois coordonnées spatiales plus le temps.

Théorie de la mesure du grand collisionneur de hadrons

Mais il y a des hypothèses suggérant qu'en fait il y a plus de dimensions - six ou dix, voire plus. Dans ces mesures, la force gravitationnelle peut être significativement plus élevée que le g habituel.

Et la gravité, selon les équations d'Einstein, peut influencer le passage du temps. D'où l'hypothèse de "machine à remonter le temps". Mais même s'il existe, c'est pour une très courte durée et dans un très petit volume.

Tout aussi exotique, de l'avis d'Irina Yaroslavovna, est l'hypothèse de la formation lors de la collision de faisceaux en collision trous noirs miniatures. Même s'ils se forment, leur durée de vie sera si négligeable qu'il sera extrêmement difficile de les détecter simplement.

Sauf par des signes indirects, par exemple, le rayonnement X de Hawking, et même alors seulement après la disparition du trou lui-même.

En un mot, les réactions, selon certains calculs, se produiront dans un volume de seulement 10 à 20 mètres cubes. cm et si rapidement que les expérimentateurs doivent se creuser la tête pour placer les bons capteurs aux bons endroits, obtenir les données puis les interpréter en conséquence.

À suivre… Depuis le moment où le professeur Arefieva a dit les mots ci-dessus, près de cinq ans se sont écoulés jusqu'au moment où ces lignes ont été écrites.

Pendant ce temps, non seulement le premier lancement d'essai du LHC et plusieurs autres lancements ultérieurs ont eu lieu. Comme vous le savez maintenant, tout le monde a survécu et rien de terrible ne s'est produit. Les travaux continuent...

Les scientifiques se plaignent seulement qu'il leur est très difficile de surveiller l'état de santé de tous les équipements de cette installation scientifique unique. Cependant, ils rêvent déjà de construire l'accélérateur de particules géant de prochaine génération, l'International Linear Collider (ILC).

CERN, Suisse. Juin 2013.

En tout cas, voici ce que Barry Barish, professeur émérite au California Institute of Technology, qui dirige la conception du collisionneur linéaire international, et ses collègues écrivent à ce sujet

– Nicholas Walker Walker, spécialiste de la physique des accélérateurs à Hambourg, et Hitoshi Yamamoto, professeur de physique à l'université de Tohoku au Japon.

Grand collisionneur de hadrons du futur

"Les concepteurs de l'ILC ont déjà déterminé les principaux paramètres du futur collisionneur", rapportent les scientifiques.

- Sa longueur est d'env. 31km; la partie principale sera occupée par deux accélérateurs linéaires supraconducteurs, qui fourniront des collisions électron-positon avec une énergie de 500 GeV.

Cinq fois par seconde, l'ILC va générer, accélérer et faire entrer en collision près de 3 000 paquets d'électrons et de positons en une impulsion de 1 ms, correspondant à une puissance de 10 MW pour chaque faisceau.

L'efficacité de la centrale sera d'environ 20 %, par conséquent, la puissance totale dont l'ILC aura besoin pour accélérer les particules sera de près de 100 MW. »

Pour créer un faisceau d'électrons, une cible d'arséniure de gallium sera irradiée par un laser ; dans ce cas, à chaque impulsion, des milliards d'électrons en seront expulsés.

Ces électrons seront immédiatement accélérés à 5 GeV dans un court accélérateur supraconducteur linéaire puis injectés dans un anneau de stockage de 6,7 km situé au centre du complexe.

En se déplaçant dans l'anneau, les électrons généreront un rayonnement synchrotron et les paquets se rétréciront, ce qui augmentera la densité de charge et l'intensité du faisceau.

Au milieu du trajet, à 150 MeV, les paquets d'électrons seront légèrement déviés et envoyés vers un aimant spécial, appelé onduleur, où une partie de leur énergie sera convertie en rayonnement gamma.

Les photons gamma frapperont une cible en alliage de titane tournant à environ 1000 tours par minute.

Dans ce cas, de nombreuses paires électron-positon sont formées. Les positrons seront capturés, accélérés à 5 GeV, après quoi ils tomberont dans un autre anneau de constriction et, enfin, dans le deuxième accélérateur supraconducteur linéaire principal à l'extrémité opposée du LS.

Lorsque l'énergie des électrons et des positons atteindra une valeur finale de 250 GeV, ils se précipiteront vers le point de collision. Après la collision, les produits de la réaction seront envoyés dans des pièges, où ils seront fixés.

Vidéo du grand collisionneur de hadrons

ACCÉLÉRATEUR DE PARTICULES
une installation dans laquelle, à l'aide de champs électriques et magnétiques, des faisceaux dirigés d'électrons, de protons, d'ions et d'autres particules chargées d'une énergie bien supérieure à l'énergie thermique sont obtenus. Dans le processus d'accélération, les vitesses des particules augmentent, souvent à des valeurs proches de la vitesse de la lumière. De nombreux petits accélérateurs sont actuellement utilisés en médecine (radiothérapie) mais aussi dans l'industrie (par exemple pour l'implantation ionique dans les semi-conducteurs). Les grands accélérateurs sont principalement utilisés à des fins scientifiques - pour étudier les processus subnucléaires et les propriétés des particules élémentaires.
(voir aussi PARTICULES ÉLÉMENTAIRES). Selon la mécanique quantique, un faisceau de particules, comme un faisceau lumineux, est caractérisé par une certaine longueur d'onde. Plus l'énergie des particules est grande, plus cette longueur d'onde est courte. Et plus la longueur d'onde est courte, plus les objets qui peuvent être étudiés sont petits, mais le plus de tailles accélérateurs et plus ils sont difficiles. Le développement des recherches sur le microcosme a nécessité une énergie de plus en plus importante du faisceau de sondage. Les premières sources de rayonnement à haute énergie étaient des substances radioactives naturelles. Mais ils n'ont donné aux chercheurs qu'un ensemble limité de particules, d'intensités et d'énergies. Dans les années 1930, les scientifiques ont commencé à travailler sur des installations capables de produire des faisceaux plus diversifiés. Actuellement, il existe des accélérateurs qui permettent d'obtenir tout type de rayonnement à haute énergie. Si, par exemple, un rayonnement X ou gamma est requis, les électrons sont accélérés, qui émettent alors des photons dans les processus de rayonnement bremsstrahlung ou synchrotron. Les neutrons sont générés en bombardant une cible appropriée avec un faisceau intense de protons ou de deutons. L'énergie des particules nucléaires est mesurée en électronvolts (eV). Un électron-volt est l'énergie qu'acquiert une particule chargée, portant une charge élémentaire (charge d'électron), lorsqu'elle se déplace dans un champ électrique entre deux points avec une différence de potentiel de 1 V. (ACCÉLÉRATEUR DE PARTICULES 1 eV 1.60219 * 10-19 J. ) Les accélérateurs permettent d'obtenir des énergies allant de milliers à plusieurs billions d'électron-volts (10 12) - dans le plus grand accélérateur du monde. Pour détecter des processus rares dans une expérience, il est nécessaire d'augmenter le rapport signal sur bruit. Cela nécessite des sources de rayonnement de plus en plus intenses. Bord avant technologie moderne accélérateurs est déterminée par deux paramètres principaux - l'énergie et l'intensité du faisceau de particules. De nombreux et divers types de technologie sont utilisés dans les accélérateurs modernes : générateurs haute fréquence, électronique à grande vitesse et systèmes de contrôle automatique, dispositifs complexes de diagnostic et de contrôle, équipement d'ultravide, puissants aimants de précision (à la fois "conventionnels" et cryogéniques) et systèmes complexes ajustements et fixations.
PRINCIPES DE BASE
Le schéma de base de l'accélération des particules comprend trois étapes :
1) formation et injection du faisceau, 2) accélération du faisceau et 3) extraction du faisceau sur la cible ou collision de faisceaux en collision dans l'accélérateur lui-même.
Formation et injection du faisceau. L'élément initial de tout accélérateur est un injecteur, qui a une source d'un flux dirigé de particules à faible énergie (électrons, protons ou autres ions) et des électrodes et aimants haute tension qui extraient le faisceau de la source et le forment. Dans les sources de protons des premiers accélérateurs, on faisait passer de l'hydrogène gazeux dans la région d'une décharge électrique ou à proximité d'un filament incandescent. Dans de telles conditions, les atomes d'hydrogène perdent leurs électrons et seuls les noyaux restent - les protons. Cette méthode (et similaire avec d'autres gaz) sous une forme améliorée est encore utilisée pour obtenir des faisceaux de protons (et d'ions lourds). La source forme un faisceau de particules, caractérisé par l'énergie initiale moyenne, le courant du faisceau, ses dimensions transversales et la divergence angulaire moyenne. Un indicateur de la qualité du faisceau injecté est son émittance, c'est-à-dire le produit du rayon du faisceau et de sa divergence angulaire. Plus l'émittance est faible, meilleure est la qualité du faisceau final de particules à haute énergie. Par analogie avec l'optique, le courant de particules divisé par l'émittance (qui correspond à la densité de particules divisée par la divergence angulaire) est appelé luminosité du faisceau. De nombreuses applications d'accélérateurs modernes nécessitent la luminosité de faisceau la plus élevée possible.
Accélération du faisceau. Le faisceau est formé dans les chambres ou injecté dans une ou plusieurs chambres de l'accélérateur, dans lesquelles le champ électrique augmente la vitesse et donc l'énergie des particules. Dans les premiers accélérateurs les plus simples, l'énergie des particules était augmentée dans un fort champ électrostatique créé à l'intérieur d'une chambre à vide poussé. L'énergie maximale pouvant être obtenue dans ce cas a été déterminée par la rigidité diélectrique des isolateurs de l'accélérateur. Dans de nombreux accélérateurs modernes, des accélérateurs électrostatiques d'électrons et d'ions (jusqu'aux ions uranium) avec des énergies de 30 keV à 1 MeV sont encore utilisés comme injecteurs. L'obtention de la haute tension reste aujourd'hui un problème technique difficile. Il peut être obtenu en chargeant un groupe de condensateurs connectés en parallèle puis en les connectant en série à une série de tubes accélérateurs. Ainsi, en 1932, J. Cockcroft et E. Walton obtinrent des tensions jusqu'à 1 MV. Un inconvénient pratique important de cette méthode est qu'une haute tension est appliquée aux éléments externes du système, ce qui est dangereux pour les expérimentateurs. Une autre méthode d'obtention de haute tension a été inventée en 1931 par R. Van de Graaf. Dans le générateur Van de Graaff (Fig. 1), une bande diélectrique transfère les charges électriques d'une source de tension au potentiel de la terre à une électrode haute tension, augmentant ainsi son potentiel par rapport à la terre. Un générateur Van de Graaff à un étage permet d'obtenir des tensions jusqu'à 10 MV. Des protons d'énergie allant jusqu'à 30 MeV ont été produits dans des accélérateurs à haute tension à plusieurs étages.

Si ce n'est pas un faisceau continu qui est requis, mais une courte impulsion de particules à haute énergie, on peut alors profiter du fait que pendant une courte période (moins d'une microseconde), les isolateurs sont capables de supporter des tensions beaucoup plus élevées. Les diodes de commutation permettent d'obtenir des tensions jusqu'à 15 MV par étage dans des circuits à très faible impédance. Cela permet d'obtenir des courants de faisceau de plusieurs dizaines de kiloampères, et non de dizaines de milliampères, comme dans les accélérateurs électrostatiques. La manière habituelle d'obtenir une haute tension est basée sur le circuit générateur d'impulsions de Marx, dans lequel une batterie de condensateurs est d'abord chargée en parallèle, puis connectée en série et déchargée après un espace de décharge. L'impulsion haute tension du générateur entre dans une longue ligne, qui forme une impulsion, définissant son temps de montée. La ligne est chargée d'électrodes qui accélèrent le faisceau. À une tension d'accélération à haute fréquence, la conception de l'accélérateur résiste à des champs électriques beaucoup plus puissants sans claquage qu'à une tension constante. Cependant, l'utilisation de champs à haute fréquence pour l'accélération des particules est entravée par le fait que le signe du champ change rapidement et que le champ s'avère être soit en accélération, soit en décélération. À la fin des années 1920, deux méthodes ont été proposées pour surmonter cette difficulté, qui sont maintenant utilisées dans la plupart des accélérateurs.
ACCÉLÉRATEURS LINÉAIRES
La possibilité d'utiliser des champs électriques à haute fréquence dans des accélérateurs longs à plusieurs étages est basée sur le fait qu'un tel champ varie non seulement dans le temps, mais aussi dans l'espace. À tout moment, l'intensité du champ change de manière sinusoïdale en fonction de la position dans l'espace, c'est-à-dire la distribution du champ dans l'espace a la forme d'une onde. Et à tout point de l'espace, il change de manière sinusoïdale dans le temps. Par conséquent, les maxima de champ se déplacent dans l'espace avec la vitesse dite de phase. Par conséquent, les particules peuvent se déplacer de telle manière que le champ local les accélère tout le temps. Dans les systèmes d'accélérateurs linéaires, les champs haute fréquence ont été utilisés pour la première fois en 1929, lorsque l'ingénieur norvégien R. Wideröe a accéléré des ions dans un système court de résonateurs haute fréquence couplés. Si les résonateurs sont conçus de manière à ce que la vitesse de phase du champ soit toujours égale à la vitesse des particules, alors le faisceau est continuellement accéléré pendant son déplacement dans l'accélérateur. Le mouvement des particules dans ce cas est similaire au glissement d'un surfeur sur la crête d'une vague. Dans ce cas, les vitesses des protons ou des ions en cours d'accélération peuvent augmenter considérablement. En conséquence, la vitesse de phase de l'onde vphase devrait également augmenter. Si des électrons peuvent être injectés dans l'accélérateur à une vitesse proche de la vitesse de la lumière c, alors dans ce régime la vitesse de phase est quasi constante : vphase = c. Une autre approche permettant de s'affranchir de l'influence de la phase de ralentissement du champ électrique haute fréquence repose sur l'utilisation d'une structure métallique qui protège le faisceau du champ pendant cette alternance. Cette méthode a été utilisée pour la première fois par E. Lawrence dans le cyclotron (voir ci-dessous) ; il est également utilisé dans l'accélérateur linéaire d'Alvarez. Ce dernier est un long tube à vide contenant un certain nombre de tubes de dérive métalliques. Chaque tube est connecté en série avec un générateur haute fréquence par une longue ligne, le long de laquelle une onde de tension accélératrice circule à une vitesse proche de la vitesse de la lumière (Fig. 2). Ainsi, tous les tubes sont tour à tour sous haute tension. Une particule chargée émise par l'injecteur au bon moment accélère en direction du premier tube, acquérant une certaine énergie. A l'intérieur de ce tube, la particule dérive - elle se déplace à vitesse constante. Si la longueur du tube est correctement choisie, il en sortira au moment où la tension d'accélération aura avancé d'une longueur d'onde. Dans ce cas, la tension sur le deuxième tube s'accélérera également et s'élèvera à des centaines de milliers de volts. Ce processus est répété plusieurs fois et, à chaque étape, la particule reçoit une énergie supplémentaire. Pour que le mouvement des particules soit synchrone avec l'évolution du champ, la longueur des tubes doit augmenter proportionnellement à une augmentation de leur vitesse. A terme la vitesse de la particule atteindra une vitesse très proche de la vitesse de la lumière, et la longueur limite des tubes sera constante.



Les changements spatiaux dans le champ imposent des restrictions sur la structure temporelle du faisceau. Le champ accélérateur change à l'intérieur d'un groupe de particules de n'importe quelle longueur finie. Par conséquent, la longueur du paquet de particules doit être petite par rapport à la longueur d'onde du champ haute fréquence accélérateur. Sinon, les particules accéléreront différemment au sein du paquet. Une trop grande diffusion d'énergie dans le faisceau augmente non seulement la difficulté de focalisation du faisceau en raison de la présence d'aberration chromatique dans les lentilles magnétiques, mais limite également les possibilités d'utilisation du faisceau dans des problèmes spécifiques. La propagation de l'énergie peut également conduire à un maculage du paquet de particules du faisceau dans la direction axiale. Considérons un groupe d'ions non relativistes se déplaçant avec une vitesse initiale v0. Les forces électriques longitudinales dues à la charge d'espace accélèrent la partie de tête du faisceau et ralentissent la partie de queue. En synchronisant de manière appropriée le mouvement du groupe avec le champ haute fréquence, il est possible d'obtenir une plus grande accélération de la partie arrière du groupe que de la partie tête. Par une telle adaptation des phases de la tension d'accélération et du faisceau, il est possible d'effectuer une mise en phase du faisceau - pour compenser l'effet de déphasage de la charge d'espace et de la propagation de l'énergie. En conséquence, dans une certaine plage de valeurs de la phase centrale du paquet, on observe un centrage et des oscillations de particules par rapport à une certaine phase de mouvement stable. Ce phénomène, appelé autophasage, est extrêmement important pour les accélérateurs linéaires d'ions et les accélérateurs cycliques modernes d'électrons et d'ions. Malheureusement, l'autophasage se fait au prix d'une réduction du rapport cyclique de l'accélérateur à des valeurs bien inférieures à l'unité. Au cours du processus d'accélération, presque tous les faisceaux ont tendance à augmenter de rayon pour deux raisons : en raison de la répulsion électrostatique mutuelle des particules et en raison de la propagation des vitesses transversales (thermiques). La première tendance s'affaiblit avec l'augmentation de la vitesse du faisceau, car le champ magnétique créé par le courant du faisceau comprime le faisceau et, dans le cas des faisceaux relativistes, compense presque l'effet de défocalisation de la charge d'espace dans la direction radiale. Cet effet est donc très important dans le cas des accélérateurs d'ions, mais presque insignifiant pour les accélérateurs d'électrons, dans lesquels le faisceau est injecté à des vitesses relativistes. Le deuxième effet, lié à l'émittance du faisceau, est important pour tous les accélérateurs. Il est possible de maintenir les particules près de l'axe à l'aide d'aimants quadripolaires. Certes, un seul aimant quadripolaire, focalisant les particules dans l'un des plans, les défocalise dans l'autre. Mais le principe de "focalisation forte" découvert par E. Courant, S. Livingston et H. Snyder aide ici : un système de deux aimants quadripôles séparés par une travée, avec des plans de focalisation et de défocalisation alternés, assure in fine la focalisation dans tous les plans. Les tubes à dérive sont encore utilisés dans les linacs à protons, où l'énergie du faisceau passe de quelques mégaélectronvolts à environ 100 MeV. Les premiers accélérateurs linéaires d'électrons, comme l'accélérateur de 1 GeV construit à l'université de Stanford (USA), utilisaient également des tubes à dérive de longueur constante, puisque le faisceau était injecté à une énergie de l'ordre de 1 MeV. Des accélérateurs linéaires d'électrons plus modernes, dont le plus grand est l'accélérateur de 50 GeV de 3,2 km construit au Stanford Linear Accelerator Center, utilisent le principe du "surf d'électrons" sur une onde électromagnétique, qui permet d'accélérer le faisceau avec un incrément d'énergie de près de 20 MeV par mètre du système d'accélération. Dans cet accélérateur, une puissance haute fréquence à une fréquence d'environ 3 GHz est générée par de grands dispositifs à électrovide - les klystrons. Le linac à protons à la plus haute énergie a été construit au Losalamos National Laboratory à New York. Nouveau-Mexique (USA) en tant qu'"usine à mésons" pour la production de faisceaux intenses de pions et de muons. Ses cavités en cuivre créent un champ accélérateur de l'ordre de 2 MeV/m, grâce auquel il produit jusqu'à 1 mA de protons d'une énergie de 800 MeV dans un faisceau pulsé. Pour accélérer non seulement les protons, mais aussi les ions lourds, des systèmes haute fréquence supraconducteurs ont été développés. Le plus grand linac supraconducteur à protons sert d'injecteur à l'accélérateur de collision de faisceaux HERA au laboratoire allemand de synchronisation d'électrons (DESY) à Hambourg, en Allemagne.
ACCÉLÉRATEURS CYCLIQUES
Cyclotron à protons. Il existe un moyen très élégant et économique d'accélérer le faisceau en lui communiquant de façon répétée de petites portions d'énergie. Pour ce faire, avec une forte champ magnétique le faisceau est obligé de se déplacer sur une orbite circulaire et de passer plusieurs fois par le même espace d'accélération. Cette méthode a été mise en œuvre pour la première fois en 1930 par E. Lawrence et S. Livingston dans le cyclotron qu'ils ont inventé. Comme dans un accélérateur linéaire à tubes à dérive, le faisceau est protégé de l'action du champ électrique pendant l'alternance lorsqu'il agit comme un décélérateur. Une particule chargée de masse m et de charge q se déplaçant à la vitesse v dans un champ magnétique H dirigé perpendiculairement à sa vitesse décrit un cercle dans ce champ de rayon R = mv/qH. Comme l'accélération entraîne une augmentation de la vitesse v, le rayon R augmente également. Ainsi, les protons et les ions lourds se déplacent dans une spirale de déroulement de rayon toujours croissant. À chaque révolution le long de l'orbite, le faisceau traverse l'espace entre les dees - électrodes creuses en forme de D haute tension, où un champ électrique haute fréquence agit dessus (Fig. 3). Lawrence s'est rendu compte que le temps entre les passages du faisceau à travers l'entrefer dans le cas de particules non relativistes reste constant, puisque l'augmentation de leur vitesse est compensée par une augmentation du rayon. Pendant cette partie de la période de révolution, lorsque le champ haute fréquence a la mauvaise phase, le faisceau est à l'extérieur de l'espace. La fréquence de circulation est donnée par


où f est la fréquence de la tension alternative en MHz, H est l'intensité du champ magnétique en T et mc2 est la masse de la particule en MeV. Si la valeur de H est constante dans la région où se produit l'accélération, alors la fréquence f, évidemment, ne dépend pas du rayon
(voir aussi LAWRENCE Ernest Orlando).



Pour accélérer les ions à des énergies élevées, il suffit que le champ magnétique et la fréquence de la tension haute tension satisfassent à la condition de résonance ; alors les particules passeront à travers l'espace entre les dees deux fois par révolution au bon moment. Pour accélérer le faisceau à une énergie de 50 MeV à une tension d'accélération de 10 keV, 2500 tours sont nécessaires. La fréquence de fonctionnement d'un cyclotron à protons peut être de 20 MHz, de sorte que le temps d'accélération est de l'ordre de 1 ms. Comme dans les accélérateurs linéaires, les particules lors de l'accélération dans un cyclotron doivent être focalisées dans la direction transversale, sinon toutes, à l'exception de celles injectées à des vitesses parallèles aux pièces polaires de l'aimant, tomberont hors du cycle d'accélération. Dans le cyclotron, la possibilité d'accélérer des particules avec une dispersion angulaire finie est assurée en donnant au champ magnétique une configuration spéciale, dans laquelle les forces agissant sur les particules quittant le plan de l'orbite les ramènent dans ce plan. Malheureusement, selon les exigences de stabilité d'un groupe de particules accélérées, la composante de focalisation du champ magnétique doit diminuer avec l'augmentation du rayon. Et cela contredit la condition de résonance et conduit à des effets qui limitent l'intensité du faisceau. Un autre facteur important qui réduit les capacités d'un cyclotron simple est l'augmentation relativiste de la masse, conséquence nécessaire d'une augmentation de l'énergie des particules :


Dans le cas de l'accélération du proton, le synchronisme sera rompu du fait du gain de masse relativiste à environ 10 MeV. Une façon de maintenir le synchronisme consiste à moduler la fréquence de la tension d'accélération de sorte qu'elle diminue à mesure que le rayon de l'orbite augmente et que la vitesse des particules augmente. La fréquence doit changer selon la loi


Un tel synchrocyclotron peut accélérer des protons jusqu'à une énergie de plusieurs centaines de mégaélectrovolts. Par exemple, si l'intensité du champ magnétique est de 2 T, alors la fréquence devrait diminuer d'environ 32 MHz au moment de l'injection à 19 MHz ou moins lorsque les particules atteignent une énergie de 400 MeV. Un tel changement de la fréquence de la tension d'accélération devrait se produire en quelques millisecondes. Une fois que les particules ont atteint l'énergie la plus élevée et sont retirées de l'accélérateur, la fréquence revient à sa valeur d'origine et un nouveau groupe de particules est introduit dans l'accélérateur. Mais même avec la conception optimale de l'aimant et Meilleure performance systèmes de fourniture d'énergie à haute fréquence, les possibilités des cyclotrons sont limitées par des considérations pratiques : des aimants extrêmement gros sont nécessaires pour maintenir en orbite des particules accélérées de haute énergie. Ainsi, la masse de l'aimant du cyclotron de 600 MeV, construit dans le laboratoire TRIUMPH au Canada, dépasse les 2000 tonnes, et il consomme de l'électricité de l'ordre de plusieurs mégawatts. Le coût de construction d'un synchrocyclotron est approximativement proportionnel au cube du rayon de l'aimant. Par conséquent, pour atteindre des énergies plus élevées à des coûts pratiquement acceptables, de nouveaux principes d'accélération sont nécessaires.
Synchrotron à protons. Le coût élevé des accélérateurs cycliques est associé au grand rayon de l'aimant. Mais il est possible de maintenir les particules sur une orbite à rayon constant en augmentant l'intensité du champ magnétique à mesure que leur énergie augmente. L'accélérateur linéaire injecte sur cette orbite un faisceau de particules d'énergie relativement faible. Étant donné que le champ de confinement n'est nécessaire que dans une région étroite près de l'orbite du faisceau, il n'est pas nécessaire d'avoir des aimants couvrant toute la zone de l'orbite. Les aimants sont situés uniquement le long de la chambre à vide annulaire, ce qui permet de réaliser d'énormes économies. Cette approche a été mise en œuvre dans le synchrotron à protons. Le premier accélérateur de ce type a été le Cosmotron de 3 GeV (Fig. 4), qui a commencé à fonctionner au Laboratoire national de Brookhaven en 1952 aux États-Unis ; il fut bientôt suivi par le Bevatron de 6 GeV, construit au Laboratoire. Lawrence University of California à Berkeley (États-Unis). Construit spécifiquement pour détecter l'antiproton, il fonctionne depuis 39 ans, démontrant la durabilité et la fiabilité des accélérateurs de particules.



Dans les synchrotrons de première génération, construits aux États-Unis, en Grande-Bretagne, en France et en URSS, la focalisation était faible. Par conséquent, l'amplitude des oscillations radiales des particules au cours de leur accélération était grande. La largeur des chambres à vide était d'environ 30 cm, et dans ce volume encore important, il était nécessaire de contrôler soigneusement la configuration du champ magnétique. En 1952, une découverte est faite qui permet de réduire drastiquement les oscillations du faisceau et, par conséquent, les dimensions de la chambre à vide. C'était le principe de la focalisation forte ou dure. Dans les synchrotrons à protons modernes dotés d'aimants quadripôles supraconducteurs disposés dans un agencement de focalisation puissant, la chambre à vide peut avoir un diamètre inférieur à 10 cm, ce qui entraîne une réduction significative de la taille, du coût et de la consommation d'énergie des aimants de focalisation et de déviation. Le premier synchrotron basé sur ce principe était le synchrotron à gradient variable de 30 GeV à Brookhaven. Une installation similaire a été construite au laboratoire de l'Organisation européenne pour la recherche nucléaire (CERN) à Genève. Au milieu des années 1990, les deux accélérateurs fonctionnaient encore. L'ouverture du synchrotron à gradient variable était environ 25 fois plus petite que celle du cosmotron. La puissance consommée par l'aimant à une énergie de 30 GeV correspondait approximativement à la puissance consommée par l'aimant du Cosmotron à 3 GeV. Le « synchrotron à gradient variable » accélérait 6 × 1013 protons par impulsion, ce qui correspondait à l'intensité la plus élevée parmi les installations de cette classe. La focalisation dans cet accélérateur était effectuée par les mêmes aimants qui déviaient le faisceau ; ceci a été réalisé en donnant aux pôles de l'aimant la forme illustrée à la fig. 5. Les accélérateurs modernes utilisent généralement des aimants séparés pour dévier et focaliser le faisceau.




LABORATOIRE IM. E. FERMI près de Batavia (USA). La circonférence du "Main Ring" de l'accélérateur est de 6,3 km. L'anneau est situé à une profondeur de 9 m sous le cercle au centre de l'image.


Au milieu des années 1990, le plus grand synchrotron à protons était le Tevatron du National Accelerator Laboratory. E. Fermi à Batavia (États-Unis). Comme son nom l'indique, le Tevatron accélère des paquets de protons dans un anneau de 2 km de diamètre jusqu'à une énergie d'environ 1 TeV. Les protons sont accélérés par tout un système d'accélérateurs, à commencer par le générateur Cockcroft-Walton comme injecteur, à partir duquel des ions hydrogène négatifs d'une énergie de 750 keV sont introduits dans un accélérateur linéaire d'une énergie de 400 MeV. Ensuite, le faisceau du linac traverse un film de carbone pour dépouiller les électrons et est injecté dans un synchrotron intermédiaire - un booster - d'un diamètre de 150 m. Dans le booster, les protons effectuent environ 20 000 tours et acquièrent une énergie de 8 GeV. En règle générale, le propulseur effectue 12 cycles de travail successifs rapides, à la suite desquels 12 paquets de protons sont injectés dans "l'anneau principal" - un autre synchrotron à protons d'une longueur d'anneau de 6,3 km. L'"anneau principal", dans lequel les protons sont accélérés à une énergie de 150 GeV, est constitué de 1000 aimants conventionnels avec des enroulements en cuivre qui dévient et focalisent les protons. Directement sous le "Main Ring" se trouve le dernier synchrotron "Tevatron" composé de 1000 aimants supraconducteurs. Le faisceau peut être extrait à travers de nombreux canaux jusqu'à une distance de 1,5 à 3 km pour la recherche dans des halls d'expérimentation externes. Des aimants de déviation et de focalisation plus puissants sont nécessaires pour maintenir en orbite des faisceaux d'énergie plus élevée. Conçus pour la "microscopie" subnucléaire, les synchrotrons à protons d'énergies supérieures à 1 TeV nécessitent des milliers d'aimants supraconducteurs et focalisateurs de 5 à 15 m de long avec une ouverture de plusieurs centimètres de large, offrant une précision de champ et une stabilité dans le temps exceptionnellement élevées. Les principaux freins à la création de synchrotrons à protons pour les plus hautes énergies sont le coût élevé et la complexité de contrôle associés à leur taille énorme.
ACCÉLÉRATEURS À CONTRE-FAISCEAUX
Collisionneurs cycliques. Loin de là toute l'énergie d'une particule accélérée est utilisée pour réaliser la réaction souhaitée. Une partie importante de celui-ci est inutilement perdue sous la forme de recul subi par la particule cible en raison de la loi de conservation de la quantité de mouvement. Si la particule incidente a une énergie E et que la masse de la particule cible au repos est M, alors l'énergie utile est


Ainsi, dans des expériences avec une cible au repos au Tevatron, l'énergie utile n'est que de 43 GeV. Le désir d'utiliser les énergies les plus élevées possibles dans la recherche sur les particules a conduit à la création au CERN et au Laboratoire. Les collisionneurs proton-antiproton E. Fermi, ainsi qu'un grand nombre d'installations différents pays avec collision de faisceaux électron-positon. Dans le premier collisionneur de protons, des collisions de protons et d'antiprotons d'énergie de 26 GeV se sont produites dans un anneau d'une circonférence de 1,6 km (Fig. 6). Pendant plusieurs jours, il a été possible d'accumuler des faisceaux avec un courant allant jusqu'à 50 A.



A l'heure actuelle, le collisionneur d'énergie la plus élevée est le Tevatron, sur lequel des expériences sont menées lorsqu'un faisceau de protons d'une énergie de 1 TeV entre en collision avec un faisceau d'antiprotons de même énergie. De telles expériences nécessitent des antiprotons, qui peuvent être obtenus en bombardant une cible métallique avec un faisceau de protons de haute énergie provenant de "l'anneau principal". Les antiprotons produits lors de ces collisions s'accumulent dans un anneau séparé à une énergie de 8 GeV. Lorsque suffisamment d'antiprotons ont été accumulés, ils sont injectés dans "l'anneau principal", accélérés à 150 GeV, puis injectés dans le "Tevatron". Ici, les protons et les antiprotons sont simultanément accélérés jusqu'à leur pleine énergie, puis entrent en collision. La quantité de mouvement totale des particules en collision est nulle, donc toute l'énergie 2E est utile. Dans le cas du Tevatron, elle atteint près de 2 TeV. L'énergie la plus élevée parmi les collisionneurs électron-positon a été atteinte au "Grand anneau de stockage électron-positon" du CERN, où l'énergie des faisceaux en collision au premier étage était de 50 GeV par faisceau, puis a été portée à 100 GeV par faisceau. DESI a construit le collisionneur HERA, dans lequel des électrons entrent en collision avec des protons. Cet énorme gain d'énergie est obtenu au prix d'une réduction significative de la probabilité de collisions entre particules de faisceaux de faible densité en collision. La fréquence des collisions est déterminée par la luminosité, c'est-à-dire le nombre de collisions par seconde, accompagnées d'une réaction de ce type, ayant une certaine section efficace. La luminosité dépend linéairement de l'énergie et du courant du faisceau et est inversement proportionnelle à son rayon. L'énergie du faisceau du collisionneur est choisie en fonction de l'échelle d'énergie des processus physiques étudiés. Pour assurer la luminosité la plus élevée, il est nécessaire d'atteindre la densité de faisceau maximale possible au point de leur rencontre. Par conséquent, le principal problème technique dans la conception des collisionneurs est de focaliser les faisceaux au point de leur rencontre en un très petit point et d'augmenter le courant de faisceau. Pour atteindre la luminosité souhaitée, des courants de plus de 1 A peuvent être nécessaires.Un autre problème technique extrêmement difficile est lié à la nécessité de fournir un ultra-vide dans la chambre du collisionneur. Étant donné que les collisions entre les particules du faisceau se produisent relativement rarement, les collisions avec les molécules de gaz résiduel peuvent considérablement atténuer les faisceaux, réduisant ainsi la probabilité d'interactions à l'étude. De plus, la diffusion des faisceaux par le gaz résiduel donne un bruit de fond indésirable dans le détecteur, qui peut masquer le processus physique étudié. Le vide dans la chambre du collisionneur doit se situer entre 10-9 - 10-7 Pa (10-11 - 10-9 mmHg) selon la luminosité. A des énergies plus faibles, des faisceaux d'électrons plus intenses peuvent être accélérés, ce qui permet d'étudier les désintégrations rares des mésons B et K dues aux interactions électrofaibles. Un certain nombre de ces usines, parfois appelées "usines d'arômes", sont actuellement en construction aux États-Unis, au Japon et en Italie. De telles installations comportent deux anneaux de stockage - pour les électrons et pour les positrons, se coupant en un ou deux points - régions d'interaction. Chaque anneau contient de nombreux paquets de particules avec un courant total supérieur à 1 A. Les énergies des faisceaux sont choisies de manière à ce que l'énergie utile corresponde à la résonance qui se désintègre dans les particules à vie courte étudiées - les mésons B ou K. La conception de ces installations est basée sur le synchrotron à électrons et les anneaux de stockage.
Collisionneurs linéaires. Les énergies des collisionneurs cycliques électron-positon sont limitées par le rayonnement synchrotron intense émis par des faisceaux de particules accélérées (voir ci-dessous). Cet inconvénient n'est pas présent dans les collisionneurs linéaires, dans lesquels le rayonnement synchrotron n'affecte pas le processus d'accélération. Le collisionneur linéaire se compose de deux accélérateurs linéaires pour les hautes énergies, dont les faisceaux de haute intensité - électrons et positrons - sont dirigés l'un vers l'autre. Les faisceaux ne se rencontrent et ne se heurtent qu'une seule fois, après quoi ils sont déchargés dans des absorbeurs. Le premier collisionneur linéaire est le "Stanford Linear Collider", qui utilise l'accélérateur linéaire de Stanford, long de 3,2 km et fonctionnant à une énergie de 50 GeV. Dans le système de ce collisionneur, des paquets d'électrons et de positrons sont accélérés dans le même accélérateur linéaire et sont séparés lorsque les faisceaux atteignent leur pleine énergie. Ensuite, les paquets d'électrons et de positrons sont transportés le long d'arcs séparés, dont la forme ressemble aux tubes d'un stéthoscope médical, et sont focalisés à un diamètre d'environ 2 microns dans la région d'interaction.
Nouvelles technologies. La recherche de méthodes d'accélération plus économiques a conduit à la création de nouveaux systèmes d'accélérateurs et de générateurs haute fréquence de grande puissance fonctionnant dans la gamme de fréquences de 10 à 35 GHz. La luminosité des collisionneurs électron-positon doit être exceptionnellement élevée, puisque la section efficace des processus diminue comme le carré de l'énergie des particules. Par conséquent, les densités de faisceau doivent également être extrêmement élevées. Dans un collisionneur linéaire d'énergie de l'ordre de 1 TeV, les tailles de faisceau peuvent atteindre 10 nm, ce qui est beaucoup petites tailles faisceau au collisionneur linéaire de Stanford (2 μm). Avec des tailles de faisceau aussi petites, des aimants stables très puissants avec des contrôleurs automatiques électroniques complexes sont nécessaires pour faire correspondre avec précision les éléments de focalisation. Lorsque les faisceaux d'électrons et de positrons se croisent, leur interaction électrique est neutralisée et l'interaction magnétique est renforcée. En conséquence, les champs magnétiques peuvent atteindre 10 000 T. De tels champs géants peuvent fortement déformer les faisceaux et conduire à une grande dispersion d'énergie due à la génération de rayonnement synchrotron. Ces effets, ainsi que les considérations économiques associées à la construction de machines de plus en plus étendues, limiteront l'énergie pouvant être atteinte dans les collisionneurs électron-positon.
STOCKAGE ÉLECTRONIQUE
Les synchrotrons électroniques sont basés sur les mêmes principes que les synchrotrons à protons. Cependant, en raison d'une caractéristique importante, ils sont techniquement plus simples. La faible masse des électrons permet d'injecter le faisceau à des vitesses proches de la vitesse de la lumière. Par conséquent, une augmentation supplémentaire de l'énergie n'est pas associée à une augmentation notable de la vitesse, et les synchrotrons à électrons peuvent fonctionner à une fréquence fixe de la tension d'accélération si le faisceau est injecté avec une énergie d'environ 10 MeV. Cependant, cet avantage est annulé par une autre conséquence de la petitesse de la masse des électrons. Comme l'électron se déplace sur une orbite circulaire, il se déplace avec une accélération (centripète) et émet donc des photons - un rayonnement, appelé synchrotron. La puissance de rayonnement synchrotron P est proportionnelle à la quatrième puissance de l'énergie du faisceau E et du courant I, et est également inversement proportionnelle au rayon de l'anneau R, de sorte qu'elle est proportionnelle à (E/m)4IR -1. Cette énergie, perdue à chaque révolution du faisceau d'électrons le long de l'orbite, doit être compensée par la tension haute fréquence appliquée aux entrefers accélérateurs. Dans les "usines à arômes" conçues pour la haute intensité, de telles pertes de puissance peuvent atteindre des dizaines de mégawatts. Les accélérateurs cycliques tels que les synchrotrons d'électrons peuvent également être utilisés comme accumulateurs de grands courants circulants avec une haute énergie constante. Ces anneaux de stockage ont deux applications principales : 1) dans les études des noyaux et des particules élémentaires par la méthode des collisions de faisceaux, comme mentionné ci-dessus, et 2) comme sources de rayonnement synchrotron utilisées en physique atomique, en science des matériaux, en chimie, en biologie et en médecine. L'énergie photonique moyenne du rayonnement synchrotron est proportionnelle à (E/m)3R-1. Ainsi, les électrons d'une énergie de l'ordre de 1 GeV circulant dans l'anneau de stockage émettent un rayonnement synchrotron intense dans les domaines de l'ultraviolet et des rayons X. La plupart des photons sont émis dans un angle vertical étroit de l'ordre de m/E. Étant donné que le rayon des faisceaux d'électrons dans les anneaux de stockage modernes d'une énergie de l'ordre de 1 GeV est mesuré en dizaines de micromètres, les faisceaux de rayons X qu'ils émettent se caractérisent par une luminosité élevée et peuvent donc servir d'outil puissant pour étudier la structure de la matière. Le rayonnement est émis tangentiellement à la trajectoire curviligne des électrons. Par conséquent, chaque aimant déviateur de l'anneau de stockage d'électrons, lorsqu'un groupe d'électrons le traverse, crée un "faisceau de projecteur" de rayonnement qui se déploie. Il est restitué par de longs canaux à vide tangents à la chambre à vide principale de l'anneau de stockage. Les fentes et les collimateurs situés le long de ces canaux forment des faisceaux étroits, à partir desquels la gamme d'énergie de rayons X requise est encore séparée à l'aide de monochromateurs. Les premières sources de rayonnement synchrotron étaient des installations construites à l'origine pour résoudre des problèmes de physique des hautes énergies. Un exemple est l'accumulateur de positons-électrons de Stanford de 3 GeV au Stanford Synchrotron Radiation Laboratory. À un moment donné, des mésons "charmés" ont été découverts dans cette installation. Les premières sources de rayonnement synchrotron n'avaient pas la flexibilité nécessaire pour répondre aux besoins variés de centaines d'utilisateurs. Croissance rapide Le besoin de rayonnement synchrotron à haut flux et à forte intensité de faisceau a donné naissance à des sources de deuxième génération conçues pour répondre aux besoins de tous les utilisateurs possibles. En particulier, des systèmes d'aimants ont été choisis qui réduisent l'émittance du faisceau d'électrons. Une petite émittance signifie une taille de faisceau plus petite et donc une luminosité plus élevée de la source de rayonnement. Les représentants typiques de cette génération étaient les anneaux de stockage de Brookhaven, qui servaient de sources de rayons X et de rayonnement dans la région ultraviolette du vide du spectre. La luminosité du rayonnement peut également être augmentée en faisant se déplacer le faisceau le long d'un trajet sinusoïdal dans une structure magnétique périodique, puis en combinant le rayonnement qui se produit à chaque courbure. Les onduleurs - les structures magnétiques qui fournissent un tel mouvement, sont une série de dipôles magnétiques qui dévient le faisceau sous un petit angle, situés en ligne droite sur l'axe du faisceau. La luminosité du rayonnement d'un tel onduleur peut être des centaines de fois supérieure à la luminosité du rayonnement qui se produit dans les aimants déviants. Au milieu des années 1980, des sources de rayonnement synchrotron de troisième génération avec un grand nombre d'onduleurs de ce type ont commencé à être créées. Parmi les premières sources de la troisième génération figurent la source de lumière améliorée de 1,5 GeV à Berkeley, qui génère des rayons X mous, ainsi que la source de photons améliorée de 6 GeV au Laboratoire national d'Argonne (États-Unis) et le synchrotron de 6 GeV. Centre Européen de Rayonnement Synchrotron à Grenoble (France), qui sont utilisés comme sources de rayons X durs. Après la construction réussie de ces installations, un certain nombre de sources de rayonnement synchrotron ont également été créées à d'autres endroits. Une nouvelle étape vers une plus grande luminosité dans la gamme allant de l'infrarouge aux rayons X durs est associée à l'utilisation de dipôles magnétiques "chauds" avec une intensité de champ magnétique d'environ 1,5 T et de dipôles magnétiques supraconducteurs beaucoup plus courts avec un champ de plusieurs Tesla dans le système d'aimant de déviation. Une telle approche est mise en œuvre dans une nouvelle source de rayonnement synchrotron en cours de création à l'Institut P. Scherrer en Suisse et dans la modernisation de la source de Berkeley. L'utilisation du rayonnement synchrotron dans la recherche scientifique s'est généralisée et continue de se développer. La luminosité exceptionnelle de tels faisceaux de rayons X permet de créer une nouvelle génération de microscopes à rayons X pour l'étude des systèmes biologiques dans leur environnement aquatique normal. Il ouvre la possibilité d'une analyse rapide de la structure des virus et des protéines pour le développement de nouveaux produits pharmaceutiques en se concentrant étroitement sur les facteurs pathogènes et les effets secondaires minimes. Des faisceaux lumineux de rayons X peuvent servir de puissantes microsondes pour détecter même les plus petites quantités d'impuretés et de contaminants. Ils permettent d'analyser très rapidement des échantillons environnementaux lors de l'étude des voies de pollution. environnement. Ils peuvent également être utilisés pour évaluer la propreté de grandes tranches de silicium avant la fabrication coûteuse de circuits intégrés très complexes, et ouvrent de nouvelles perspectives pour la technique de lithographie, permettant en principe la fabrication de circuits intégrés avec des éléments inférieurs à 100 nm.
ACCÉLÉRATEURS EN MÉDECINE
Les accélérateurs jouent un rôle pratique important dans la thérapie médicale et le diagnostic. De nombreux hôpitaux dans le monde ont aujourd'hui à leur disposition de petits accélérateurs linéaires d'électrons qui génèrent des rayons X intenses utilisés pour le traitement des tumeurs. Dans une moindre mesure, des cyclotrons ou des synchrotrons générant des faisceaux de protons sont utilisés. L'avantage des protons dans le traitement des tumeurs par rapport radiographies consiste en une libération d'énergie plus localisée. Par conséquent, la protonthérapie est particulièrement efficace dans le traitement des tumeurs cérébrales et oculaires, lorsque les dommages aux tissus sains environnants doivent être aussi minimes que possible. voir également