Géométrie et évolution de l’Univers
Depuis l’Antiquité, l’homme s’interroge sur la forme de l’Univers et sur son devenir. Aujourd’hui la théorie du Big-Bang est confortée par trois observations : l’expansion de l’Univers déduite de la vitesse d’éloignement des galaxies en fonction de leur distance, l’abondance de certains atomes tels que l’hélium ou le lithium formés quelques minutes seulement après le Big-Bang et la présence d’un bain thermique de photons à 3 K (soit -270o C) produit environ 300000 ans après cet instant initial, lorsque matière et lumière se séparaient. Reste à savoir si, à l’échelle de quelques centaines de millions d’années-lumière, l’espace-temps est plat ou courbe et si, dans quelques milliards d’années, un Big-Crunch se produira ou si, au contraire, l’expansion de l’Univers se poursuivra éternellement. Les réponses à ces questions sont de plus en plus précises grâce notamment à l’étude des grumeaux dans le bain thermique à 3 K ; elles favorisent un Univers plat et une expansion non seulement continue mais même accélérée.
Composition de l’Univers
De nombreuses mesures astrophysiques et cosmologiques permettent aujourd’hui d’accéder avec une grande précision à la répartition des différentes composantes de matière et d’énergie dans l’Univers. On dispose donc à présent d’une classification exhaustive et rigoureuse du contenu du Cosmos : rayonnements (négligeables), étoiles (~0,5%), gaz (~5%), entités non composées d’atomes usuels (~25%), énergie d’accélération (~70%). Mais, en contrepoint de ce succès, force est de constater que l’on ignore tout de la nature précise de la grande majorité de ces composantes physiques. Pour étayer cette description, il faut recourir à l’hypothèse de l’existence de nouvelles particules (par exemple les « particules supersymétriques ») et d’une énergie inconnue et mystérieuse (qui ne se dilue pas quand on augmente le volume !). Cet étonnant visage de l’Univers invite à repenser les constituants fondamentaux et témoigne d’une convergence effective entre des champs scientifiques aussi apparemment disjoints que la cosmologie et la physique des particules.
Unification des forces fondamentales
Dans l’état actuel des connaissances, les forces fondamentales sont au nombre de quatre. La première à être découverte, la gravitation, le fut par Newton à la fin du XVIIe siècle. Ce savant a réussi à « unifier » dans une théorie unique deux phénomènes apparemment différents : la chute des corps et le mouvement des astres. La deuxième interaction est l’électromagnétisme, résultat de l’unification par Maxwell à la fin du XIXe siècle de l’électricité, de l’optique et du magnétisme. La troisième force fondamentale est l’interaction faible, responsable de la radioactivité naturelle et artificielle ; c’est elle qui transforme un neutron en proton dans certains processus radioactifs. Enfin, la quatrième force fondamentale est l’interaction forte, qui assure la cohésion des protons et des neutrons pour former les noyaux des atomes.
La physique des particules moderne a déjà réussi à décrire les interactions électromagnétique et faible dans un cadre unifié, qu’on appelle le « Modèle Standard ». L’ambition des physiciens des particules est maintenant de réussir à intégrer également l’interaction forte dans ce cadre. Cette généralisation conduit aux « Théories de Grande Unification », qui sont et seront testées auprès de gigantesques accélérateurs de particules. Le plus puissant d’entre eux s’appelle le LHC (Large Hadron Collider) qui est entré en service en 2008 au CERN, le laboratoire Européen pour la physique des particules, situé à Genève.
Origine du rayonnement cosmique
La terre est en permanence bombardée par un flux considérable d’environ 2000 particules chargées par seconde et par mètre carré au sommet de l’atmosphère. Ce rayonnement a permis la découverte de plusieurs particules élémentaires dans la première moitié du XXe siècle. Le domaine en énergie de ces particules est extraordinairement étendu, depuis quelques milliers d’électronvolts pour les particules du vent solaire, jusqu’à l’énergie colossale de cent milliards de milliards d’électronvolts (1020) environ, soit l’énergie d’une balle de fusil concentrée sur une particule beaucoup plus petite qu’un atome. Au-delà de la contribution du vent solaire dont les particules créent les aurores boréales, la plupart proviennent – probablement– des supernovae dans la Galaxie. Les particules d’ultra haute énergie ont vraisemblablement une origine extra-galactique qui reste assez mystérieuse.
L’étude de ces particules et la recherche de leur origine fait l’objet de très nombreuses entreprises expérimentales qui utilisent des moyens extrêmement divers, depuis les instruments embarqués sur des ballons ou des satellites, jusqu’aux grands observatoires au sol qui s’étendent sur des centaines de kilomètres carrés pour détecter les rares particules d’ultra haute énergie, et aux observatoires souterrains pour certaines particules neutres, les neutrinos.
Origine et nature de la masse des particules élémentaires
Un des enjeux majeurs en physique des hautes énergies est l’identification du mécanisme qui engendre les masses des particules qui composent notre univers matériel. Ce mécanisme est intimement lié à l’existence de lois de symétries qui gouvernent la description du monde des particules et des quatre interactions connues. Le modèle le plus favorisé actuellement prédit que la masse est issue de l’interaction des particules avec un champ, appelé le champ de Higgs, dont la valeur minimale ne serait pas nulle : une particule serait ainsi d’autant plus « lourde » que son couplage à ce champ serait élevé. Ce modèle a des conséquences phénoménologiques intéressantes puisqu’il prévoit l’existence d’au moins une nouvelle particule, le « boson de Higgs ». Les processus d’apparition du « Higgs » étant très rares, cette particule a été recherchée sans succès depuis plus de 10 ans au CERN et aux USA. Cependant, si elle existe, elle sera détectée auprès du Tevatron aux USA ou du LHC, le collisionneur proton-proton du CERN.
Structure du nucléon
Un de nos axes de recherche concerne la compréhension de la force, dite forte, qui assure la stabilité des noyaux d’atomes et domine l’interaction entre les quarks, constituants élémentaires de la matière. La force entre quarks possède des propriétés aux conséquences étonnantes – il n’y a pas de quarks à l’état libre, la masse du proton est engendrée essentiellement par l’interaction, ... – et se traite dans le cadre théorique de la chromodynamique quantique (QCD, distinguée par le prix Nobel 2004). Une nouvelle génération d’accélérateurs comme CEBAF aux Etats Unis, et des développements théoriques, ont permis des avancées substantielles dans cette étude, lors des dernières années. Nous mesurons pour cela la structure interne des protons et des neutrons, avec une sonde sensible aux charges électriques ou faibles des quarks et avec des énergies adaptées aux dimensions du nucléon. Pour déterminer la transition entre les deux aspects de l’interaction forte – au sein des nucléons ou bien entre nucléons – les expériences sont aussi faites sur des noyaux d’atomes composés seulement de quelques nucléons.
L’expérimentation, qui est à la base de ces recherches fondamentales menées au LPSC, ne permet pas à elle seule de répondre aux multiples questions soulevées. L’évolution des connaissances en physique ne peut se faire sans le soutien constant des développements théoriques, qui soit lancent les chercheurs sur de nouvelles pistes, soit permettent l’interprétation des résultats expérimentaux, que ce soit en physique des particules ou en physique hadronique.
Vers un nucléaire propre ?
Le siècle qui débute est caractérisé par la collision de plus en plus frontale entre des besoins énergétiques, entraînés mécaniquement à la hausse par la croissance de la population mondiale, le développement des pays émergents, et la nécessaire diminution du recours aux combustibles fossiles (changements climatiques, épuisement des ressources). Il est sage, avant que les deux mâchoires de ce piège ne soient totalement refermées, d’envisager des scenarii où l’exploitation de l’énergie nucléaire puisse jouer un rôle beaucoup plus important dans la production mondiale d’énergie. Envisager n’est pas imposer ; il s’agit au moins de faire l’étude de solutions qui soient efficaces et suffisantes. Ces solutions, tout en ayant le degré de sûreté des filières (ou types de réacteurs) actuelles, doivent satisfaire plusieurs critères :
pérennité de la production (réserves de combustibles suffisantes et bien utilisées) ;
minimisation de la production de déchets à vie longue ;
non prolifération des matières fissiles à usage militaire.
Pour cela des recherches sont mené pour étudier la possibilité de destruction des déchets à vie longue dans des réacteurs spécialisés.
Imagerie nucléaire et radiothérapie conforme
L’imagerie nucléaire repose sur l’utilisation de noyaux radioactifs injectés au patient dans le but de produire une image avec une très bonne résolution en vue d’un diagnostic précis. Dans le cas de la TEP (Tomographie par Emission de Positron), la désintégration du noyau radioactif se produit finalement via l’émission de deux photons gamma à 180o qui sont détectés en coïncidence par un instrument similaire à ceux traditionnellement utilisés en physique des particules. Cette technique est utilisée dans de nombreuses disciplines de la médecine et de la biologie (oncologie, cardiologie, pharmacologie, neurosciences, etc) chez l’homme et les animaux.
La radiothérapie est employée dans le traitement de la moitié des patients atteints de cancer. Une radiothérapie conforme consiste à diagnostiquer très efficacement des tumeurs précoces, puis à les détruire par des moyens appropriés faisant appel à des faisceaux d’ions légers accélérés, dont l’efficacité biologique et la précision sont très largement accrues par rapport aux techniques actuelles.