ecole de musique toulon, cours de piano
     
 
 
 
 
 
menu
 
 

LA MATIÈRE

 



 

 

 

 

 

La matière

Publié le 23 novembre 2018

La matière est partout présente autour de nous. Elle est constituée d'atomes, eux-mêmes construits à partir de « briques plus petites », appelées particules élémentaires. L'origine de la matière présente sur Terre et dans l'Univers est expliquée aujourd'hui par le modèle du Big Bang. Après des siècles de recherches, la matière reste encore pleine de mystères que les chercheurs tentent de percer en améliorant les technologies de visualisation de l'infiniment petit, de la cosmologie et de la physique des
 particules.

QU’EST-CE QUE LA MATIÈRE ?
La matière désigne l’ensemble des composants et objets, naturels ou synthétiques, qui compose notre environnement. Elle est, au sens classique du terme, caractérisée par une masse et un volume.

La matière est constituée d’atomes ou de molécules (assemblage d’atomes). Les atomes sont entre cent mille et un million de fois plus petits que le diamètre d’un cheveu (10-10m) et constituent les briques élémentaires qui permettent de différencier un élément chimique d’un autre. Au total, il existe actuellement 118 éléments regroupés dans un tableau périodique des éléments, aussi appelé tableau de Mendeleïev.

Un atome est composé d’un noyau, situé en son centre, et d’un nuage d’électrons en mouvement autour. Il est essentiellement composé de vide. En effet, si le noyau était une balle de tennis, le nuage électronique s’étendrait à environ 6 kilomètres de la balle.

Le noyau d'un atome est composé de protons et de neutrons qui tiennent ensemble grâce à la force nucléaire forte. Protons et neutrons sont eux-mêmes composés de grains de matière encore plus petits, les quarks. Ces derniers sont maintenus ensemble grâce à des échanges continus de gluons, des particules élémentaires qui appartiennent à la famille des bosons.

Les électrons sont des particules qui circulent autour du noyau. La cohésion de l’atome est assurée par la force électromagnétique. Celle-ci lie ensemble les électrons chargés négativement avec les protons chargés positivement. Cette attraction électromagnétique est le résultat d’un échange continu de photons, aussi appelés particules de lumière.

La force électromagnétique est présente partout autour de nous : lumière, électricité, magnétisme… Au quotidien, cette force électromagnétique empêche par exemple un verre posé sur une table de passer au travers de la table : les électrons de la table et du verre, étant de même charge électrique (négative) se repoussent.

Dans un atome qui est neutre, il y a autant d’électrons que de protons. Les propriétés chimiques d’un élément sont déterminées par le nombre d’électrons de l’atome, donc par le nombre de protons du noyau. La chimie est la science qui s’intéresse à la composition et à la transformation de la matière.


LES DIFFÉRENTS ÉTATS DE LA MATIÈRE
La matière peut avoir différents états : liquide, solide, gazeux ou plasma. Ces états dépendent de la température et de la pression et caractérisent un niveau d’organisation de la matière.

Dans les conditions normales de température et de pression terrestres, la matière se présente sous trois états : solide, liquide et gazeux. Le passage d’un état à l’autre correspond à une réorganisation des molécules ou des atomes dans la matière. Prenons l’exemple de l’eau : à l’état solide, sous forme de glace, l’eau a une structure très organisée dans laquelle les molécules sont fortement liées les unes aux autres. Sous l’effet de la chaleur, les molécules s’agitent, se désolidarisent les unes des autres et l’eau devient liquide. A plus forte température encore, la structure se désorganise totalement et les molécules d’eau s’éparpillent sous forme de gaz, c’est l’ébullition.

Dans des conditions de température et de pression extrêmes apparaît un nouvel état de la matière dans lequel la structure atomique elle-même est totalement désorganisée : le plasma. Les constituants de l'atome se séparent, noyaux et électrons se déplacent indépendamment et forment un mélange globalement neutre.

Ce quatrième état de la matière, que l'on retrouve dans les étoiles et le milieu interstellaire, constitue la majorité de la matière ordinaire de notre Univers (jusqu’à 90 %). Sur Terre, on ne le rencontre à l'état naturel que dans les éclairs ou les aurores boréales. Cet état peut être cependant produit artificiellement en appliquant des champs électriques suffisamment puissants pour séparer le noyau de ses électrons dans les gaz. Dans notre vie quotidienne, les plasmas ont de nombreuses applications (microélectronique, écrans plats des téléviseurs ...), dont la plus courante est le tube néon pour l’éclairage.


DIFFÉRENCE ENTRE MATIÈRE 
ET MATÉRIAUX

La matière compose les matériaux. Tout matériau est fait de matière mais toute matière n’est pas un matériau. Un matériau est une matière d’origine naturelle ou artificielle que l’Homme utilise et/ou conçoit pour fabriquer des objets, construire des bâtiments ou des machines.

QUELLE EST L’ORIGINE DE LA MATIÈRE ?
Les éléments qui constituent la matière sont apparus à différentes étapes de l’histoire de l’Univers. Selon le modèle du Big Bang, il y a 13,7 milliards d’années, l'Univers était extrêmement dense et chaud et soumis à une forte expansion. Du fait de cette expansion, le contenu d'énergie et de particules de l'Univers se libère dans toutes les directions sous la forme d’une soupe uniforme, constituée de particules élémentaires telles que les électrons, les quarks ou les photons.  

La température baisse rapidement et permet aux quarks de s'associer pour former les premiers protons et neutrons. Les premiers noyaux d'hydrogène sont alors formés (ils sont constitués d'un seul et unique proton). Entre trois et vingt minutes après le début de l'expansion, la température continue de baisser. Les protons et les neutrons s'associent pour former les premiers noyaux de deutérium, d'hélium et de lithium. C'est la nucléosynthèse primordiale. La production de nouveaux noyaux s'arrête quand la température passe en dessous du milliard de degrés.

Puis, 380 000 ans après le début de l’expansion, la température de l’Univers descend à environ 3 000 degrés. Les électrons deviennent assez lents pour se lier aux noyaux déjà formés, et créer les premiers atomes d’hydrogène et d’hélium. Plusieurs centaines de millions d'années après le Big Bang, d’immenses nuages de matière se concentrent : les conditions de création des étoiles sont réunies. Les fusions successives des noyaux légers dans le centre des étoiles vont former des noyaux plus lourds comme le carbone, l'azote ou l'oxygène, jusqu’au noyau de fer pour les plus grosses étoiles. C'est la nucléosynthèse stellaire. Quand les plus grosses étoiles meurent, elles explosent dans un phénomène dit de « supernova ». Pendant l’explosion, les étoiles libèrent dans tout l’Univers les noyaux qu’elles ont fabriqués et certains noyaux capturent également des neutrons de l’explosion pour former les noyaux naturels les plus lourds comme le plomb, l’uranium...

L’HISTOIRE DES DÉCOUVERTES SCIENTIFIQUES SUR LA MATIÈRE
Depuis toujours, l’Homme cherche à comprendre le monde qui l’entoure. Le philosophe Démocrite est parmi les premiers, au cinquième siècle avant JC, à envisager l’existence de particules de matière. Il parle déjà de briques indivisibles de matière qu’il appelle « atomes ». Sa théorie se perd pendant plusieurs siècles. Il faudra attendre le 18e siècle pour que l’idée d’un découpage de la matière en briques élémentaires soit reprise, mais sans parler d’atomes. Aux 19e et 20e siècles, John Dalton, Dimitri Mendeleïev, Joseph John Thomson, Ernest Rutherford, Niels Bohr font progresser la connaissance sur la matière. Parallèlement aux découvertes sur l’atome et le noyau, des astrophysiciens tels que Fred Hoyle ou encore George Gamow s’intéressent à l’origine de la matière présente dans notre Univers.

QUELS SONT LES ENJEUX DES RECHERCHES SUR LA MATIÈRE ?
Les recherches sur la matière ont permis de nombreuses découvertes sur notre Univers et son évolution. L’étude de l’infiniment petit a également permis de découvrir et théoriser, au début du 20e siècle, les phénomènes de mécanique quantique. Cette physique est à l’origine d’applications concrètes très diverses comme les lasers ou encore les diodes électroluminescentes.

Les recherches et expériences en physique des particules ont mis en évidence sur plus d’un siècle les différentes briques du « modèle standard », théorie qui décrit tous les constituants élémentaires de la matière et leurs interactions. La première particule de ce modèle à avoir été découverte est l’électron, en 1897 par Joseph John Thomson et la dernière est le boson de Higgs en 2012.

Ces avancées scientifiques ont permis une amélioration continue des connaissances sur la matière et notre Univers même s’il reste de nombreuses questions. Par exemple, en physique nucléaire, les interactions entre tous les protons et tous les neutrons d’un même noyau sont tellement complexes qu’elles ne peuvent être décrites de manière exacte : les chercheurs doivent avoir recours à des approximations judicieuses pour expliquer les propriétés du noyau. Il n’existe pas, à ce jour, de modèle standard qui permettrait d’expliquer l’ensemble des propriétés de tous les noyaux.

Aujourd’hui, les scientifiques cherchent à mieux comprendre tous les mécanismes liés à la matière : naissance des étoiles, formation des galaxies ou encore début du Big Bang avec des missions telles que le télescope spatial James Webb (JWST) qui doit être lancé en octobre 2018 pour remplacer le télescope Hubble.

La matière qui nous entoure n’est pas la seule à intriguer les physiciens. En effet, selon les observations astronomiques, la matière constituée des particules du modèle standard ne représente que 5% de l’Univers. Il resterait donc encore 95 % de l’Univers à décrypter. Parmi ces mystères, la matière noire, une matière théorique, totalement invisible, postulée pour expliquer par exemple les effets gravitationnels qu’elle occasionnerait sur la lumière en provenance de galaxies très lointaines. La traque de la matière noire constitue l’un des grands enjeux scientifiques fondamentaux de ce siècle, notamment pour vérifier la validité du modèle du Big Bang.

 

  DOCUMENT     cea         LIEN

 
 
 
 

L'ESSENTIEL SUR... L'ordinateur quantique

 

 

 

 

 

 

 

L'ESSENTIEL SUR...
L'ordinateur quantique

Publié le 15 mai 2019

Si on ne dispose pas encore d’une véritable technologie d’ordinateur quantique, de nombreuses routes sont néanmoins explorées aujourd’hui. Toutes font encore face à des difficultés sans solution viable. Mais l’histoire du domaine a montré que des verrous considérés comme infranchissables finissaient par être levés. C’est pourquoi la recherche mondiale est plus active que jamais et les annonces publiques se multiplient, dans le cadre de ce qui est appelé aujourd’hui la "deuxième révolution quantique".

LA QUÊTE DE L’ULTIME BIT QUANTIQUE, QUBIT

A la base du concept de l’ordinateur quantique figure l’idée selon laquelle les phénomènes quantiques pourraient être utilisés pour décupler la puissance de calcul des machines classiques. Ce rêve, poursuivi par des scientifiques, de par le monde, depuis plus de trente ans, se heurte cependant à d’importants obstacles technologiques.

L'histoire de l'ordinateur quantique
Au début des années 1980, le Nobel de physique Richard Feynman est le premier à pressentir les possibilités faramineuses d’un ordinateur capable de tirer parti des lois quantiques.
Dès les années 1990, plusieurs théoriciens démontrent que certains calculs verraient leur résolution accélérée dans des proportions inouïes s’il était possible de les implémenter sur des bits quantiques, aussi appelés qubits, plutôt que sur des bits classiques. À condition, bien sûr, de disposer d’un processeur quantique pour les utiliser, processeur dont personne ne sait à l’époque à quoi il pourrait ressembler.

Molécules en phase liquide, ions piégés par des faisceaux laser, impureté dans les solides… les idées commencent à fuser dans les laboratoires de physique pour définir ce qui pourrait devenir les briques de base d’un futur ordinateur quantique, à l’instar des transistors de la microélectronique classique.


QU'EST-CE QU'UN BIT QUANTIQUE ?

Dans un ordinateur classique, l’information est stockée dans un ensemble (registre) de cases mémoires, les bits, dont la valeur est soit 0, soit 1. Un bit quantique (qubit) a, quant à lui, deux états quantiques |0> et |1>, séparés par une différence d’énergie définissant sa fréquence (fQB), et peut être à la fois dans ces deux états. Au cours d’un algorithme (succession d'opérations dites « portes logiques »), le registre de qubits se trouve dans une superposition quantique de tous ses états possibles (|00...0>, |10...0>, |11...1>, |10...1>), permettant un calcul massivement parallèle.




Etats quantiques d'un bit quantique. © CEA/F. Mathé




L'ORDINATEUR QUANTIQUE : UN POTENTIEL DE RUPTURE MAJEUR MAIS UN PROBLÈME CONCEPTUEL ET TECHNOLOGIQUE EXTRÊMEMENT DIFFICILE

Au XXe siècle, la mise au jour de la physique quantique a révolutionné notre conception du monde mais aussi notre mode de vie avec ses applications : lasers, transistors, circuits intégrés.
Une deuxième révolution quantique advient à l’aube du XXIe siècle. Elle regroupe des recherches visant à concevoir et à réaliser des dispositifs de rupture qui exploitent les phénomènes physiques de la superposition et de l’intrication quantique. C’est un domaine en pleine expansion avec de très forts enjeux scientifiques et technologiques. En particulier, la réalisation d’un ordinateur quantique permettrait des approches révolutionnaires pour certaines classes de problèmes.

Une communauté scientifique et technique encore réduite
La communauté scientifique bien informée sur les possibilités des technologies quantiques est encore réduite. Issue pour l’essentiel du monde académique (physique et mathématiques), elle a peu développé les voies applicatives pour le moment. Il est donc possible que de nombreuses applications insoupçonnées jusqu’à présent apparaissent dans un futur proche.

L'ORDINATEUR QUANTIQUE : DES DOMAINES D’APPLICATION DÉJÀ IDENTIFIÉS
Aujourd’hui, des programmes de recherche importants sont menés selon trois grandes voies de l’ingénierie quantique qui étudie ce qu’il est possible de réaliser en termes d’application en exploitant les propriétés d’intrication, de non localité et de superposition, propre à un système quantique :

Les capteurs : une information portée par un qubit est très sensible aux perturbations apportées par son environnement ; c’est une difficulté pour réaliser un ordinateur mais cela peut permettre de construire une sonde très sensible.
Les ordinateurs de très grande performance : le calcul quantique est intrinsèquement parallèle et permet de traiter en un temps très réduit de grandes quantités d’information, avec des performances inaccessibles au calcul classique pour certaines applications.
Les télécommunications protégées : les corrélations quantiques entre des particules intriquées permettent de coder un message garantissant l’absence d’interception lors de sa transmission. Le codage à base de clefs publiques trop difficiles à factoriser par les ordinateurs actuels pourrait être cassé par un ordinateur quantique ayant un nombre suffisant de qubits (de l’ordre du nombre de bits de la clef).

Le calcul massivement parallèle, intrinsèque à l’ordinateur quantique, permet de sonder l’espace des états d’un système comportant de très nombreux paramètres.
Cette caractéristique permet déjà d’identifier quatre grands domaines d’application :

La chimie
Simuler, in silico, de manière exacte, la structure et le fonctionnement de grosses molécules d’intérêt pour la pharmacologie ou pour l’agronomie. Avec les plus puissants ordinateurs actuels, même les plus puissants, il est possible de simuler des petites molécules mais il est souvent nécessaire de recourir à de fortes approximations dès que la taille du système étudié augmente.

Le Data Mining
Accélérer la recherche d’une information spécifique dans une vaste base de données.

L’optimisation de procédés de l’industrie 4.0
Trouver une solution optimale dans un système complexe multiparamétrique, comme par exemple la tournée la plus rapide d’un camion de livraison ou ajuster l’offre à la demande sur un réseau électrique très décentralisé.

L’intelligence artificielle 
Au cours de la phase d’apprentissage d’un système d’IA, telle qu’une reconnaissance d’images, les informations pourront être simultanément reconnues et non de façon séquentielle comme c’est le cas avec des processeurs classiques (examiner une situation, puis une autre, etc.).

LES ENJEUX DE LA RECHERCHE SUR L'ORDINATEUR QUANTIQUE
Atout du quantique : des calculs intrinsèquement parallèles
Alors que dans un calculateur classique, les bits (unités de base utilisées) ne peuvent prendre qu’une valeur parmi deux (soit 0 soit 1), les qubits peuvent être placés dans un ensemble continu de superpositions de leurs deux états de base |0> ou |1>.
Un ordinateur exploitant cette possibilité, offerte par les lois de la physique quantique, pourrait calculer de façon massivement parallèle, c'est-à-dire simultanément, l'ensemble des valeurs des qubits, et ainsi surpasser considérablement la puissance de l'ordinateur classique.
Ainsi, dans un ordinateur classique, une série de N bits égaux à 0 ou 1 permet d’encoder un unique nombre parmi les 2N possibles (un parmi 4 096 pour N = 12).
En revanche, un registre quantique dont les 12 qubits seraient en parallèle plongés dans les deux états de base |0> ou |1>, se trouverait dans une superposition des 4 096 états de base du registre. Toute opération quantique qui lui serait appliquée s’effectuerait en parallèle sur ces 4 096 états de base. Ceci ne réaliserait pas pour autant du calcul parallèle car la lecture ne donnera qu’un seul résultat. L’art de l’algorithmique quantique consiste alors à exploiter le parallélisme tout en concentrant, par chaque étape de mesure, l’état du registre quantique sur la ou les solutions du problème étudié.

Difficultés du quantique : un état intrinsèquement peu stable
Si les spécialistes de physique quantique savent observer atomes, photons ou molécules dans des états dits de "superposition quantique", ces états sont extrêmement fragiles : à la moindre perturbation extérieure, ils s’évanouissent ; d’où la nécessité d’isoler aussi complètement que possible de leur environnement les systèmes que l’on souhaite mettre durablement dans de tels états.
Les qubits sont les unités de construction des calculateurs quantiques. Ils peuvent être mis en œuvre dans une large variété de systèmes physiques à l’échelle du laboratoire. La recherche sur les qubits s’est d’abord naturellement portée sur des systèmes au comportement quantique avéré, comme les atomes et les ions, bien que ces systèmes microscopiques soient difficiles à contrôler individuellement et à coupler. Elle s’est également portée ensuite sur des systèmes plus faciles à contrôler, comme des circuits électriques, qui eux ne fonctionnent, en général, pas en régime quantique.
Cependant, lorsqu’on veut produire de grands systèmes ou des qubits en série, il faut utiliser des supports de l’information quantique compatibles avec les standards industriels. Les qubits de spin dans le silicium sont de petite taille (typiquement 30 nanomètres) et sont compatibles avec les technologies CMOS (Complementary Metal Oxide Semiconductor : technologie de fabrication de composants électroniques), largement utilisées dans l’industrie microélectronique. Ils présentent donc des avantages évidents pour la production en série par rapport aux autres types de qubits.
Depuis 2012, où ont été mis au point les premiers qubits basés sur des spins d’électrons confinés, le silicium 28 purifié isotopiquement a permis d’améliorer significativement le temps de cohérence du spin quantique : en effet, l’isotope 28 du silicium ne porte pas de spin nucléaire, source importante de décohérence pour le qubit. Plus le temps de cohérence du spin augmente, plus la fidélité des opérations de calcul quantique et la capacité à effectuer une séquence complète d’opérations s’améliorent.

LA RECHERCHE DANS LE DOMAINE
La recherche fondamentale dans le domaine de l'information quantique a connu un essor important cette dernière décennie. Les enjeux dans ce domaine et la rupture technologique que présenterait un ordinateur quantique ont incité de grandes entreprises à investir d'importants moyens, en s'associant à des communautés scientifiques, ou en créant leurs propres laboratoires de recherche. L'association de Google avec l'Université de Californie de Santa Barbara ou la collaboration annoncée sur dix ans du groupe lntel avec l'université technologique de Delft illustrent l'engouement pour cette thématique de recherche et la nécessité de construire un véritable partenariat public-privé sur le long terme. Atos-Bull, leader européen du calcul intensif, s'est aussi positionné activement sur la feuille de route de l'ordinateur quantique en réalisant un émulateur d'ordinateur quantique intégrant finement mémoire et calcul dans un serveur classique optimisé, et en créant une équipe spécialisée en logiciel adapté au quantique.

Une accélération mondiale et un grand nombre d’initiatives publiques et privées
Plusieurs actions majeures à l’étranger (Etats-Unis, Royaume-Uni, Pays-Bas, Danemark) impliquent dès aujourd’hui de très grands industriels (Google, Intel…) et mobilisent des financements de plusieurs dizaines de millions d’euros. Au niveau européen, un flagship sur l’ingénierie quantique a été décidé en 2016 et a démarré en 2018 avec l’ambition d’amener les technologies quantiques sur le marché. Le financement annoncé est d’au moins un milliard d’euros, apporté par la Commission européenne et les Etats membres sur dix ans.

Un grand nombre de voies à explorer pour espérer lever les verrous conceptuels et technologiques
Un grand nombre de voies de réalisation physique est développé en parallèle. Aucun consensus ni aucun argumentaire robuste n’existe aujourd’hui sur la solution la plus adaptée pour réaliser un ordinateur quantique comprenant plus d’une dizaine de qubits. Tous les systèmes étudiés jusqu’à présent se sont en effet heurtés aux problèmes de décohérence et de complexité rapidement croissante des dispositifs quand le nombre de qubits augmente.
En particulier, le problème de la correction d’erreurs est plus qu’ardu car ses difficultés sont d’ordre à la fois conceptuel et technologique, liant degrés de liberté, interactions, complexité, méthode d’adressage, méthode de mesure, décohérence. A ces questions s’ajoute la vaste problématique de l’algorithmique et de son implémentation pratique dans une architecture donnée (traitement des erreurs, langage de programmation…)



VOIR AUSSI
*         L'essentiel sur... la mécanique quantique
*         Clefs CEA n°66 - Révolutions quantiques - juin 2018
*         Vidéo Masterclass Introduction à la physique quantique, par Roland Lehoucq, astrophysicien au CEA
*         Les Défis du CEA n° 214 - L'ordinateur quantique, graal du numérique - février 2017

 

    DOCUMENT     cea         LIEN
 

 
 
 
 

Comment fonctionne un accélérateur de particules?

 

 

 

 

 

 

 

LES ACCÉLÉRATEURS DE PARTICULES

Comment fonctionne un accélérateur de particules?

© CEA
En utilisant le champ électrique et le champ magnétique, les particules dans un accélérateur sont tour à tour produites, accélérées, focalisées et guidées vers les endroits requis.

Publié le 6 janvier 2016

LES "MISSIONS" D'UN ACCÉLÉRATEUR
DE PARTICULES


Accélérer c'est augmenter la vitesse. Dans un accélérateur de particules, un faisceau de particules électriquement chargées, par exemple des électrons (charge électrique négative) ou bien des ions (charge électrique positive ou négative), à une énergie donnée, est accéléré. L’énergie correspond ici à une énergie cinétique, c’est-à-dire l’énergie liée à la vitesse. L'unité utilisée est l'électronvolt (eV), qui est l'énergie donnée à un électron accéléré à partir de sa position de repos par une tension de 1Volt.

Dans un accélérateur de particules, accélérer ne suffit pas. Il faut aussi que le nombre de particules à l’endroit d’utilisation soit suffisant et que la taille et la divergence du faisceau ne soient pas trop grandes. Ce qui n'est pas une tâche aisée étant donné que les charges électriques de même signe se repoussent entre elles, et se perdent sur les parois, pouvant activer ou détériorer les équipements utilisés pour transporter le faisceau.

Dans un accélérateur on ne fait donc pas qu'accélérer. On doit aussi produire les particules, les guider vers les endroits voulus et les focaliser convenablement (c’est-à-dire optimiser la taille et la divergence du faisceau) et les accélérer.

LES ÉTAPES DU FONCTIONNEMENT
D’UN ACCÉLÉRATEUR DE PARTICULES
Production de particules chargées
L’une des premières étapes est la production de particules chargées. Il s'agit de séparer les électrons des noyaux et de donner une première accélération à l'une des deux espèces chargées voulue. La séparation des charges se fait en général par chauffage, soit avec un courant électrique à travers un métal ou un fort champ électrique, soit avec une onde électromagnétique à travers un gaz. On applique alors une tension électrique pour attirer les charges à l'extérieur de la source.

Guidage des particules

Un dipôle, aussi appelé aimant de courbure, est un élément magnétique de guidage dont le rôle est de dévier la trajectoire des électrons. Il y a 36 dipôles dans le booster et 32 dans l’anneau de stockage (ici : un dipôle du booster) de SOLEIL. Dans l’anneau de stockage ce sont également des sources de rayonnement synchrotron, puisque les électrons produisent ce rayonnement quand leur trajectoire n’est pas rectiligne et uniforme. © Synchrotron SOLEIL – Christophe Kermarrec
Il faut ensuite courber la trajectoire des particules, soit parce qu'on est dans un accélérateur circulaire, soit parce qu'il faut amener les particules à l'endroit de la collision ou de la cible à irradier. On emploie pour cela un champ magnétique qui exerce une force perpendiculaire à la direction de déplacement des particules chargées. Les particules chargées sont alors obligées de s'enrouler autour de l'axe du champ magnétique.
On peut utiliser des aimants permanents mais dans la très grande majorité des cas, ce sont des électro-aimants appelés "dipôles" qui sont mis en œuvre. Le champ magnétique est créé par deux bobines dans lesquelles circule un courant électrique très intense pouvant atteindre plusieurs centaines d’Ampères. Les champs utilisés sont de l'ordre de 10 000 Gauss (1 Tesla) pour les dipôles à température ambiante et 10 à 20 fois plus pour les dipôles supraconducteurs (température cryogénique). Pour mémoire, le champ magnétique terrestre est de 0,5 Gauss.


Focalisation des particules
Pour exercer une force perpendiculaire à la direction de déplacement des particules, c'est le champ magnétique qui est employé, notamment à l’aide d’électro-aimants. Deux configurations sont possibles :

*         Solénoïde. C'est une longue bobine électrique créant un champ magnétique axial autour duquel les particules chargées sont obligées de s'enrouler et sont donc par la même occasion focalisées car elles doivent rester proches de l'axe.
*        
*         Quadrupôle. La configuration du champ magnétique est générée par quatre bobines électriques. Les particules qui passent à travers sont focalisées dans un plan (horizontal par exemple) et défocalisées dans l'autre (vertical par exemple). Une succession de quadrupôles (de focalisations-défocalisations) permet de régler efficacement la taille et la divergence du faisceau de particules en horizontal et vertical. Le champ magnétique exerçant une force perpendiculaire à la trajectoire de la particule chargée, il ne permet pas de changer la vitesse de celle-ci.


Accélération des particules

Pour accélérer les particules, on doit obligatoirement utiliser un champ électrique qui exerce sur les particules une force parallèle au champ. Si on oriente le champ parallèle au déplacement des particules, sa force sera alors accélératrice. Si on oriente le champ perpendiculairement, il sera focalisant ou défocalisant. Contrairement au champ magnétique donc, un champ électrique est capable de fournir de l'énergie à des particules chargées.

Dans les premiers accélérateurs, c'est un champ électrostatique créé entre des surfaces conductrices chargées qui est utilisé. Or cela ne permet pas d'obtenir des champs très forts car on est limité par les problèmes de claquages (tels les éclairs d'orage).

Maintenant, de façon classique, ce sont des cavités résonantes qui sont utilisées, où une onde électromagnétique y est piégée. C'est le même principe que les caisses de résonance des instruments de musique pour les ondes sonores. Ici c'est une composante électrique qui doit être positionnée au niveau du passage du faisceau de particules.

Les cavités accélératrices à température ambiante peuvent fournir un champ électrique de plusieurs megaV/m et les cavités supraconductrices (température cryogénique) atteignent des champs 10 fois plus élevés.

Accélération et focalisation (presque) simultanées
Dans le cas d’un faisceau intense à basse énergie, typiquement à la sortie de la source de particules chargées, les forces répulsives entre particules de même charge électrique sont encore très fortes. On ne peut pas accélérer et focaliser séparément, car pendant le temps d'accélération, les particules peuvent déjà se disperser. On doit alors utiliser un dispositif appelé RFQ, Quadrupôle RadioFréquence qui permet d'accélérer et de focaliser successivement sur des longueurs très courtes de quelques cm. C'est une cavité résonante longue de 3 à 10 m, munie de 4 pôles finement sculptés en 3D sous la forme d'une ondulation. La période de cette ondulation est progressivement de plus en plus longue car les particules accélérées vont de plus en plus rapidement. L'onde électromagnétique qui y est piégée aura ainsi une composante électrique successivement parallèle et perpendiculaire au déplacement du faisceau sur une longueur de quelques cm, permettant d'accélérer et focaliser les particules chargées presque simultanément.

 

   DOCUMENT     cea         LIEN

 
 
 
 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

 

 

 

 

 

 

 

LES TROUS NOIRS ET LA FORME DE L'ESPACE

La théorie de la relativité générale, les modèles de trous noirs et les solutions cosmologiques de type " big-bang " qui en découlent, décrivent des espace-temps courbés par la gravitation, sans toutefois trancher sur certaines questions fondamentales quant à la nature de l'espace. Quelle est sa structure géométrique à grande et à petite échelle ? Est-il continu ou discontinu, fini ou infini, possède-t-il des " trous " ou des " poignées ", contient-il un seul feuillet ou plusieurs, est-il " lisse " ou " chiffonné " ? Des approches récentes et encore spéculatives, comme la gravité quantique, les théories multidimensionnelles et la topologie cosmique, ouvrent des perspectives inédites sur ces questions. Je détaillerai deux aspects particuliers de cette recherche. Le premier sera consacré aux trous noirs. Astres dont l'attraction est si intense que rien ne peut s'en échapper, les trous noirs sont le triomphe ultime de la gravitation sur la matière et sur la lumière. Je décrirai les distorsions spatio-temporelles engendrées par les trous noirs et leurs propriétés exotiques : extraction d'énergie, évaporation quantique, singularités, trous blancs et trous de ver, destin de la matière qui s'y engouffre, sites astronomiques où l'on pense les avoir débusqués. Le second aspect décrira les recherches récentes en topologie cosmique, où l'espace " chiffonné ", fini mais de topologie multiconnexe, donne l'illusion d'un espace déplié plus vaste, peuplé d'un grand nombre de galaxies fantômes. L'univers observable acquiert ainsi la forme d'un " cristal " dont seule une maille correspond à l'espace réel, les autres mailles étant des répliques distordues emplies de sources fantômes.

Texte de la 187e conférence de l’Université de tous les savoirs donnée le 5 juillet 2000.
Les trous noirs et la forme de l'espace
par Jean-Pierre Luminet

Introduction
La question de la forme de l’espace me fascine depuis que, adolescent, j’ai ouvert une encyclopédie d’astronomie à la page traitant de la théorie de la relativité générale d’Einstein. Il y était écrit que, dans la conception relativiste, l’espace-temps a la forme d’un mollusque. Cette image m’avait beaucoup intrigué, et depuis lors, je n’ai eu de cesse d’élucider les mystères implicitement attachés à ce « mollusque universel ». Lorsqu’ils contemplent un beau ciel nocturne, la plupart des gens n’ont d’yeux que pour le spectacle des étoiles, c’est-à-dire le contenu de l’univers. Or, on peut aussi s’émerveiller devant l’invisible contenant : l’espace n’est-il qu’un réceptacle vide et passif qui accueille les corps, ou bien peut-on lui attribuer une forme, une structure, une architecture ? Est-il plat, courbe, rugueux, lisse, cabossé, plissé, etc. ?
L’espace a-t-il une forme ?
Il est sans doute difficile à la plupart d’entre vous d’attribuer une forme à quelque chose d’aussi impalpable et d’abstrait que l’espace. Au cours des siècles, maintes conceptions philosophiques ont tenté de « donner chair » à l’espace en le considérant, par exemple, comme une substance éthérée qui, non seulement contient les corps matériels, mais aussi les imprègne et partage avec eux certaines de ses propriétés structurelles. Toutefois, pour le physicien, les questions sur la forme de l’espace ne sont pertinentes qu’en utilisant le langage des mathématiques, plus spécifiquement celui de la géométrie.

Quel est l’espace géométrique qui est susceptible de représenter l’espace physique ?
Le problème est plus compliqué qu’il ne semble à première vue. Certes, l’espace « immédiat » qui nous environne est correctement décrit par la géométrie euclidienne ordinaire. Mais l’espace microscopique (à très petite échelle) et l’espace cosmologique (à très grande échelle) en diffèrent profondément. À la question de la forme de l’espace, la physique actuelle donne donc des réponses différentes, selon quatre « niveaux » dépendant de l’échelle à laquelle on examine la structure de l’espace. Les niveaux « intermédiaires » 1 & 2 sont assez bien compris, les niveaux « extrêmes » 0 & 3 font l’objet de spéculations théoriques originales.
Niveau 1 : Géométrie (pseudo-) euclidienne
Champ d’application : mécanique classique, relativité restreinte, électrodynamique quantique
À l’échelle « locale », disons entre 10-18 centimètre (longueur actuellement accessible à l’expérimentation) et 1011 mètres (de l’ordre de la distance Terre - Soleil), la géométrie de l’espace physique se décrit très bien par celle de l’espace euclidien ordinaire. « Très bien » signifie que cette structure mathématique sert de cadre naturel aux théories physiques qui, comme la mécanique classique, la relativité restreinte et l’électrodynamique quantique, permettent d’expliquer correctement la quasi-totalité des phénomènes naturels. L’espace y est à trois dimensions, sans courbure. Dans la théorie relativiste, il est couplé au temps au sein d’une géométrie pseudo-euclidienne quadridimensionnelle plate, dite « espace-temps de Minkowski ».
Niveau 2 : Géométrie différentielle en espace (pseudo-) riemannien
Champ d’application : relativité générale, cosmologie
À l’échelle astronomique (système solaire, étoiles, galaxies, univers dans son ensemble), l’interaction dominante qui « sculpte » l’espace physique est la gravité. Celle-ci est décrite par la relativité générale, qui fait apparaître une structure non-euclidienne de l’espace-temps. La géométrie différentielle des variétés riemanniennes permet précisément de décrire de tels espaces courbes. Il y a de nombreuses modélisations possibles. Par exemple, à grande échelle, la courbure est relativement « douce » et uniforme. Les cosmologistes travaillent donc dans le cadre d’espaces à courbure constante. Au voisinage d’objets très compacts, la courbure peut au contraire varier fortement d’un point à l’autre. La géométrie de Schwarzschild est un exemple de modélisation de l’espace-temps physique autour d’un trou noir sphérique.
Niveau 0 : Géométrie multidimensionnelle, géométrie non-commutative, etc.
Champ d’application : théories d’unification, supercordes, gravité quantique
La description de l’espace à l’échelle microscopique (entre 10-33 centimètre et 10-18 centimètre) est liée au plus grand enjeu de la physique actuelle : l’unification des interactions fondamentales. Celle-ci tente de marier deux points de vue extrêmement différents : celui de la mécanique quantique, décrivant les interactions en termes de champs, et celui de la relativité, décrivant la gravité en termes de courbure.
Aucune théorie de « gravité quantique » satisfaisante n’a vu le jour, mais plusieurs scénarios sont étudiés. Dans tous les cas, les conceptions géométriques usuelles sur l’espace et le temps sont bouleversées. Par exemple, la théorie des supercordes introduit des dimensions spatiales supplémentaires ; la géométrie non-commutative décrit un espace-temps granulaire et « flou » ; la géométrodynamique quantique conçoit l’espace-temps comme un océan bouillonnant d’énergie, agité de « vagues » (les fluctuations quantiques du vide) et ponctué « d’écume » (les univers-bulles).
Niveau 4 : Topologie, espaces « chiffonnés »
Champ d’application : structure globale de l’Univers, topologie cosmique
La question de la forme globale de l’espace (à une échelle supérieure à 1025 mètres) pose des problèmes géométriques spécifiques ne relevant plus seulement de la courbure, mais de la topologie de l’espace-temps. Celle-ci n’est incorporée ni dans la relativité générale, ni dans les approches unificatrices de la physique des hautes énergies. Pour reprendre l’image pittoresque du « mollusque universel », il ne s’agit plus de savoir s’il possède des bosses ou des creux, mais de savoir s’il s’agit d’un escargot, d’une limace ou d’un calmar.
Une nouvelle discipline est née il y a quelques années : la topologie cosmique, qui applique aux modèles cosmologiques relativistes les découvertes mathématiques effectuées dans le domaine de la classification topologique des espaces.
La suite de la conférence s’attachera exclusivement à la description du niveau 2 dans le contexte des trous noirs, et du niveau 4 dans le contexte des modèles d’univers chiffonnés.

Les trous noirs
Un vieux conte persan dit :
« Un jour, les papillons tiennent une vaste assemblée parce qu’ils sont tourmentés par le mystère de la flamme. Chacun propose son idée sur la question. Le vieux sage qui préside l’assemblée dit qu’il n’a rien entendu de satisfaisant, et que le mieux à faire est d’aller voir de près ce qu’est la flamme.
Un premier papillon volontaire s’envole au château voisin et aperçoit la flamme d’une bougie derrière une fenêtre. Il revient très excité et raconte ce qu’il a vu. Le sage dit qu’il ne leur apprend pas grand chose.
Un deuxième papillon franchit la fenêtre et touche la flamme, se brûlant l’extrémité des ailes. Il revient et raconte son aventure. Le sage dit qu’il ne leur apprend rien de plus.

Un troisième papillon va au château et se consume dans la flamme. Le sage, qui a vu la scène de loin, dit que seul le papillon mort connaît le secret de la flamme, et qu’il n’y a rien d’autre à dire. »
Cette parabole préfigure le mystère des trous noirs. Ces objets célestes capturent la matière et la lumière sans espoir de retour : si un astronaute hardi s’aventurait dans un trou noir, il ne pourrait jamais en ressortir pour relater ses découvertes.
Les trous noirs sont des astres invisibles
Le concept d’astre invisible a été imaginé par deux astronomes de la fin du XVIIIe siècle, John Michell (1783) et Pierre de Laplace (1796). Dans le cadre de la théorie de l’attraction universelle élaborée par Newton, ils s’étaient interrogés sur la possibilité qu’il puisse exister dans l’univers des astres si massifs que la vitesse de libération à leur surface puisse dépasser la vitesse de la lumière. La vitesse de libération est la vitesse minimale avec laquelle il faut lancer un objet pour qu’il puisse échapper définitivement à l’attraction gravitationnelle d’un astre. Si elle dépasse la vitesse de la lumière, l’astre est nécessairement invisible, puisque même les rayons lumineux resteraient prisonniers de son champ de gravité.
Michell et Laplace avaient donc décrit le prototype de ce qu’on appellera beaucoup plus tard (en 1968) un « trou noir », dans le cadre d’une autre théorie de la gravitation (la relativité générale). Ils avaient cependant calculé les bons « ordres de grandeur » caractérisant l’état de trou noir. Un astre ayant la densité moyenne de l’eau (1g/cm3) et une masse de dix millions de fois celle du Soleil serait invisible. Un tel corps est aujourd’hui nommé « trou noir supermassif ». Les astronomes soupçonnent leur existence au centre de pratiquement toutes les galaxies (bien qu’ils ne soient pas constitués d’eau !). Plus communs encore seraient les « trous noirs stellaires », dont la masse est de l’ordre de quelques masses solaires et le rayon critique (dit rayon de Schwarzschild) d’une dizaine de kilomètres seulement. Pour transformer le Soleil en trou noir, il faudrait le réduire à une boule de 3 kilomètres de rayon ; quant à la Terre, il faudrait la compacter en une bille de 1 cm !

Les trous noirs sont des objets relativistes
La théorie des trous noirs ne s’est véritablement développée qu’au XXe siècle dans le cadre de la relativité générale. Selon la conception einsteinienne, l’espace, le temps et la matière sont couplés en une structure géométrique non-euclidienne compliquée. En termes simples, la matière-énergie confère, localement du moins, une forme à l’espace-temps. Ce dernier peut être vu comme une nouvelle entité qui est à la fois « élastique », en ce sens que les corps massifs engendrent localement de la courbure, et « dynamique », c’est-à-dire que cette structure évolue au cours du temps, au gré des mouvements des corps massifs. Par exemple, tout corps massif engendre autour de lui, dans le tissu élastique de l’espace-temps, une courbure ; si le corps se déplace, la courbure se déplace avec lui et fait vibrer l’espace-temps sous formes d’ondulations appelées ondes gravitationnelles.
La courbure de l’espace-temps peut se visualiser par les trajectoires des rayons lumineux et des particules « libres ». Celles-ci épousent naturellement la forme incurvée de l’espace. Par exemple, si les planètes tournent autour du Soleil, ce n’est pas parce qu’elles sont soumises à une force d’attraction universelle, comme le voulait la physique newtonienne, mais parce qu’elles suivent la « pente naturelle » de l’espace-temps qui est courbé au voisinage du Soleil. En relativité, la gravité n’est pas une force, c’est une manifestation de la courbure de l’espace-temps. C’est donc elle qui sculpte la forme locale de l’univers.
Les équations d’Einstein indiquent comment le degré de courbure de l’espace-temps dépend de la concentration de matière (au sens large du terme, c’est-à-dire incluant toutes les formes d’énergie). Les trous noirs sont la conséquence logique de ce couplage entre matière et géométrie. Le trou noir rassemble tellement d’énergie dans un région confinée de l’univers qu’il creuse un véritable « puits » dans le tissu élastique de l’espace-temps. Toute particule, tout rayon lumineux pénétrant dans une zone critique définie par le bord (immatériel) du puits, sont irrémédiablement capturés.
Comment les trous noirs peuvent-ils se former ?
Les modèles d’évolution stellaire, développés tout au long du XXe siècle, conduisent à un schéma général de l’évolution des étoiles en fonction de leur masse. Le destin final d’un étoile est toujours l’effondrement gravitationnel de son cœur (conduisant à un « cadavre stellaire »), accompagné de l’expulsion de ses couches externes. Il y a trois types de cadavres stellaires possibles :
- La plupart des étoiles (90 %) finissent en « naines blanches », des corps de la taille de la Terre mais un million de fois plus denses, constituées essentiellement de carbone dégénéré. Ce sera le cas du Soleil.
- Les étoiles dix fois plus massives que le Soleil (9,9 %) explosent en supernova. Leur cœur se contracte en une boule de 15 km de rayon, une « étoile à neutrons » à la densité fabuleuse. Elles sont détectables sous la forme de pulsars, objets fortement magnétisés et en rotation rapide dont la luminosité radio varie périodiquement.

- Enfin, si l’étoile est initialement 30 fois plus massive que le Soleil, son noyau est condamné à s’effondrer sans limite pour former un trou noir. On sait en effet qu’une étoile à neutrons ne peut pas dépasser une masse critique d’environ 3 masses solaires. Les étoiles très massives sont extrêmement rares : une sur mille en moyenne. Comme notre galaxie abrite environ cent milliards d’étoiles, on peut s’attendre à ce qu’elle forme une dizaine de millions de trous noirs stellaires.
Quant aux trous noirs supermassifs, ils peuvent résulter, soit de l’effondrement gravitationnel d’un amas d’étoiles tout entier, soit de la croissance d’un trou noir « germe » de masse initialement modeste.
Comment détecter les trous noirs ?
Certains trous noirs peuvent être détectés indirectement s’ils ne sont pas isolés, et s’ils absorbent de la matière en quantité suffisante. Par exemple, un trou noir faisant partie d’un couple stellaire aspire l’enveloppe gazeuse de son étoile compagne. Avant de disparaître, le gaz est chauffé violemment, et il émet une luminosité caractéristique dans la gamme des rayonnements à haute énergie. Des télescopes à rayons X embarqués sur satellite recherchent de tels trous noirs stellaires dans les systèmes d’étoiles doubles à luminosité X fortement variable. Il existe dans notre seule galaxie une douzaine de tels « candidats » trous noirs.
L’observation astronomique nous indique aussi que les trous noirs supermassifs existent vraisemblablement au centre de nombreuses galaxies - dont la nôtre. Le modèle du « trou noir galactique » explique en particulier la luminosité extraordinaire qui est libérée par les galaxies dites « à noyau actif », dont les plus spectaculaires sont les quasars, objets intrinsèquement si lumineux qu’ils permettent de sonder les confins de l’espace.
En 1979, mon premier travail de recherche a consisté à reconstituer numériquement l’apparence d’un trou noir entouré d’un disque de gaz chaud. Les distorsions de l’espace-temps au voisinage du trou noir sont si grandes que les rayons lumineux épousent des trajectoires fortement incurvées permettant, par exemple, d’observer simultanément le dessus et le dessous du disque. J’ai ensuite étudié la façon dont une étoile qui frôle un trou noir géant est brisée par les forces de marée. L’étirement de l’espace est tel que, en quelques secondes, l’étoile est violemment aplatie sous la forme d’une « crêpe flambée ». Les débris de l’étoile peuvent ensuite alimenter une structure gazeuse autour du trou noir et libérer de l’énergie sur le long terme. Ce phénomène de crêpe stellaire, mis en évidence par les calculs numériques, n’a pas encore été observé, mais il fournit une explication plausible au mode d’alimentation des galaxies à noyau actif.
La physique externe des trous noirs
La théorie des trous noirs s’est essentiellement développée dans les années 1960-70. Le trou noir, comme tous les objets, tourne sur lui-même. On peut l’envisager comme un « maelström cosmique » qui entraîne l’espace-temps dans sa rotation. Comme dans un tourbillon marin, si un vaisseau spatial s’approche trop près, il commence par être irrésistiblement entraîné dans le sens de rotation et, s’il franchit une zone critique de non-retour, il tombe inéluctablement au fond du vortex.

Le temps est également distordu dans les parages du trou noir. Le temps « apparent », mesuré par toute horloge extérieure, se ralentit indéfiniment, tandis que le temps « propre », mesuré par une horloge en chute libre, n’égrène que quelques secondes avant d’être anéantie au fond du trou. Si un astronaute était filmé dans sa chute vers un trou noir, personne ne le verrait jamais atteindre la surface ; les images se figeraient à jamais à l’instant où l’astronaute semblerait atteindre la frontière du trou noir. Or, selon sa propre montre, l’astronaute serait bel et bien avalé par le trou en quelques instants.
Le théorème capital sur la physique des trous noirs se formule de façon pittoresque : « un trou noir n’a pas de poils. » Il signifie que, lorsque de la matière-énergie disparaît à l’intérieur d’un trou noir, toutes les propriétés de la matière telles que couleur, forme, constitution, etc., s’évanouissent, seules subsistent trois caractéristiques : la masse, le moment angulaire et la charge électrique. Le trou noir à l’équilibre est donc l’objet le plus « simple » de toute la physique, car il est entièrement déterminé par la donnée de ces trois paramètres. Du coup, toutes les solutions exactes de la théorie de la relativité générale décrivant la structure de l’espace-temps engendré par un trou noir sont connues et étudiées intensivement.
Par sa nature même, un trou noir est inéluctablement voué à grandir. Cependant, la théorie a connu un rebondissement intéressant au début des années 1980, lorsque Stephen Hawking a découvert que les trous noirs « microscopiques » (hypothétiquement formés lors du big-bang) se comporteraient à l’inverse des gros trous noirs. Régis par la physique quantique et non plus seulement par la physique gravitationnelle, ces micro-trous noirs ayant la taille d’une particule élémentaire mais la masse d’une montagne s’évaporeraient car ils seraient fondamentalement instables. Ce phénomène « d’évaporation quantique » suscite encore beaucoup d’interrogations. Aucun micro-trou noir n’a été détecté, mais leur étude théorique permet de tisser des liens entre la gravité et la physique quantique. Des modèles récents suggèrent que le résultat de l’évaporation d’un trou noir ne serait pas une singularité ponctuelle « nue », mais une corde – objet théorique déjà invoqué par des théories d’unification des interactions fondamentales.
L’intérieur des trous noirs
Le puits creusé par le trou noir dans le tissu élastique de l’espace-temps est-il « pincé » par un nœud de courbure infinie – auquel cas toute la matière qui tomberait dans le trou noir se tasserait indéfiniment dans une singularité ? Ou bien le fond du trou noir est-il « ouvert » vers d’autres régions de l’espace-temps par des sortes de tunnels ? Cette deuxième possibilité, apparemment extravagante, est suggérée par certaines solutions mathématiques de la relativité. Un trou de ver serait une structure topologique exotique ressemblant à une « poignée d’espace-temps » qui relierait deux régions de l’univers, dont l’une serait un trou noir et l’autre un « trou blanc ». Ces raccourcis d’espace-temps, qui permettraient de parcourir en quelques fractions de seconde des millions d’années lumière sans jamais dépasser la vitesse de la lumière, ont fasciné les physiciens tout autant que les écrivains de science-fiction. Des études plus détaillées montrent que de tels trous de ver ne peuvent pas se former dans l’effondrement gravitationnel d’une étoile : aussitôt constitués, ils seraient détruits et bouchés avant qu’aucune particule n’ait le temps de les traverser. Des modèles suggèrent que les trous de ver pourraient cependant exister à l’échelle microscopique. En fait, la structure la plus intime de l’espace-temps pourrait être constituée d’une mousse perpétuellement changeante de micro-trous noirs, micro-trous blancs et mini-trous de ver, traversés de façon fugace par des particules élémentaires pouvant éventuellement remonter le cours du temps !

La forme globale de l’univers
À l'échelle de la cosmologie, le « tissu élastique » de l’espace-temps doit être conçu comme chargé d’un grand nombre de billes - étoiles, galaxies, amas de galaxies - réparties de façon plus ou moins homogène et uniforme. La courbure engendrée par la distribution des corps est donc elle-même uniforme, c’est-à-dire constante dans l’espace. En outre, la distribution et le mouvement de la matière universelle confèrent à l’espace-temps une dynamique globale : l’univers est en expansion ou en contraction.
La cosmologie relativiste consiste à rechercher des solutions exactes de la relativité susceptibles de décrire la structure et l’évolution de l’univers à grande échelle. Les modèles à courbure spatiale constante ont été découverts par Alexandre Friedmann et Georges Lemaître dans les années 1920. Ces modèles se distinguent par leur courbure spatiale et par leur dynamique.

Dans la version la plus simple :
- Espace de courbure positive (type sphérique)
L’espace, de volume fini (bien que dans frontières), se dilate initialement à partir d’une singularité (le fameux « big-bang »), atteint un rayon maximal, puis se contracte pour s’achever dans un « big-crunch ». La durée de vie typique d’un tel modèle d’univers est une centaine de milliards d’années.
- Espace de courbure nulle (type euclidien) ou négative (type hyperbolique)
Dans les deux cas, l’expansion de l’univers se poursuit à jamais à partir d’un big-bang initial, le taux d’expansion se ralentissant toutefois au cours du temps.
La dynamique ci-dessus est complètement modifiée si un terme appelé « constante cosmologique » est ajouté aux équations relativistes. Ce terme a pour effet d’accélérer le taux d’expansion, de sorte que même un espace de type sphérique peut être « ouvert » (c’est-à-dire en expansion perpétuelle) s’il possède une constante cosmologique suffisamment grande. Des observations récentes suggèrent que l’espace cosmique est proche d’être euclidien (de sorte que l’alternative sphérique / hyperbolique n’est nullement tranchée !), mais qu’il est en expansion accélérée, ce qui tend à réhabiliter la constante cosmologique (sous une forme associée à l’énergie du vide).
Je ne développerai pas davantage la question, car elle figure au programme de la 186e conférence de l’Utls donnée par Marc Lachièze-Rey.
Quelle est la différence entre courbure et topologie ?
Avec la cosmologie relativiste, disposons-nous d’une description de la forme de l’espace à grande échelle ? On pourrait le croire à première vue, mais il n’en est rien. Même la question de la finitude ou de l’infinitude de l’espace (plus grossière que celle concernant sa forme) n’est pas clairement tranchée. En effet, si la géométrie sphérique n’implique que des espaces de volume fini (comme l’hypersphère), les géométries euclidienne et hyperbolique sont compatibles tout autant avec des espaces finis qu’avec des espaces infinis. Seule la topologie, cette branche de la géométrie qui traite de certaines formes invariantes des espaces, donne des informations supplémentaires sur la structure globale de l’espace - informations que la courbure (donc la relativité générale) ne saurait à elle seule fournir.

Pour s’assurer qu’un espace est localement euclidien (de courbure nulle), il suffit de vérifier que la somme des angles d’un triangle quelconque fait bien 180° - ou, ce qui revient au même, de vérifier le théorème de Pythagore. Si cette somme est supérieure à 180°, l’espace est localement sphérique (courbé positivement), et si cette somme est inférieure à 180°, l’espace est localement hyperbolique (courbé négativement).
Cependant, un espace euclidien n’est pas nécessairement aussi simple que ce que l’on pourrait croire. Par exemple, une surface euclidienne (à deux dimensions, donc) n’est pas nécessairement le plan. Il suffit de découper une bande dans le plan et d’en coller les extrémités pour obtenir un cylindre. Or, à la surface du cylindre, le théorème de Pythagore est tout autant vérifié que dans le plan d’origine. Le cylindre est donc une surface euclidienne de courbure strictement nulle, même si sa représentation dans l’espace (fictif) de visualisation présente une courbure « extrinsèque ». Bien qu’euclidien, le cylindre présente une différence fondamentale d’avec le plan : il est fini dans une direction. C’est ce type de propriété qui relève de la topologie, et non pas de la courbure. En découpant le plan et en le recollant selon certains points, nous n’avons pas changé sa forme locale (sa courbure) mais nous avons changé radicalement sa forme globale (sa topologie). Nous pouvons aller plus loin en découpant le cylindre en un tube de longueur finie, et en collant les deux extrémités circulaires. Nous obtenons un tore plat, c’est-à-dire une surface euclidienne sans courbure, mais fermée dans toutes les directions (de superficie finie). Une bactérie vivant à la surface d’un tore plat ne ferait pas la différence avec le plan ordinaire, à moins de se déplacer et de faire un tour complet du tore. À trois dimensions, il est possible de se livrer à ce même genre d’opérations. En partant d’un cube de l'espace euclidien ordinaire, et en identifiant deux à deux ses faces opposées, on crée un « hypertore », espace localement euclidien de volume fini.

Les espaces chiffonnés
Du point de vue topologique, le plan et l’espace euclidien ordinaire sont monoconnexes, le cylindre, le tore et l’hypertore sont multiconnexes. Dans un espace monoconnexe, deux points quelconques sont joints par une seule géodésique (l’équivalent d'une droite en espace courbe), tandis que dans un espace multiconnexe, une infinité de géodésiques joignent deux points. Cette propriété confère aux espaces multiconnexes un intérêt exceptionnel en cosmologie. En effet, les rayons lumineux suivent les géodésiques de l'espace-temps. Lorsqu’on observe une galaxie lointaine, nous avons coutume de croire que nous la voyons en un unique exemplaire, dans une direction donnée et à une distance donnée. Or, si l’espace cosmique est multiconnexe, il y a démultiplication des trajets des rayons lumineux, donnant des images multiples de la galaxie observée. Comme toute notre perception de l'espace provient de l’analyse des trajectoires des rayons lumineux, si nous vivions dans un espace multiconnexe nous serions plongés dans une vaste illusion d’optique nous faisant paraître l’univers plus vaste que ce qu’il n'est; des galaxies lointaines que nous croirions « originales » seraient en réalités des images multiples d’une seule galaxie, plus proche dans l'espace et dans le temps.
Figure : Un univers très simple à deux dimensions illustre comment un observateur situé dans la galaxie A (sombre) peut voir des images multiples de la galaxie B (claire). Ce modèle d’univers, appelé tore, est construit à partir d’un carré dont on a « recollé » les bords opposés : tout ce qui sort d’un côté réapparaît immédiatement sur le côté opposé, au point correspondant. La lumière de la galaxie B peut atteindre la galaxie A selon plusieurs trajets, de sorte que l’observateur dans la galaxie A voit les images de la galaxie B lui parvenir de plusieurs directions. Bien que l’espace du tore soit fini, un être qui y vit a l’illusion de voir un espace, sinon infini (en pratique, des horizons limitent la vue), du moins plus grand que ce qu’il n’est en réalité. Cet espace fictif a l’aspect d’un réseau construit à partir d’une cellule fondamentale, qui répète indéfiniment chacun des objets de la cellule.

Les modèles d’ univers chiffonné permettent de construire des solutions cosmologiques qui, quelle que soit leur courbure, peuvent être finies ou infinies, et décrites par des formes (topologies) d’une grande subtilité. Ces modèles peuvent parfaitement être utilisés pour décrire la forme de l’espace à très grande échelle. Un espace chiffonné est un espace multiconnexe de volume fini, de taille est plus petite que l’univers observé (dont le rayon apparent est d’environ 15 milliards d’années-lumière).
Les espaces chiffonnés créent un mirage topologique qui démultiplie les images des sources lumineuses. Certains mirages cosmologiques sont déjà bien connus des astronomes sous le nom de mirages gravitationnels. Dans ce cas, la courbure de l’espace au voisinage d'un corps massif situé sur la ligne de visée d’un objet plus lointain, démultiplie les trajets des rayons lumineux provenant de l'arrière-plan. Nous percevons donc des images fantômes regroupées dans la direction du corps intermédiaire appelé « lentille ». Ce type de mirage est dû à la courbure locale de l’espace autour de la lentille.
Dans le cas du mirage topologique, ce n’est pas un corps particulier qui déforme l’espace, c’est l’espace lui-même qui joue le rôle de la lentille. En conséquence, les images fantômes sont réparties dans toutes les directions de l'espace et toutes les tranches du passé. Ce mirage global nous permettrait de voir les objets non seulement sous toutes leurs orientations possibles, mais également à toutes les phases de leur évolution.

Tests observationnels de l'univers chiffonnés
Si l’espace est chiffonné, il l’est de façon subtile et à très grande échelle, sinon nous aurions déjà identifié des images fantômes de notre propre galaxie ou d'autres structures bien connues. Or, ce n’est pas le cas. Comment détecter la topologie de l’univers? Deux méthodes d’analyse statistique ont été développées récemment. L’une, la cristallographie cosmique, tente de repérer certaines répétitions dans la distribution des objets lointains. L’autre étudie la distribution des fluctuations de température du rayonnement fossile. Ce vestige refroidi du big-bang permettrait, si l’espace est chiffonné, de mettre en évidence des corrélations particulières prenant l’aspect de paires de cercles le long desquels les variations de température cosmique d’un point à l’autre seraient les mêmes.
Les projets expérimentaux de cristallographie cosmique et de détection de paires de cercles corrélés sont en cours. Pour l’instant, la profondeur et la résolution des observations ne sont pas suffisantes pour tirer des conclusions sur la topologie globale de l’espace. Mais les prochaines années ouvrent des perspectives fascinantes ; elles livreront à la fois des sondages profonds recensant un très grand nombre d’amas lointains de galaxies et de quasars, et des mesures à haute résolution angulaire du rayonnement fossile. Nous saurons peut-être alors attribuer une forme à l'espace.

Bibliographie
Jean-Pierre Luminet, Les trous noirs, Le Seuil / Points Sciences, 1992.
Jean-Pierre Luminet, L’univers chiffonné, Fayard, 2001.

 

  VIDEO       CANAL  U         LIEN 

 
 
 
Page : [ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 ] Précédente - Suivante
 
 
 


Accueil - Initiation musicale - Instruments - Solfège - Harmonie - Instruments - Vid�os - Nous contacter - Liens - Mentions légales / Confidentialit�

Initiation musicale Toulon

-

Cours de guitare Toulon

-

Initiation à la musique Toulon

-

Cours de musique Toulon

-

initiation piano Toulon

-

initiation saxophone Toulon

-
initiation flute Toulon
-

initiation guitare Toulon

Google