Le 1er juillet à 11h12 Eastern Time, 17h12 heure suisse, SpaceX a lancé avec un Falcon 9 le télescope spatial EUCLID de l’ESA depuis Cap Canaveral. Dans quatre semaines il sera en orbite autour du point de Lagrange Terre-Soleil « L2 ».
NB : Cet article est repris d’une publication du 02/04/22 sur mon blog du temps.ch
L’objectif d’Euclid est l’étude de l’Univers ancien, recouvrant largement la période où l’accélération de l’Expansion a commencé à se manifester en opposition à la force de gravité. Le motif sous-jacent est de tenter de comprendre ce qu’est l’énergie-sombre dont on déduit l’existence par la réalité de cette accélération et le bénéfice collatéral sera de vérifier aussi la réalité et l’importance de la matière-noire.
Si l’on ne prenait en compte que la force de gravité, l’expansion de l’Univers résultant de l’explosion primordiale, le Big-bang, devrait ralentir (s’épuiser) avec le temps. L’accélération sur-corrige très légèrement cette tendance. Mais on n’est pas arrivé à cette compréhension facilement et on a besoin aujourd’hui de précisions.
Einstein avait introduit une constante cosmologique « Λ », (lambda) dans ses équations dès 1917 (deux ans après la première version publiée de sa Relativité-générale), en lui affectant une valeur telle que dans ses calculs l’Univers restât statique car il refusait l’idée d’un univers en expansion que donnaient naturellement ses calculs. En 1922, Alexander Friedman montra que les équations d’Einstein restaient valables avec un Λ quelconque. En 1927, se fondant sur la théorie d’Einstein et sur la constatation faite par l’astronome Vesto Slipher en 1920 de l’éloignement des astres lointains (décalage vers le rouge de leur lumière), Georges Lemaître démontra que l’Univers devait être en expansion avec en conséquence au début (en remontant le temps) un « atome primitif » (qui devint le « Big-Bang »). Le concept d’expansion fut confirmé en 1929 par Edwin Hubble qui s’appuyait également sur les travaux de Slipher. Il montrait, comme Lemaître, que plus les galaxies étaient lointaines plus le décalage vers le rouge de leur lumière était marqué (elles s’éloignent à une vitesse proportionnelle à leur distance). Il en tira sa « loi de Hubble », devenue plus tard « Loi de Hubble-Lemaître » et même « Loi de Lemaître »* avec sa « constante », H0 qui de fait remplaçait Λ. En 1931, Einstein reconnut son erreur et, en proposant un modèle d’Univers en expansion continue (espace-temps Einstein-de Sitter), retira son Λ.
*Hubble avait semble-t-il une tendance à orienter fortement les projecteurs sur sa personne.
Tout était pour le mieux dans le meilleur des mondes possibles mais l’on commença à spéculer sur les modalités de l’expansion. Était-elle vraiment « continue » ? En 1998, les astrophysiciens Saul Perlmutter, Brian Schmidt et Adam Riess parvinrent à démontrer qu’en fait l’expansion accélérait très légèrement (ils obtinrent le Prix Nobel pour cela, en 2011). Finie la crainte du Big-Crunch qui aurait pu survenir par épuisement de l’impetus initial donné par le Big-Bang (lente évolution décroissante du paramètre H0 dans le temps). Mais en même temps cela eu plusieurs conséquences : (1) H0 ne pouvait plus être une « constante » et sa variabilité dans le temps la rétrocédait en « paramètre » ; (2) on pouvait « réactiver » la constante cosmologique Λ (ce qu’on fit !); (3) il fallait trouver la cause de cette accélération.
C’est ainsi que fut introduit le concept d’énergie sombre (et le nouveau modèle standard de l’Univers, le « modèle ΛCDM », avec « cdm » pour « cold dark matter »). En même temps on affinait le calcul de la vitesse d’expansion et on tomba sur un autre mystère qu’il faut absolument éclaircir pour aller plus loin. En effet, on obtient 67,4 km/s/Mpc (Mpc = Megaparsec) en observant le Fond Diffus Cosmologique avec le télescope Planck et en même temps 73,3 km/s/Mpc (travaux de la Coopération H0LICOW) en utilisant le déplacement des « chandelles-standards » que sont les supernovæ « Sn1a » qui parsèment la profondeur de l’espace.
C’est ce mystère que le télescope EUCLID doit nous aider à résoudre.
Pour ce faire, il va étudier à une très grande échelle, l’effet de masse des galaxies sur la lumière des sources plus lointaines (cisaillement gravitationnel), couplé à la spectroscopie pour constater les redshift (décalage de la lumière reçue vers le rouge). Il va aussi étudier les grandes structures de l’Univers en les comparant dans l’Univers très lointain et moins lointain. Dans le premier cas, comme toute lumière est magnifiée et courbée par la masse, les galaxies situées au-devant d’autres (dans notre ligne de vue) rapprochent de nous la lumière de ces dernières (effet de loupe-gravitationnelle). Du fait de sa courbure, cette lumière est répartie en croissants autour de la galaxie-loupe. L’effet est d’autant plus fort que la masse de la loupe est importante. Et cette masse est forcément complète, c’est-à-dire qu’elle comprend aussi bien la fameuse « matière noire » que la matière visible (baryonique). EUCLID va étudier l’effet des lentilles gravitationnelles faibles aussi bien que fortes, et leur effet visuel sur les formes des galaxies cachées. Par ailleurs, en analysant par spectroscopie la lumière de ces croissants de lumière, on obtiendra un redshift donc une distance. Dans le second cas, l’effet de l’énergie noire, sur la durée, devrait donner aux grandes structures (amas de galaxies, filaments cosmiques) des aspects différents aux époques différentes, que l’on pourra comparer.
EUCLID étudiera ces phénomènes sur une très grande profondeur d’espace et de temps (jusqu’à 10 milliards d’années) et sur une très grande surface de voûte céleste (15.000 degrés2 à comparer aux 41.253 degrés2 de l’ensemble de la voûte céleste, pour les deux hémisphères). Cela facilitera les comparaisons et les étalonnages. On pourra voir à la fois l’effet progressif de l’accélération de l’expansion de l’Univers et l’effet plus ou moins fort de l’énergie sombre, ce qui permettra de mieux comprendre cette dernière. On devra pouvoir déterminer l’accélération de l’expansion à 1% près et les (éventuelles) variations d’accélération à 10% près.
EUCLID, (mauvais) acronyme pour « EUropean Cosmic aLl sky Investigator of the Dark universe » a été initié en 2008 par le « Concept Advisory Team » de l’ESA. Le projet, approuvé en 2011, pour la modique somme de 500 millions d’euros (mais le maximum pour ce type de projet), fait suite à la mission Planck dont l’objet était d’étudier le Fond Diffus Cosmologique (CMB), la limite de ce qu’on peut voir, le « fond du tableau » en quelque sorte. EUCLID va étudier la dynamique qui, à partir de ce fond, a permis à l’Univers de se déployer jusqu’à nous.
Les deux maîtres d’œuvre sont Thales Alenia Space (module) et Airbus (télescope). EUCLID disposera d’un miroir de 1,2 mètres qui permettra de recueillir les ondes lumineuses (instrument VIS, construit par un consortium d’instituts dirigé par le Laboratoire de science spatiale Mullard, de l’University College de Londres) et celles de l’infrarouge proche (deux instruments NISP, Near Infrared SpectroPhotometer, construits par un consortium d’instituts dirigé par le Laboratoire d’Astrophysique de Marseille – LAM ; leurs détecteurs sont fournis par la NASA). Le module de charge utile (« payload ») et le télescope lui-même sont en carbure de silicium, comme pour le télescope Gaïa. Cela présente l’avantage de la plus grande stabilité possible aux différences de températures. Comme le dit l’ESA, « Les détecteurs de NISP – spectrographe et photomètre – bénéficieront du plus grand champ visuel sur un instrument infrarouge ayant jamais volé dans l’espace ».
Derrière les constructeurs, il y a une communauté scientifique et technique impressionnante. Le « Consortium EUCLID », « EC », regroupe des scientifiques et des ingénieurs de 14 pays européens (dont la France et la Suisse avec l’EPFL et l’Uni. de Zurich) ainsi que le Canada et les USA. Il comprend 1500 membres et il est structuré avec un « lead » (ECL, Euclid Consortium Lead) et par un board (ECB). Avec les constructeurs et l’ESA, le Consortium forme la « Coopération EUCLID ». Il tient une réunion annuelle (les « Euclid Meetings »). Le dernier, organisé par le LASTRO de l’EPFL a eu lieu à Lausanne en juin 2021, virtuellement (covid oblige !).
La destination physique du télescope est encore une fois le point de Lagrange Terre-Soleil L2, à seulement 1,5 millions de km de la Terre. Ce « point » présente l’avantage d’être plus loin du Soleil que nous le sommes et dans l’ombre de la Terre. Pour bien capter les rayonnements infrarouges, le télescope devra garder une température de -190°C (ce qui implique bouclier thermique et liquide cryogénique) et son positionnement devra être réglé très finement puis maintenu totalement stable (propulseurs au gaz froid). Du fait des « consommables », il ne pourra être utilisé que 6 ans.
C’est donc une fusée de SpaceX qui vient d’effectuer le lancement ; un Falcon 9 qui a déjà été utilisé une fois (comme quoi la réutilisation, ça marche !). Ce devait être en Mars 23 depuis Kourou, avec une fusée Soyouz, puis avec une fusée Ariane-6 après que l’Europe spatiale ait décidé de rompre ses accords de coopération avec la Russie.
On attend avec impatience que ce petit bijou puisse fonctionner. Nous avons besoin de savoir et de comprendre !
Illustration de titre : vue d’artiste du télescope EUCLID (crédit ESA).
Liens :
https://fr.wikipedia.org/wiki/Euclid_(t%C3%A9lescope_spatial)
https://sci.esa.int/web/euclid
https://fr.wikipedia.org/wiki/Constante_cosmologique
https://sciencepost.fr/mesure-quantite-de-matiere-univers/
40 Responses
Sommes nous déjà en mesure de dire si la vitesse ainsi que l’accélération des galaxies est la même dans toutes les directions observables?
Absolument. Il n’y a aucun doute sur le fait que le décalage vers le rouge d’une source lumineuse exprime sa vitesse d’éloignement (loi de Doppler-Fizeau) et que le décalage est d’autant plus marqué que la galaxie visée est lointaine.
.
Bien entendu, le mouvement n’est pas exactement uniforme car il y a des différences de densités dans l’espace et les galaxies proches des régions les plus denses (amas et a fortiori super-amas de galaxies) peuvent avoir leur vitesse perturbées par ces centres de densité (le Grand-attracteur pour nous). Mais ces perturbations ne contredisent pas le mouvement général qui est très nettement marqué.
.
Par ailleurs n’oubliez pas que les directions dans l’espace sont courbées par le temps. Plus on regarde loin, plus on regarde avant notre temps présent, dans notre passé de plus en plus lointain, et plus on considère des volumes d’espace importants (donc plus on regarde loin ou « avant », plus la moyenne de vitesse d’éloignement est nette et concluante.
.
NB: notre relation avec les galaxies du Groupe-local (dont font partie principalement notre Voie-lactée et la Galaxie d’Andromède) sont dans une relation particulière puisque suffisamment proches l’une de l’autre, pour que leurs gravités propres interagissent plus fortement, du moins actuellement, que l’expansion du tissu de l’Univers ne les force à s’éloigner l’une de l’autre. Ainsi il y aura un jour fusion de nos deux galaxies et on le constate au décalage vers le bleu qui résulte de ce rapprochement. Cette relation particulière existe évidement dans tous les amas de galaxies.
Pardonnez mes questions de néophyte :
– quelle est la différence entre matière noire et énergie sombre ?
– la matière noire serait-elle constituée des quarks et leptons de la matière ordinaire, ou de particules encore inconnues ?
– on parle parfois d’énergie noire, est-ce la même chose que l’énergie sombre ?
Merci d’avance de vos réponses.
Energie « noire » ou « sombre » d’une part, matière « noire » ou « sombre » d’autre part, sont exactement les mêmes phénomènes (mais attention la matière noire n’est pas l’énergie noire). Le « noir » ou le « sombre » sont la traduction de « dark ». Cela veut dire simplement qu’on ne peut l’observer directement (la matière noire est transparente aux rayons électromagnétiques et la source de l’énergie sombre n’a pas encore été identifiée).
.
On ne sait pas de quoi sont constituées les matière noire et énergie sombre. Pour le moment on a simplement déduit leur existence par l’effet qu’elles produisent sur la matière baryonique (ordinaire) que l’on peut observer.
.
La matière noire n’émet aucun rayonnement mais elle a un effet gravitationnel. L’énergie sombre est l’explication que l’on donne à l’accélération de l’expansion de l’Univers. Cette expansion aurait dû décélérer avec le temps puisqu’elle a commencé avec le Big-bang (il y a 13,8 milliards d’années) et que le temps passant, ses effets auraient dû s’atténuer. Or depuis quelques 7 milliards d’années, on constate une très légère accélération. La force cachée qui la provoque est cette « énergie sombre ».
.
L’ennui est que la matière baryonique ne représente que 5% de la densité d’énergie totale de l’Univers (compatible avec son taux d’expansion), le « reste » serait composé à hauteur de 70% d’énergie sombre et de 25% de matière noire.
.
Il y a toujours de (rares) astrophysiciens (André Maeder, Uni. Genève) qui refusent de nommer l’incompréhensible et qui présentent des théories explicatives alternatives.
Merci, c’est plus clair pour moi (si j’ose dire)
Pour quelle raison l’ESA a-t-elle renoncé à lancer un télescope européen avec un lanceur Ariane ?
J’imagine que les dirigeants d’Arianespace n’ont pas apprécié.
Pas du tout, l’ESA n’avait pas le choix. Il n’y a plus de fusée Ariane V à part celle qui devait partir le 16 juin et dont le lancement a été reporté d’une quinzaine de jours. Et par ailleurs il n’y a pas encore d’Ariane VI qui devait être prête en 2020 et dont le premier lancement a été plusieurs fois reporté. Les dirigeants de l’ESA n’avaient absolument pas le choix!
Je crois qu’il y a une diminution du paramètre de Hubble-Lemaitre non pas simplement parce que le temps passe, mais justement parce qu’il y a accélération de l’expansion. H est le quotient d’une vitesse (en km/s) par une distance (en Mpc). S’il y a accélération, la vitesse croît comme le temps qui passe, mais la distance croît comme le carré du temps qui passe, ainsi le quotient décroît avec le temps. H va diminuer progressivement et tendre asymptotiquement non pas vers zéro, mais vers une valeur limite fixée par la valeur de la constante cosmologique, Λ.
Encore une précision : Einstein a vite remarqué que son équation conduisait à un collapse de l’Univers du fait de la gravitation universelle. C’est pour parer à cela, et croyant fermement à un Univers stationnaire, qu’il a introduit artificiellement sa constante cosmologique, positive, pour contrer exactement cet effondrement gravitationnel. Il l’a retirée et reniée ensuite lorsqu’il a su et admis finalement que l’Univers était bien en expansion. Une constante cosmologique négative aurait comme effet de décélérer l’expansion. La constante cosmologique, telle que résultant des expériences du satellite Planck, est très faible mais non nulle et, surtout, positive, source de l’accélération de l’expansion de l’Univers, tout à fait inattendue avant 1998.
Il y a un autre paramètre cosmologique, le paramètre de décélération, q, que l’ont croyait positif, voire proche de +1 (l’expansion, pensait-on devant ralentir), et qui, actuellement, vaut -0,55, ce qui entraîne aussi que H décroît, comme vu plus haut. Ce paramètre q tend vers -1, parallèlement au fait que H tend vers une valeur asymptotique limite, non nulle, seulement un peu plus petite que sa valeur actuelle.
Est-ce qu’on peut déjà dire qu’il n’y a pas de matière noire dans notre système solaire ? Car sinon cela perturberait le mouvement des planètes, et on s’en apercevrait.
Mais non, on ne peut pas dire qu’il n’y a pas de matière noire dans notre système solaire. On ne le sait pas puisqu’on ne peut qu’en apercevoir les effets sur les masses gigantesques que constituent les galaxies (dont la partie visible tourne plus lentement qu’elle ne devrait compte tenu de sa masse et de ses dimensions).
.
Il est possible que la matière noire soit un élément intrinsèque à la matière ordinaire ou le contraire puisque la matière observable en direct n’est égale qu’à une petite partie de cette matière noire.
.
En fait il faut d’abord comprendre la nature de cette matière noire avant de chercher à en individualiser les parties les plus infimes. Ou bien, comme le théorise André Maeder, trouver une autre explication à certains phénomènes (comme celui de la vitesse de rotation des galaxies comme mentionné plus haut).
Je crois que c’est le contraire : les étoiles tournent plus vite que prévu…
Voir ici un graphique très parlant : https://fr.wikipedia.org/wiki/Courbe_de_rotation_des_galaxies
Vous avez raison. J’ai écrit trop vite! Mais ce qui est important c’est qu’elles ne tournent pas à la vitesse à laquelle elles devraient tourner mais à une vitesse qui suppose une masse invisible qui l’entoure et qui l’imprègne.
En faisant des recherches hier suite aux excellents commentaires de @Pierre et @Christophe, je suis tombé sur un titre étrange, pourtant venant du CNRS qui a une réputation de sérieux.
Un nuage d’eau cosmique révèle la température de l’Univers jeune
https://www.cnrs.fr/fr/un-nuage-deau-cosmique-revele-la-temperature-de-lunivers-jeune
Extrait:
L’équipe de recherche se propose de sonder d’autres nuages de vapeur d’eau froide dans des galaxies lointaines permettant de mesurer à travers l’histoire cosmique le refroidissement de l’Univers grâce à cette nouvelle méthode et ainsi de continuer à explorer les jeunes années du cosmos et de mieux comprendre l’énergie sombre.
Merci de nous éclaircir sur ces énigmes sidérales et sidérantes!
Merci Serge,
Il faudrait lire sérieusement cette étude pour en parler. Sans en savoir davantage il ne semble pas surprenant que la température de l’espace soit déjà froide si peu de temps après le Big Bang. Après tout l’Univers, comme un gaz, se détend extrêmement brusquement dans un milieu vide, sans limite. Le plus étonnant pour moi, est l’abondance d’eau à une époque aussi lointaine.
La température de l’Univers évolue comme l’inverse de la racine carrée du temps qui passe.
Vers son âge de 380’000 ans, l’époque dite du découplage du rayonnement d’avec la matière, elle était d’environ 3’000 K, vers 880 millions d’années, de 20 K, aujourd’hui, de seulement 2,7260±0,0013 K. C’est la température du fonds diffus cosmologique (FDC) que l’on peut mesurer très finement avec des fluctuations minimes de l’ordre du cent millième, mais essentielles pour créer des inhomogénéités, embryons des futures galaxies.
Les nuages de vapeur d’eau observés dans la galaxie HFLS3 (située à quasiment 12,9 milliards d’années-lumière, avec un décalage vers le rouge, z, important, de 6,34) ont « enregistré » la température du FDC à ce moment-là, il y a 12,9 milliards d’années, ce que l’on a pu alors mesurer pour la première fois et non seulement calculer.
@CHRISTOPHE
J’ai obtenu (avec Pierre) l’etude mentionnée ci-dessus, mais qui est vraiment du costaud en maths et équations cosmologiques (je n’y comprends rien du tout).
Je peux vous l’envoyer (5 Mb) si souhaité (ou par Pierre), votre analyse sera intéressante.
Merci beaucoup ! M. Brisson m’a justement envoyé ce papier paru dans Nature en février 2022.
On y lit que les mesures faites grâce à la spectroscopie de l’eau donnent une fourchette de température de 16,4 à 30,2 K ( à 1σ ), ou de 12,8 à 34,0 K ( à 2σ ), ce qui est compatible avec la valeur « théorique » attendue de 20 K pour la température du FDC régnant à cette époque lointaine (voir simplement la figure 3 b).
Bonjour
Matiere noire et energie sombre … c est pas mon truc;
Mais cela fait tres longtemps que je me demande comment se propage une onde electromagnetique dans un espace courbe comparativement a un espace plat:en effet a proximite d un champ de gravitation fort nous observons un redshif ?
ce jour nous apprenons que des physiciens de l universite de Californie sont parvenus a manipuler des bosons en fin de comptes : jusqu a present on utilise l electron massivement ; mais la manipulation des bosons qui sont les particules vectrices des forces atomiques laisse entrevoir pour le futur des percees enormes dans le domaine de l energie en particulier.
Concernant cette matière noire, comment peut-on exclure une éventuelle matière classique que nous ne verrions pas pour des raisons purement optiques.
Prenons un espace cubique de 6 LY (année-lumière) d’arête, soit ±200 LY³ et qui comprend notre Système Solaire, celui de Proxima et celui d’Alpha Centauris, soit une masse de l’ordre de 6E30 kg. S’il existait dans ce cube des corps célestes n’émettant pas d’énergie électromagnétique dans les bandes que nous avons l’habitude d’observer, nous pourrions très bien ne jamais les voir alors qu’ils seraient bien présents. Je pense, entre autres, à ce qu’on appelle des planètes orphelines et, pourquoi pas, des systèmes solaires dont l’étoile serait trop petite et donc trop froide pour émettre un rayonnement visible, même dans un IR assez lointain.
S’il y avait 3E31 kg de ces corps célestes invisibles dans le cube cité plus haut, ça correspondrait ± à la masse inexplicable que nous avons qualifiée de noire. Cette masse n’aurait d’effet que gravifique et les corps célestes à son origine seraient trop petits et leur distribution trop diffuse pour créer le moindre effet de loupe.
Reste à calculer le délai entre deux collisions entre un de ces corps célestes et une des planètes de notre Système Solaire. Ça pourrait être résolu comme quand on calcule le libre parcours moyen entre des particules dans un espace défini mais je ne me rappelle plus comment on faisait ça. Je l’ai étudié, mais c’était il y a cinquante ans !
Hypothèse intéressante. Cependant, je pense qu’elle a été considérée par les astrophysiciens et que la communauté a déduit que la masse que représentent naines-brunes et planètes orphelines ne « faisaient pas le poids ».
.
Je pense, en ce qui concerne les planètes orphelines, qu’elles sont rares. Cela tient je crois à ce que la contraction d’un « petit » nuage isolé (de masse planétaire) va moins facilement donner naissance à une planète isolée (question de masse critique du nuage). Un nuage plus important va subir une contraction plus forte du fait des forces de gravitation plus puissantes. La vitesse de rotation engendrée par la contraction sera plus susceptible de créer des tourbillons et des collisions de masses. Autrement dit un petit nuage de masse planétaire sera plus susceptible de répondre à une force d’attraction quelconque et de la rejoindre plutôt que de créer indépendamment une planète.
Dans cette hypothèse les planètes orphelines seraient plutôt des planètes expulsées de leur système planétaire (comme par exemple la géante gazeuse située entre Saturne et Neptune qui aurait été expulsée de son orbite alors que Saturne revenait de son excursion avec Jupiter dans la Ceinture d’astéroïdes vers notre système interne).
.
Reste les trous noirs de petites tailles qui auraient absorbé la matière orbitant autour d’eux. Mais là encore il faudrait qu’ils soient également répartis dans l’espace pour qu’on ne les remarque pas. Même dans ce cas ils créeraient sur leur voisinage des perturbations qui seraient observées. Le problème de la matière noire est qu’on a pas pu l’observer et en même temps qu’elle est omniprésente.
Pierre,
Je songe depuis longtemps à l’hypothèse que d’énormes trous noirs aient été créés au moment du Big Bang et en fait représenteraient cette masse manquante, de plus attireraient les galaxies lointaines en les accélérant (oui, pure SF). 😂
Concernant les trous noirs, on sait que plus ils sont petits, plus ils « s’évaporent » rapidement par rayonnement Hawking. D’hypothétiques mini-trous noirs primordiaux dont la masse est inférieure à 173 millions de tonnes (1,73 10^11 kg) se sont tous déjà évaporés dans un temps inférieur à l’âge de l’Univers. Un mini-trou noir de 1 milliard de tonnes (10^12 kg) prendra 200 fois l’âge de l’Univers pour s’évaporer. Un mini-trou-noir de la masse de la Terre (5,97 10^24 kg) s’évaporera en 10^40 fois l’âge de la Terre. Son diamètre serait de tout juste 1,8 cm. L’hypothèse avancée par Jean-Jacques Louis d’une masse sombre de 3 10^31 kg représenterait seulement celle de 5 millions de Terres sous forme d’autant de mini-trous noirs tout à fait invisibles réparties dans un cube de 6 années-lumières de côté. Donc l’hypothèse est sensée.
Passionnant @Christophe, merci.
https://astronomes.com/univers/evaporation-trou-noir/
Vraiment complexe…. 🙂
Si vous voulez en savoir plus sur les trous noirs primordiaux (« Primordial Black Holes », PBHs, en anglais) comme candidats de la matière sombre, voyez cet excellent article de Bernard Carr :
https://scipost.org/SciPostPhysLectNotes.48/pdf
ainsi que les transparents de son exposé, donné lors du cours d’été 2021 de l’École de physique des Houches sur la matière sombre, le 13 août 2021 :
https://indico.cern.ch/event/949654/contributions/4031007/attachments/2293539/3901659/Carr-Kuhnel.pdf
j ai signale ci dessus que energie sombre et mat. noire »ne sont pas mon truc » parce que nous nous sommes apercus recemment qu il existait des anomalies concernant cette theorie du modele standard cosmologique, lesquelles nous ont conduit a imaginer energie sombre et matiere noire:nous sommes la dans le domaine scientifique speculatif extemement interressant mais sans resultats.
Qu’en est-il du risque de collision entre eux ou avec nous ?
Répartir ces 5 millions de mini-trous noirs dans un volume de 200 années-lumière au cube, cela représente 1 mini-trou noir de 1,8 cm de diamètre par 1945 jours-lumière au cube, soit une distance de 12,5 jours-lumière entre eux, soit 324 milliards de km.
C’est là encore un volume et une distance considérables, sachant, par exemple, que la sonde Voyager 1, partie en 1977, il y a 46 ans, se trouve actuellement toujours à moins d’un jour-lumière, précisément à seulement 21,6 heures-lumière de nous, soit aussi 23,3 milliards de km.
Rappelons que ces 5 millions de mini-trous noirs envisagés ici ont chacun la masse de la Terre et donc exercent la même gravitation que la Terre dans leur voisinage. Simplement leur « horizon » a un rayon de 0,9 cm.
Bonjour
bon resumons: le pb c est la constante de Hubble qui exprime le rapport existant entre l eloignement d un astre ET sa vitesse de recession.
ELOIGNEMENT d un astre :il existe plusieurs indicateurs mais si l astre est eloigne c est l e REDSHIFT.
VITESSE DE RECESSION d un astre : l indicateur est le RESSHIFT.
Donc le DENOMINATEUR COMMUN EST LE RESHIFT.
Le redshift peut avoir plusieurs raisons : effet DOPPLER … COURBURE DE L ESPACE TEMPS par exemple pres d une masse importante …DILATATION COSMOLOGIQUE …et peut etre d autres phenomenes non connus.
Par consequent nos savants vont ramer un bon bout de temps pour parvenir a definir aves precision et exactitude la constante de HUBBLE.
Le paramètre de Hubble, H, qui n’est pas une constante, est, correctement dit, le rapport d’une vitesse par une distance (en km/s par Mpc). Puisque l’expansion de l’Univers est accélérée, la distance croît comme le carré du temps alors que la vitesse croît linéairement, donc le quotient diminue avec le temps.
On a actuellement une tension concernant H, car deux méthodes différentes donnent deux valeurs statistiquement incompatibles. Là est le problème actuellement pour les cosmologistes : 73 ou 67 km/s/Mpc ? Puisque H décroît lentement, il viendra un temps où sa valeur sera proche de 57 km/s/Mpc, une limite inférieure fixée par la constante cosmologique, lambda ; celle-ci, minuscule, est maintenant bien connue, 10^-52 m^-2, ou 10^-122 en unité de Planck.
C’est super que l’on fasse toute la lumière sur cette histoire d’énergie sombre. Il est vrai que l’on a beaucoup investi pour justifier un modèle astrophysique. Et comme ça ne marche pas vraiment… hop on sort un doctorat pour expliquer pourquoi le centre d’un trou noir n’est pas vraiment noir, et hop on invente une masse invisible pour expliquer l’expansion de l’univers et où est passé la majeur partie de la masse… Il arrive un moment où il faut avoir l’audace de se remettre en cause. N’est-ce il pas?
Je présume que vous voyez où je veux en venir… c’est-à-dire où l’establishment ne veut pas aller: la masse négative.
Votre proposition de soi-disant « masse négative » a déjà été réalisée ! C’est, proprement et plus exactement dit, l’anti-matière. Mais il n’est pas correct de parler de masse « négative », seules les charges, les nombres baryoniques et leptoniques sont opposés entre matière et anti-matière.
Il a dû en exister au moment du Big bang, presque autant que la matière, celle-ci ayant pourtant été majoritaire de tout juste un milliardième. Comme on le sait, matière et anti-matière s’annihilent lorsqu’elles se rencontrent. Ce sont ces annihilations de chaque quark et chaque lepton primitifs avec chaque antiquark et chaque anti-lepton primitifs qui ont créé tous les photons dont le fond diffus cosmologique est la relique, après leur libération définitive lors de leur « découplage » qui est résulté de la (re)combinaison entre protons et électrons. Il n’y aurait donc plus d’anti-matière dans notre Univers, du moins dans « notre » Univers, l’Univers visible, en deçà de l’horizon cosmologique. Reste réservée l’hypothèse d’un anti-univers, un univers « parallèle », formé, lui, uniquement d’anti-matière, mais c’est là pure spéculation à jamais invérifiable parce qu’au-delà de toute visibilité.
Donc l’anti-matière n’a rien à voir avec l’accélération de la vitesse d’expansion de l’Univers. On en produit en laboratoire ; on a même formé des anti-atomes d’hydrogène et des anti-molécules de dihydrogène (avec un anti-proton négatif et un anti-électron positif ou positron) et on vérifie toutes les propriétés prévues par la théorie. Du point de vue gravitationnel, l’anti-matière se comporte absolument exactement comme la matière : H2 et anti-H2 ont exactement la même « masse », et donc le même poids, qui reste une valeur toujours positive !
L’hypothèse de la masse négative suggère que les masses de même signe s’attirent (gravité), et que les masses de signe opposés se repoussent. Dès lors, il n’y a pas de rencontre. Cette hypothèse permet d’expliquer et de simuler la répartition de la masse dans l’univers ainsi que la forme des galaxies. Elle propose que les constantes physiques soient différentes selon que l’on soit dans un environnement de masse positive ou de masse négative. Ainsi, la vitesse de la lumière est sensiblement plus rapide lorsque la masse est négative. Elle explique aussi la vitesse d’expansion de l’univers.
Pourquoi la vitesse de la lumière « c » dépendrait-elle de l’existence de masses, positives ou négatives, et pourquoi serait-elle plus grande dans ce cas-ci ? Et je ne vois pas non plus comment une vitesse de la lumière plus grande que « c » expliquerait la vitesses, ou plutôt les vitesses d’expansion (puisqu’il y a accélération ) de l’Univers. Cette accélération, dont rend compte la très faible constante cosmologique (qui n’est sensible comme antigravité qu’au delà de notre Groupe local de galaxies), n’implique pas nécessairement l’existence d’une énergie sombre, mais comme l’a montré en 2017 le Pr André Maeder, de l’Université de Genève, pourrait relever d’une « invariance d’échelle du vide », autrement dit, que « le vide et ses propriétés ne changent pas suite à une dilatation ou une contraction ».
Je ne pense pas non plus que les valeurs des constantes fondamentales de la physique puissent dépendre d’un signe de la masse. Celles-là ont une probable « logique » interne entre elles, qui nous échappe, certes, encore totalement, et que seul le principe anthropique « justifie », disons, de façon tautologique, mais ne fonde et n’explique pas. Il y aurait donc deux jeux de valeurs différentes de constantes physiques pour deux univers distincts avec des masses positives ou négatives ? Cette hypothèse est à ranger dans les considérations générales sur les multivers, ce qui se ramène ici à seulement deux cas possibles. Rappelons que les multivers sont, par définition, disjoints et parallèles, et donc sans aucune interaction entre eux ; et donc leur existence reste « infalsifiable », parce que indétectable, par principe. Sinon, il ne s’agirait pas de deux univers !
Ce que vous présentez là comme hypothèse est du genre « modèle cosmologique bi-métrique », ou « modèle Janus », avec une « bigravité », tel que l’a imaginé Jean-Pierre Petit en 2014. Je crois que cela a été réfuté par Thibault Damour en 2019 :
https://www.ihes.fr/~damour/publications/JanusJanvier2019-1.pdf
Selon lui, « le modèle Janus » est physiquement (et mathématiquement) incohérent. »
Bien que rien n’interdise l’existence de matière de masse négative, son comportement en présence de matière de masse positive serait déroutant. Sachant que toutes les forces et accélérations sont inversées pour une masse négative, on peut montrer qu’une étoile avec une masse positive attire aussi bien une planète de masse positive que négative (car l’accélération centripète ne dépend que de l’étoile et pas de la planète !) et, inversement, qu’une étoiles de masse négative repousserait également l’une et l’autre. Comment un système planétaire est-il possible ? Dans un système avec deux masses positives, la force centrifuge classique de la planète est exactement opposée à la force gravitationnelle centripète exercée par l’étoile. Dans un système avec deux masses négatives, la force antigravitationnelle de l’étoile de masse négative est maintenant centrifuge et la force centrifuge habituelle devient une force centripète pour la planète de masse négative.
Dans les deux cas, la situation d’équilibre est équivalente, les deux forces inversées se compensant exactement. Seuls les cas mixtes ont un comportement étonnant : le système d’une étoile de masse positive avec une planète de masse négative verrait celle-ci plonger inéluctablement vers l’étoile, les deux forces étant ici centripètes, elles sont dirigées vers l’étoile. Ce serait l’inverse avec une étoile de masse négative et une planète de masse positive : les deux forces étant centrifuges, la planète serait inéluctablement repoussée par l’étoile.
Donc la présence lointaine, éventuelle, de galaxies faites de masse négative exercerait une répulsion sur nos galaxies faites de masse positive. Mais, inversement, nos galaxies faites de masse positive attireraient les galaxies lointaines faites de masse négative. Ce comportement, qui est contradictoire, à la fois de répulsion et d’attraction, semble être un argument contre l’existence de masse négative dans notre Univers. Mais les tenants des multivers, soit d’au moins deux univers parallèles, se satisfont de la possibilité d’un autre univers entièrement fait de masse négative où les systèmes planétaires sont aussi stables, comme on vient de le voir, toutes les forces étant symétriques et simplement inversées.
Je ne veux pas me substituer à J-P Petit dans cette argumentation. D’après les explications de J-P Petit, il y a eu deux échanges entre lui et Damour. La première fois Damour a relevé à juste titre une erreur de J-P Petit. Ce dernier a donc corrigé. Un seconde fois où Damour continue à réfuter les conclusions de J-P Petit. Cependant, Petit prétend que les travaux de Damour comportent une faute de calcul manifeste… J-P Petit se désole de l’ostracisme dont ses travaux font l’objet.
J’espère que vous êtes allé jeter un coup d’oeil sur les présentations de J-P Petit, ne fusse que le premier exposé grand public, court et abordable où il aborde l’histoire de cette controverse à partir de la 46` (https://www.youtube.com/watch?v=9LxU0BSTmLs).
Peut etre la detection et l exploitation des ondes gravitationnelles nous permettront elles d y voir plus clair au sujet de l expansion de l univers?
Des ondes gravitationnelles intenses sont produites dans le tissu de l’espace lorsque des objets de masse importante son en jeu, étoiles doubles, ou paires d’étoiles et d’étoiles à neutrons, ou paires de trous noirs, toutes orbitant l’un autour de l’autre, ou coalescent l’un avec l’autre. Comme toute onde relevant d’une interaction fondamentale, leur vitesse est aussi celle de la lumière, et comme les ondes électromagnétiques, elles subissent aussi un décalage « vers le rouge » avec la vitesse d’éloignement de la source par rapport à nous, mais ici il s’agit de fréquences basses et de plus en plus basses. Qui dit basse fréquence, dit grande longueur d’onde. Les fréquences des ondes gravitationnelles couvrent, théoriquement, un très large spectre allant de 10^-7 Hz à 10^11 Hz. Les décalages « vers le rouge » (donc vers les basses fréquences) font que les ondes à détecter ont des longueurs d’onde pouvant aller jusqu’à 3’000 milliards de km, soit plus de 115 jours-lumière ! Cela dépasse de très loin la possibilité de nos détecteurs terrestres actuels (interféromètre LIGO, avec deux bras de 4 km, entre 30 Hz et 7’000 Hz de fréquence, soit entre 10’000 km et 43 km de longueur d’onde, ou interféromètre VIRGO, avec deux bras de 3 km, entre 10 Hz et 10’000 Hz, soit entre 30’000 km et 30 km). Rappelons que le décalage vers le rouge est mesuré par z qui va de 0 sur Terre à environ 1’100 dans le FDC (fond diffus cosmologique). Ce sont les valeurs de z+1 qui multiplient la longueur d’onde initiale d’autant.
En conclusion, je ne crois pas que la détection des ondes gravitationnelles va prochainement éclairer la situation sur l’énergie sombre ou la matière sombre. Les détecteurs visibles et en infra-rouge d’EUCLID seront beaucoup plus à même de le faire durant les 7 années qui viennent, car on pourra mesurer des spectres électromagnétiques fortement décalés, avec des z de plus en plus élevés.
Bonjour
oui completement d accord. on parle aussi de plus en du fond diffus cosmologique gravitationnel.
Non , je n’ai pas encore visionné les conférences de Petit.
Mais vous écrivez : « L’hypothèse de la masse négative suggère que les masses de même signe s’attirent (gravité), et que les masses de signe opposés se repoussent. » Comme je l’ai écrit, ce n’est pas exactement cela : une masse positive attire aussi bien une masse positive qu’une masse négative, et, inversement, une masse négative les repousse toutes les deux. L’hypothèse de Petit que vous rappelez n’est pas compatible avec la loi de Newton, sauf à prendre une constante de gravitation, G, négative. Dans ce cas, on considère que les masses négatives peuvent exister uniquement dans un autre univers parallèle, disjoint du nôtre, avec d’autres constantes fondamentales, et donc sans interaction possible avec le nôtre. Si l’on veut considérer l’existence de masses négatives dans notre Univers, elles doivent suivre la loi de la gravitation, avec une constante G positive et donc repousser toute autre masse. Une conséquence paradoxale, déjà mentionnée plus haut, serait qu’un couple d’une masse négative et d’une masse positive se mettrait spontanément en mouvement suivant la direction masse négative vers masse positive et cela de façon accélérée, une sorte de mouvement perpétuel qui contredit la physique…d’où la démonstration de l’impossibilité de l’existence de masse négative dans notre Univers, l’existence de multivers mise à part, mais ceux-ci restent par définition hors de notre champ expérimental.