Depuis Alexandre Friedman en 1922/24 on a réalisé que l’Univers non seulement n’était pas statique comme le croyait Albert Einstein mais qu’il est en expansion et, depuis 1988 avec le « Supernova Cosmology Project » dirigé par Saul Perlmutter et l’équipe « High-Z supernovae search » dirigée par Adam Riess, que non seulement il est en expansion mais que cette expansion apparemment s’accélère.
La cause de l’interrogation
L’expansion de l’Univers est maintenant une réalité qu’aucun astrophysicien ne conteste. On la constate par le décalage vers le rouge (effet Doppler-Fizeau) observé dans le spectre des galaxies de l’Univers observable et qui est d’autant plus important que les galaxies sont lointaines. Le problème est qu’après cette première constatation que l’on a formalisée en lui affectant une grandeur que l’on a crû être une « constante », la « constante de Hubble » (« H »), on s’est aperçu qu’elle n’était que la valeur actuelle (environ 70km/s/Mpc), « H0 », d’un simple paramètre, la possibilité de variation de ce paramètre résultant de la contradiction entre d’une part une force de contraction tenant à la masse de l’Univers subissant l’effet de la gravité, exprimé par le « paramètre de densité » (que l’on symbolise par « Ω » (Oméga), et d’autre part une force répulsive dont on ne peut encore que constater l’effet. La totalité de la matière, noire ou visible, et la force de gravité qu’elle implique, ne suffit donc pas à ralentir l’expansion (bien au contraire) ! Cette force répulsive que faute de mieux on appelle « énergie sombre » car on ne peut en identifier la nature, semble dominer l’Univers depuis 6 à 7 milliards d’années (sur 13,8 milliards). C’est à cette époque qu’elle commence à se traduire par une accélération générale de l’expansion, mais elle était sans aucun doute à l’œuvre dès l’Origine, c’est à dire le Big-bang, ou même, selon certains, peut-être avant ; il est en effet difficilement concevable qu’elle ait pu être créée ex-nihilo ensuite.
La force répulsive est déjà potentiellement présente dans l’équation de champ modifiée d’Albert Einstein (Gαβ = 8πTαβ + Λgαβ), par son coefficient « Λ » (lambda), qu’il avait lui-même appelé la « constante cosmologique » (mais il n’est plus certain aujourd’hui qu’elle soit constante !). Il faut dès à présent noter qu’il avait ajouté ce coefficient (cette « verrue » dira-t-il plus tard) à sa formule de base pour un objet différent de la prise en compte de la possibilité de variation de l’expansion. Il voulait simplement exprimer que pour lui l’Univers était statique (et sa constante cosmologique corrigeait exactement l’effet de la gravité). Les observations ultérieures et notamment celles du télescope spatial Planck ont montré que Λ pouvait avoir une valeur de 1,1056 × 10−52 m−2…avec une marge d’erreur. La valeur est très faible mais très légèrement positive et il faut bien voir que l’échelle est la plus grande qu’on puisse imaginer et donc que l’accélération est réelle, qu’elle représente du fait de l’immensité à laquelle elle s’applique, l’élément le plus important de la « densité de l’énergie totale de l’Univers » (72,8%) et par conséquent qu’elle implique dans le futur lointain la dispersion de la Matière. A noter que le coefficient Λ affectant comme le coefficient Ω le paramètre de Hubble, est repris dans le modèle cosmologique « ΛCDM » (Lambda Cold Dark Matter) considéré aujourd’hui comme le « modèle standard du Big-bang » (qui met à jour le raisonnement d’Einstein). Mais on ne sait toujours pas ce qui peut bien provoquer cette accélération !
Les réponses possibles
Les cosmologistes ont fait beaucoup d’efforts pour trouver une explication à l’accélération. En gros on peut dire que la quasi-totalité (« A ») de leurs propositions recourent à des forces, des champs ou des particules que permettent sur le papier la science physique mais qu’on n’arrive pas à prouver / détecter et qu’une seule proposition (« B »), celle d’André Maeder, utilise la physique telle qu’elle est. Parmi les premières, certaines (1 et 2 ci-dessous) gardent la théorie de la Relativité Générale en y introduisant des « degrés de liberté » (variables aléatoires qui ne peuvent être déterminées ou fixées par une équation), d’autres (3 et 4 ci-dessous) la modifient. Voyons les dans l’ordre de leur éloignement progressif du modèle standard :
1) introduction de nouveaux champs physiques ou de nouvelles particules qui n’interagissent ni avec la matière baryonique, ni avec la matière noire, ni avec les photons. Les modèles de cette catégorie comprennent notamment la « quintessence » (Jim Peebles), une cinquième forme d’énergie active à chaque point de l’espace (à côté de la matière baryonique, de la matière noire, des neutrinos et des photons).
2) introduction de nouveaux champs très faibles qui peuvent être couplés avec les seuls photons et qui expliquent l’atténuation de la lumière par la distance (par une oscillation photons/« axions »…les axions étant des particules théoriques, de type boson, n’ayant pas de charge électrique et une très faible masse).
3) introduction de nouveaux champs, fortement couplés à ceux du modèle standard de la Relativité Générale. Ce couplage fort implique de modifier les équations de la Relativité Générale et/ou de changer les valeurs de certaines constantes fondamentales pour décrire les effets de la gravitation.
4) introduction de modifications drastiques à la théorie de la Relativité Générale avec plusieurs types de « gravitons » (bosons de masse nulle, particules théoriques porteuses de la force de gravité). Les modèles incluent les modèles « branaires » avec dimensions supplémentaires ou la « multigravité ».
Toutes ces hypothèses supposent beaucoup d’inconnues et ne sont pas (encore) testables puisqu’on n’a découvert / observé aucune des particules ou champs dont l’existence supposée est indispensable à leur vérification.
Dans ces conditions la proposition (« B ») d’André Maeder (Université de Genève) exposée en 2017 dite « invariance d’échelle du vide » qui suppose qu’aux grandes échelles cosmologiques, niveau où la théorie de Relativité Générale peut être appliquée, le vide et ses propriétés ne changent pas par suite d’une dilatation ou d’une contraction, présente l’avantage de la simplicité et d’une sorte de « retour aux sources » (les premiers travaux d’Albert Einstein). Selon ce modèle, l’accélération de l’expansion de l’Univers serait possible sans que l’énergie sombre ou la matière noire soient nécessaires et avec une « constante cosmologique » Λ liée uniquement aux propriétés d’invariance du vide spatial, via un facteur d’échelle « λ » de ce vide . Cette hypothèse fait en effet apparaître logiquement, on pourrait dire « naturellement » (c’est le terme employé par André Maeder), un terme très petit et variable d’accélération et ce « terme » est particulièrement significatif aux faibles densités. Or l’accélération est en effet, dans les observations, un terme très petit et c’est dans ces environnements de faibles densités (périphérie des galaxies spirales par exemple) qu’elle semble la plus évidente. Les premiers tests du modèle corroborent les observations : application de ses principes au calcul des distances par rapport aux décalages vers le rouge, à l’estimation de la magnitude par rapport aux redshifts, à l’estimation du coefficient de densité Ω par rapport aux observations par le télescope Planck des fluctuations du CMB (Fonds diffus cosmologique), à l’estimation de la valeur actuelle du paramètre de Hubble (coefficient H0), et autres.
Dans tous les cas il y aurait bien expansion et du moins actuellement, accélération de l’expansion. Ce sont des faits d’observation. Mais il n’y aurait pas obligatoirement d’énergie sombre et s’il y a énergie sombre, ce qui est de moins en moins probable, on ne sait toujours pas ce qu’elle serait. L’accélération de l’expansion de l’Univers reste un problème majeur pour la compréhension de notre Univers puisque d’elle ou de son contraire résultera (dans plusieurs dizaines de milliards d’années, tout de même !) la Destruction (Big Crunch ou Big Rip) ou l’Eternité (par le chemin de crêtes…mais on ne sera jamais certain de pouvoir y rester !). C’est un sujet difficile que je n’aborde, sans l’approfondir, que pour mettre en évidence son incontournable présence !
Illustration de titre: illustration schématique de l’expansion de l’Univers et de son accélération (évasement). Design Alex Mittelmann
Lien (Le Temps, 22 Nov. 2017) :
https://www.letemps.ch/sciences/un-professeur-genevois-remet-question-matiere-noire
lien UniGe:
https://www.unige.ch/communication/communiques/2017/cdp211117/
lien vers l’étude d’André Maeder:
file:///F:/energie%20sombre/Maeder_2017_ApJ_834_194.pdf
Pour (re)trouver dans ce blog un autre article sur un sujet qui vous intéresse, cliquez sur:
17 Responses
Petite contribution : pourquoi pas un effet « gravitationnel « extérieur à notre univers qui aspirerait littéralement le nôtre à sa bordure?
Pourquoi pas? Mais cela suppose un « multivers », une pluralité d’univers. Certains cosmologistes en ont avancé l’hypothèse mais pour qu’une telle hypothèse puisse être vérifiée il faudrait que plusieurs indices se recoupent en ce sens. Ce n’est pas le cas actuellement!
Imaginons un feu d’artifice: bic bang créateur de nombreux univers ( pourquoi ne pas parler de sous univers dans ce cas). Chacun d’entre eux se développe indépendamment, mais reste contenu dans « l’espace initial ».. je ne sais pas comment l’appeler autrement… Chacun de ces « sous univers » se dilate en périphérie selon les lois physiques qui lui sont imposées et se trouve ré-absorbé par le milieu créateur initial ( peut-être un milieu… anti sous univers…comme anti- matière…Fin de l’histoire et peut-être recommencement du processus.
Certes mais une hypothèse reste une hypothèse tant qu’elle ne peut faire l’objet d’une démonstration reposant sur quelques faits d’observation.
IL Y A AUSSI MA THEORIE QUI EXPLIQUE L ENERGIE NOIRE ET QUI REGLES UN TRES GRAND NOMBRES DES MYSTERES DE NOTRE UNIVERS
AMICALEMENT
YANNICK
http://lacentralinventeur.free.fr
« C’est bien joli » mais tout cela n’est que suppositions.
Pour commencer il n’est pas sûr que le vide soit vraiment vide. Il est traversé de champs et de particules et sans doute le lieu de fluctuations quantiques. Autrement dit le vide fait partie de l’espace, pas du néant.
Ensuite le multivers reste une possibilité totalement théorique. Jusqu’à présent rien ne le prouve.
Enfin la température du vide n’est pas le zéro absolu. Elle varie selon les lieux mais la température du fond diffus cosmologique (donc en dehors de ce qui peut être généré par tout astre qui occupe l’espace) est de 2,78 K.
Votre théorie est…une théorie.
Oui vous avez raison, le vide n’est absolument pas vide, il y a de l’énergie des particules et des champs de forces ainsi que de la température. C’est le vide quantique.
Le vide absolu dont je parle et complètement diffèrent du vide quantique justement, car le vide absolu ne contient absolument rien, et c’est cela qui change tout.
Le vide quantique et le vide absolu sont deux entités complétement différentes.
Pour ce qui est de la possibilité qu’il y’ai d’autres univers que le nôtre, personnellement je trouve cela évident et de plus en plus de grands scientifiques pensent la même chose (Aurélien barreau parlant des multivers) et bien d’autres scientifiques encore.
Comment imaginer que l’infini ne soit pourvu que d’un seul univers ?
Depuis plusieurs siècles l’homme pensait être le centre de l’univers et que notre soleil était unique et qu’il tournait autour de la terre, il y a encore moins d’un siècle de cela l’homme pensait qu’il n’y avait que notre galaxie dans l’univers ….
Et oui vous avez tout à fait raison ma théorie n’est qu’une théorie, mais qui a quand même le mérite d’être innovante et surtout de résoudre a elle seul de nombreux mystères de l’astrophysique moderne.
Et je ne crois vraiment pas que cela soit une coïncidence.
Votre site est superbe, et représente un énorme travail.
Je vous remercie de votre réponse.
Je n’ai pas voulu être désagréable et je vous remercie de votre appréciation positive de mon blog.
Je sais qu’Aurélien Barreau envisage les multivers. Je ne suis pas expert en la matière mais il me semble qu’actuellement cette « explication du monde » est encore une vaste spéculation. Je préfère m’en tenir pour le moment à des démonstrations comme celle d’André Maeder, tout en gardant l’esprit ouvert pour d’autres « solutions ».
Ne vous inquiétez pas, je ne vous ai absolument pas trouvé désagréable, aux vues d’autres commentaire suivit quasiment d’insultent envers ma théorie.
En plus d’avoir le sentiment d’être sur la bonne voix avec ma théorie, je suis aussi conforté par les gens de la Nasa (adresse IP des visiteurs) qui lisent et relisent ma théorie depuis plus d’un an au fur et à mesure de son évolution sur mon site.
Je connais André Maeder et sa théorie de l’invariance d’échelle du vide .
C’est l’une des rares théorie, qui n’ai pas incompatible avec la mienne.
Je sais que la recherche est d’une importance capitale avec la sauvegarde de notre planète.
Et je ne comprends pas que l’on investisse autant d’argent sur la recherche de particules hypothétiques comme les axions ou autre …. Dont les énoncés de leur description prédisent qu’elles n’existent tout simplement pas.
L’énoncé étant que (ces particules n’interagissent quasiment pas avec la matière, mais que leur rôle serait t’interagir très fortement avec la matière en ajoutant une gravité supplémentaire, qui expliquerait la cohésion des galaxies).
Rien que sur cet énoncé il y a un très gros problème et la théorie d’André Maeder est bien plus séduisante que tout le reste (même si je ne comprends pas tout exactement de sa théorie car je ne suis absolument pas mathématicien lol …)
En espérant que l’humanité survive à cette catastrophe écologique qui nous tombe dessus vitesse grand V, pour que nous puissions trouver la solution a cette energie et matière noire si passionnante
Bonne journée
Affirmer « évidente » une chose supposée….non, n’est évident que ce qui peut-être démontré.
Le lien vers l’article du Pr Maeder semble rompu. Utiliser celui-ci :
https://arxiv.org/pdf/1701.03964.pdf
Je reviendrai plus tard sur les implications d’une constante cosmologique très petite, mais certainement non nulle.
Bonjour, que pensez-vous de cette nouvelle force dans la nature, crédible ?
https://www.sciencealert.com/physicists-claim-a-they-ve-found-even-more-evidence-of-a-new-force-of-nature
Beaucoup de physiciens cherchent ce genre de bosons. Alors pourquoi ne l’identifierait-on pas par l’intermédiaire d’indices comme celui mentionné dans l’article que vous citez? La particule X17 est une piste sérieuse mais bien sûr elle doit être confirmée.
Piste pas très sérieuse au contraire :
https://www.futura-sciences.com/sciences/actualites/nouvelle-physique-cinquieme-force-toujours-aucune-preuve-son-existence-63930/
Je ne vais pas discuter d’un sujet que je connais mal et qui n’est pas l’objet du présent article. Ce que je peux dire c’est que si l’observation était bien confirmée (l’écartement surprenant des trajectoires des particules électron/positron) elle serait importante mais bien évidemment, avant de nous « emballer » nous devons avoir des certitudes, cet écartement doit être compris et clairement expliqué (il peut y avoir une raison tenant aux conditions d’expérimentation qui l’explique ou simplement l’observation qui se fait dans des conditions très difficile – brièveté du phénomène notamment – est inexacte) et je suis d’accord avec vous, il est évident qu’une seule publication ne vaut pas validation.
Sur le fond, je reste toujours sceptique sur les particules étranges du genre WIMP qui n’interagissent pas avec la matière (encore une fois, attendons d’en trouver une) ou une cinquième force. C’est pour cela d’ailleurs que je soutiens la théorie exposée par André Maeder.
Quel est le sens de cette constante cosmologique forçant l’expansion de l’Univers à accélérer, à défaut de savoir quelle en est l’origine, encore âprement discutée, comme on l’a vu ?
.
Comme préliminaire, il faut rappeler que la densité relative Ω mentionnée (quotient de la densité moyenne absolue actuelle de l’Univers par la densité critique absolue actuelle (calculable, connaissant H°), qui est celle d’un Univers plat, sans courbure) , est la somme de cinq composantes : la densité relative des photons, celle des neutrinos, celle de la matière ordinaire, dite baryonique, celle de la matière sombre et celle de l’énergie sombre. Les deux premières sont actuellement « négligeables » au sens qu’elles sont de l’ordre du dix millièmes, voire du cent millièmes (ce n’était pas le cas au commencement de l’Univers, durant l’ère radiative où la densité des photons était absolument dominante). La densité de la matière ordinaire baryonique est actuellement de ~0,05, celle de la matière sombre de ~0,26 (donc au total 0,3153 pour toute la « matière », notée oméga indice m : Ω(m)), celle de l’énergie sombre est de 0,6847, elle est notée oméga indice lambda : Ω(Λ). Cette dernière est reliée à la constante cosmologique, Λ, et au paramètre de Hubble, H°, selon une équation d’importance centrale : Ω(Λ) = Λ c^2 / 3 H°^2, où c est la vitesse de la lumière. Remarquons encore que, en additionnant les valeurs actuelles Ω(m) + Ω(Λ), on a assez bien : Ω = ~1. Avec le temps qui passe, le premier terme va en diminuant et tendra vers zéro et le second terme va en croissant et tendra vers 1, la somme restant 1. On voit que, en connaissant H° et la valeur actuelle de la densité de l’énergie sombre Ω(Λ), on peut en déduire la valeur de la constante cosmologique, Λ, ce qu’a permis de faire la mission Planck dont les données sont actuellement finalisées.
.
Je reprends ici un commentaire que j’ai déposé sur la page « Constante cosmologique » de Wikipédia :
.
Les meilleures données finales de la mission Planck, avec H° = 67,36 ± 0,54 km/s/Mpc (= 2,18 × 10^−18 s^−1), Ω(m) = 0,3153 ± 0,0073 et Ω(Λ) = 0,6847 ± 0,0073, donnent une valeur de la constante cosmologique Λ = 3 H°^2 Ω(Λ) /c2 de l’ordre de 1,088 × 10^ −52 m^−2.
.
La racine carrée de 3 fois l’inverse de la constante cosmologique, (3 / Λ)^½, donne une longueur de l’ordre de ~10^26 m, que l’on peut interpréter comme le rayon de Hubble « final », noté avec l’indice Λ, soit R(Λ) = c / H(Λ), avec H indice Λ, H(Λ), qui correspond au paramètre de Hubble « final » lorsqu’on approchera la situation extrême où Ω(Λ) → 1 (et donc Ω(m) → 0), c’est-à-dire où H(Λ)^2 = c^2 Λ / 3 = 3,3·10^-36 s^-2, soit H(Λ) = 1,8·10^-18 s^-1 = ~55,75 km/s/Mpc et donc R(Λ) = 1,67·10^26 m = ~17,6 milliards d’années-lumière. Ce rayon de Hubble est celui de l’horizon de Hubble, ou horizon des photons, au-delà duquel la vitesse d’expansion dépasse c, la vitesse de la lumière. Le rayon de Hubble actuel, H° = 1,376·10^26 m = ~14,54 milliards d’années-lumière, est plus petit puisque le paramètre de Hubble actuel H° est plus grand (voir la valeur ci-dessus, selon les données finales de la mission Planck) que cette valeur extrémale « finale » H(Λ). Comme, du fait de l’accélération de l’expansion, le paramètre de Hubble décroît avec le temps, le rayon de Hubble croît avec le temps pour tendre vers cette valeur limite. Cette valeur finale H(Λ) peut aussi être traduite en durée de Hubble « finale » : t(Λ) = 1 / H(Λ) = 5,55·10^17 s = ~17,6 milliards d’années. Au bout de cette durée, donc à cet âge de l’Univers, notre horizon cosmologique (qui est actuellement à ~13,7 milliards d’années-lumière et qui croît avec le temps qui passe) atteindra et coïncidera avec l’horizon de Hubble R(Λ) et ne pourra s’étendre plus loin. À la longue, il n’y aura plus de galaxies lointaines qui pourraient nous apparaître (comme c’est le cas actuellement où notre ciel s’enrichit continuellement de probablement une nouvelle galaxie lointaine par heure du fait de l’accroissement continu de notre horizon cosmologique), mais au contraire, toutes les galaxies lointaines passeront désormais au-delà de cet horizon – l’expansion de l’espace se faisant à la vitesse de la lumière, c, exactement sur l’horizon de Hubble –, en un processus qui peu à peu videra notre sphère de Hubble de tout objet extragalactique, hormis le Groupe local de nos galaxies voisines tenues ensemble par la gravitation ; le ciel lointain sera de plus en plus vide au-delà du Groupe local. Cela n’est pas un point de vue particulier à la Terre ; il en sera de même pour tout autre point dans l’Univers. Autre résultat : dans cette situation « finale » le paramètre de décélération, q, sera aussi extrême : q(Λ) → −1 (en regard de sa valeur actuelle déjà bien négative du fait de l’accélération de l’expansion, q° = −0,527, sa valeur valait 0 au moment, il y a quelque 6 milliards d’années, où l’expansion de l’Univers a commencé à accélérer), sachant que q° = ½ (Ω(m) − 2 Ω(Λ)) = ½ (1 − 3 Ω(Λ)) et avec l’hypothèse vérifiée déjà actuellement, selon les données de la mission Planck, que Ω = Ω(m) + Ω(Λ) ≈1, cette valeur de q(Λ) = −1 signifie que l’accélération de l’expansion atteindra alors sa valeur maximale.
Bonsoir et bonne année!
Je profite d’un break avant de réveillonner pour vous apporter deux petites informations. La première est que si personne ne remet en cause l’extension de l’univers, on n’arrive toujours pas à se mettre d’accord sur sa « vitesse ». En effet et en complément aux pistes possibles, la communauté scientifique n’arrive pas à trouver une réponse commune en fonction des observations réalisées via les deux méthodes classiques (de 67 km/s/Mpc à 1% ou 2% près à 73 km/s/Mpc à 2% ou 3% près). Cette différence met à mal pas mal de principes ou théories et Ethan Siegel a bien résumé le problème sur son excellent blog:
https://www.forbes.com/sites/startswithabang/2019/05/03/cosmologys-biggest-conundrum-is-a-clue-not-a-controversy/
Bref, cette différence signifie que quelque chose nous échappe…
Bonne année!