Les astrophysiciens utilisent l'IA pour décoder les paramètres précis de l'univers
ParisLes astrophysiciens ont développé une nouvelle méthode utilisant l’intelligence artificielle pour mesurer avec précision les facteurs clés qui définissent l’univers. Le travail, réalisé par l'Institut Flatiron et ses partenaires, utilise l'IA pour découvrir des informations cachées dans la répartition des galaxies. Cette nouvelle approche offre des mesures bien plus précises de ces facteurs par rapport aux méthodes précédentes.
Les six principaux paramètres cosmologiques permettent de comprendre des aspects fondamentaux de l'univers, notamment :
Les composants clés et les conditions primordiales de l'univers
- La quantité de matière ordinaire
- La quantité de matière noire
- La quantité d'énergie noire
- Les conditions post-Big Bang, y compris l'opacité de l'univers nouveau-né
- La distribution de la masse dans le cosmos, qu'elle soit dispersée ou sous forme de grands amas
Les cosmologistes analysent généralement la distribution des galaxies à grande échelle pour estimer des paramètres cosmiques cruciaux. Cependant, de récentes avancées révèlent que les détails à petite échelle peuvent également fournir des informations précieuses. Pour exploiter ces données, des chercheurs de l'Institut Flatiron et de l'Université de Princeton ont développé une méthode appelée SimBIG (Simulation-Based Inference of Galaxies). Ils ont utilisé un modèle d'IA formé sur des univers simulés afin de comprendre les liens entre l'agrégation des galaxies à petite échelle et les paramètres cosmologiques.
SimBIG présente un avantage majeur car il nécessite bien moins de simulations d'univers que les méthodes plus anciennes. Avec seulement 2 000 simulations de la suite Quijote, l'IA a atteint une haute précision. Cela permet de gagner beaucoup de temps et de puissance informatique. Le modèle a été perfectionné en faisant en sorte que les données simulées ressemblent aux données réelles des relevés de galaxies, y compris les défauts causés par l'atmosphère et les télescopes.
Le modèle d'IA a été testé avec des données réelles de galaxies provenant de l'Enquête Spectroscopique des Oscillations des Baryons, en analysant 109 636 galaxies. Les résultats ont montré une précision élevée, comparable aux méthodes traditionnelles qui utilisent quatre fois plus de galaxies. Cela est crucial car le nombre de galaxies dans l'univers est limité, rendant essentiel l'obtention d'un maximum d'informations à partir des données disponibles.
Une précision améliorée est censée nous aider à mieux comprendre des phénomènes cosmiques tels que la matière noire et l'énergie sombre. Cela pourrait également aider à résoudre le problème de la constante de Hubble, où différentes méthodes de mesure donnent des résultats divergents. Avec les prochaines campagnes d'observation astronomique, combiner leurs données avec la méthode SimBIG pourrait régler ce problème et révéler de nouveaux détails sur l'expansion de l'univers.
Des experts du Centre d'astrophysique computationnelle et du Centre de mathématiques computationnelles de l'Institut Flatiron, en collaboration avec des chercheurs de l'Université de Princeton, de l'Université de Floride, de l'Université de Waterloo et de l'Université de Genève, unissent leurs forces pour mener à bien cette recherche. Leur travail illustre un effort collectif entre plusieurs institutions pour faire progresser l'étude de la cosmologie.
L'étude est publiée ici:
http://dx.doi.org/10.1038/s41550-024-02344-2et sa citation officielle - y compris les auteurs et la revue - est
ChangHoon Hahn, Pablo Lemos, Liam Parker, Bruno Régaldo-Saint Blancard, Michael Eickenberg, Shirley Ho, Jiamin Hou, Elena Massara, Chirag Modi, Azadeh Moradinezhad Dizgah, David Spergel. Cosmological constraints from non-Gaussian and nonlinear galaxy clustering using the SimBIG inference framework. Nature Astronomy, 2024; DOI: 10.1038/s41550-024-02344-211 octobre 2024 · 16:33
L'IA et les Nobel : un géant technologique indispensable ?
Partager cet article