Mesure des anisotropies de polarisation du fond diffus cosmologique avec l’interféromètre bolométrique QUBIC
Anomalies du CMB
Les articles « officiels » de WMAP ont exploité de manière remarquable les mesures effectuées par le satellite ; à vrai dire, la plupart des implications cosmologiques intéressantes ont été étudiées dans ces publications. Elles concluent à la parfaite confirmation du modèle standard (autrement dit à l’absence d’un écart, autre que statistique, entre données et prédictions du modèle, après ajustement des paramètres cosmologiques). Ces données étant toutefois libre d’accès, des centaines d’analyses parallèles ont été publiées, en particulier en ce qui concerne la détection d’éventuels écarts au modèle standard, souvent par le biais d’une détection d’un motif irrégulier dans les cartes ou les spectres de puissance. Ceux-ci ont ainsi été scrutés et analysés sous toutes les coutures, sans qu’aucun résultat probant ne soit obtenu. Il me semble a contrario que si un enseignement doit être tiré de toute cette agitation, c’est justement la stupéfiante adéquation entre données du CMB et modèle standard. Ce genre de recherche est en fait confrontée à un certain nombre d’écueils d’analyse statistique que nous allons discuter brièvement ; nous aborderons également plus en détail le cas particulier de la recherche de non-gaussianités.
Méthodologie statistique et science expérimentale
Des problèmes statistiques assez subtils apparaissent dès lors qu’on entreprend de montrer que des données soumises à une certaine variance d’échantillonage favorisent tel modèle (ou théorie7 ) plutôt qu’un autre. Dans le cas de l’étude des données CMB, l’échantillon est l’univers observable (on parle généralement de variance cosmique), et le modèle que l’on cherche à falsifier au profit d’un autre est le modèle standard ΛCDM. Un premier écueil bien connu est celui lié à l’introduction de nouveaux degrés de liberté. Lorsque l’on souhaite départager deux théories concurrentes, il ne suffit pas de comparer leurs efficacités respectives à reproduire les données (en comparant les χ 2 calculés par la méthode des moindres carrés par exemple) ; il faut également tenir compte de leurs nombres respectifs de degrés de liberté internes. Une des méthodes bien connues qui permet de résoudre ce problème est celle de la preuve bayesienne (« Bayesian evidence »). Le lecteur trouvera en [97] une bonne introduction aux approches bayesiennes. La fonction de vraisemblance d’un modèle est obtenue par intégration de la fonction de vraisemblance dans l’espace des paramètres – vu à travers la probabilité a priori bayesienne (le « prior »). Le rapport des fonctions de vraisemblance de deux modèles (que l’on désigne comme le facteur de Bayes) permet d’estimer si le nouveau modèle apporte une amélioration significative par rapport au modèle à falsifier. Si l’on oublie les subtilités du débat entre bayésiens et fréquentistes, cela revient dans les cas simples (de variances gaussiennes identiques et non corrélées) à étudier l’évolution des χ 2 réduits (rapports des χ 2 sur le nombre de degrés de libertés de chaque modèle) : un χ 2 réduit inférieur à 1 indique un modèle qui surconditionne les données. Considérons l’exemple trivial suivant : nous générons un jeu de données de N points satisfaisant à l’équation d’une droite dans un plan cartésien, chaque point étant affecté d’une variance 7Nous emploierons ici indifféremment l’un ou l’autre terme ; en disciple de Quine et à rebours des vues de nombreux physiciens, nous pensons que la différence entre les deux termes, si elle a un sens pratique, est particulièrement artificielle d’un point de vue épistémologique. Le modèle cosmologique confronté aux observations en 2010 d’échantillonage gaussienne ; le modèle à falsifier est constitué par l’équation d’une droite, le modèle concurrent par un polynôme de degré n. Le modèle concurent reproduira d’autant mieux les données que n est grand. On peut par contre vérifier que la procédure de la preuve bayesienne ne favorisera pas les modèles concurrents par rapport au modèle standard de la droite. L’application de ce genre de procédure n’est pourtant pas toujours aussi aisée ; prendre en compte tous les degrés de libertés peut se révéler plus difficile qu’il n’y parait, ceux-ci pouvant par exemple se dissimuler derrière certains principes ou postulats implicites de la théorie. Un deuxième écueil, plus retors, est celui lié à l’analyse a posteriori des données. Une distribution aléatoire suivant une certaine loi de probabilité présentera toujours nombre de particularités, dont le degré de probabilité était a priori (i.e. avant que le tirage soit effectué ou avant que l’observateur n’en prenne connaissance8 ) extrêmement faible. Un observateur dont l’objectif est de déterminer la loi sous-jacente à la distribution observée est ainsi bien en peine de distinguer les particularités du signal induites par la loi fondamentale de celles induites par le simple hasard. Les données WMAP ayant été examinées ad libitum, les exemples de particularités prétendument troublantes abondent : faible amplitude du quadrupôle, alignement des bas multipôles, asymétrie nord-sud ou encore initiales de Stephen Hawking (voir figure 2.8). Nous renvoyons le lecteur à l’excellent article WMAP-7 de Bennett et al. [162] pour une revue critique. FIG. 2.8: Les initiales de Stephen Hawking dans la carte ILC de WMAP. La probabilité a priori qu’un tel motif apparaisse dans les anisotropies de température du fond diffus est quasiment nulle. Une analyse a posteriori des données pourrait ainsi conclure à une falsification à 8σ (au moins…) du modèle standard si un malicieux théoricien bâtissait également a posteriori un modèle alternatif capable de les prédire. Il n’existe pas à ma connaissance de solution universelle à ce problème, mais plutôt une liste de recettes plus ou moins efficaces adaptées au cas par cas. Les physiciens de l’expérience Auger, qui observent un très petit nombre de rayons cosmiques d’ultra-haute énergie (soumis à une variance poissonnienne), utilisent par exemple des techniques dites de « prescriptions ». Ils analysent l’ensemble de leurs données sans aucune contrainte, et lorsqu’ils pensent avoir trouver un modèle sous-jacent (récemment l’anisotropie du fond de rayons cosmiques UHE), ils l’utilisent pour prédire le comportement des données qui seront acquises dans le futur. La « prescription » s’énonce à peu près sous cette forme : »à partir de la date xx/xx/xx, le modèle prédit que les données auront telles caractéristiques » ; il n’y a alors plus qu’à attendre patiemment une confirmation ou une infirmation du modèle par les données. 8La question de savoir si ces deux éventualités sont équivalentes dépasse le cadre de cette discussion..Le modèle cosmologique confronté aux observations en 2010 Les physiciens engagés dans les expériences de détection directe de matière noire (comme CDMS [81]) utilisent quant à eux une technique dite d’ »analyse aveugle ». L’analyse des données est mise en place à partir de données générées par simulations Monte-Carlo, avant qu’une campagne d’acquisition de données ne débute. Durant la phase d’acquisition, la partie du jeu de données incluant le signal recherché (les interactions des particules de matière noire) est masquée, et l’analyse des données effectuée par les physiciens (les « coupures d’évenements » pour utiliser le langage des « particulistes ») n’est ainsi pas biaisée : ceux-ci ne sont par exemple pas tentés (inconsciemment bien sûr…) de favoriser une analyse qui indiquerait une détection. Nous l’avons compris, ces considérations statistiques dépassent largement le cadre des données CMB ou même de la cosmologie ; elles sont en fait pertinentes pour toute science expérimentale dont les données sont irréductiblement soumises à une certaine variance d’échantillonage (mais ne commencent à occuper une place prépondérante dans un domaine scientifique que lorsque celui-ci atteint un certain degré de maturité). La situation des physiciens contemporains confrontés à cette problématique ne manque ainsi pas d’une certaine ironie : ceux-ci doivent parfois volontairement renoncer à connaître les données des expériences lorsqu’ils élaborent leurs nouveaux modèles, en vue de renforcer leur future crédibilité ! Pour en revenir aux études des anomalies du CMB, on comprend que les techniques décrites ci-dessus ne soient pas applicables (surtout à présent que les mesures aux grandes et moyennes échelles des spectres de puissance sont limitées par la variance cosmique). Rappelons à ce propos ce fait capital sur lequel nous avons déjà insisté : ces spectres ont été prédits par le modèle standard à la fin des années 1980 (voir figure 3.4) – même si les paramètres cosmologiques ont ensuite été ajustés sur les spectres expérimentaux. Autrement dit, le modèle standard n’a pas été conçu a posteriori des mesures CMB. Les études qui visent à détecter des écarts au modèle par analyse a posteriori des cartes et des spectres se heurtent ainsi d’autant plus aux difficultés évoquées. Toute annonce d’une falsification à 3σ ou même 4σ du modèle standard, fondée sur la détection d’un motif très particulier de la distribution des anisotropies (et sur un modèle – ou plus raisonnablement sur une extension du modèle standard – spécialement bâti a posteriori afin de prédire ce motif) doit donc être examinée avec la plus grande prudence. Remarquons d’ailleurs qu’il était statistiquement prévisible que quelques unes des centaines d’analyses publiées ou mises en ligne sur arXiv annonceraient des détections à 3σ d’un motif non prédit par le modèle standard dans les données du CMB : c’est en réalité le cas contraire qui aurait été troublant ! Ce genre de détections pourraient néamoins s’avérer intéressantes dans le cas où le modèle exotique sous-jacent permettrait de prédire une déviation attendue dans un autre canal d’observation.
Non-gaussianités
Bien que les mesures des anisotropies du CMB aient confirmé de manière stupéfiante la gaussianité des fluctuations primordiale, la détection de non-gaussianités est actuellement un champ de recherche important (surtout si on utilise comme estimateur de cette importance, le nombre de preprints arXiv consacrés au sujet). Les calculs concernant l’Univers primordial utilisent en général des approximations linéaires, ce qui conduit à une statistique parfaitement gaussienne des perturbations de densité primordiales et de la métrique. L’écart faible à la gaussianité d’un champ de perturbations peut être modélisé par l’ajout d’un terme quadratique à l’approximation linéaire : Φ(~x) = ΦL(~x) + fNL Φ 2 L(~x) − Φ 2 L(~x) (2.4) Le modèle cosmologique confronté aux observations en 2010 43 Les perturbations du second ordre générées dans le cadre de modèles d’inflation à un seul champ induisent déjà des non-gaussianités, mais à un niveau indétectable, de l’ordre de grandeur des paramètres du slow-roll fNL ∼ O(ǫ,η) ∼ 10−2 (cf. chapitre 3). La détection d’un niveau plus élevé de non-gaussiannités fNL ∼ 1 éliminerait ainsi les modèles d’inflation les plus simples au profit de modèles plus complexes tels que les modèles dit hybrides (combinant plusieurs champs [63]), les modèles hors approximation de slow-roll, les modèles de reheating inhomogène, ou encore les modèles de curvaton (dans lesquels les fluctuations sont isocourbes). Des limites supérieures sont aujourd’hui placées sur le paramètre fNL grâce aux relevés de structures aux grandes échelles [84] (−31 < fNL < +70) et à l’analyse des données WMAP [135] (−9 < fNL < +111). Planck devrait permettre d’améliorer la précision de ces mesures par un ordre de grandeur. Un nombre relativement important d’études ont annoncé une détection de non-gaussianités primordiales, la plupart se basant sur les données publiques WMAP. Ces résultats doivent, je crois, être considérés avec la plus grande prudence, étant donné la faiblesse du signal recherché et la propension des avants-plans galactiques à être hautement non-gaussiens. Certaines des études procèdent à une série de tests afin de confirmer ou d’infirmer le caractère primordial de ces nongaussianités ; on peut par exemple répéter l’analyse en utilisant un masque galactique variable, afin de déterminer si le signal est constant sur la carte ou concentré dans le plan galactique ; on peut également répéter l’analyse en supprimant certaines gammes de multipôles, afin de déterminer les échelles auxquelles ces non-gaussianités sont dominantes (on sait par exemple qu’un signal détecté aux grands multipôles où le bruit de WMAP devient important sera peu crédible). Il faut malheureusement constater que toutes les études mises en ligne sur arXiv ne s’embarrassent pas de tels tests. Disons pour conclure – sur un ton plus politiquement correct – qu’aucune détection de non-gaussianités primordiales ne fait aujourd’hui l’objet d’un consensus au sein de la communauté. 2.5 Futur proche de la cosmologie observationnelle Le modèle standard de la cosmologie est ainsi fondé sur des bases observationnelles particulièrement robustes, si bien qu’il semble difficile d’imaginer une révolution future aboutissant à un changement complet de paradigme. Disons que la description de l’énergie noire est la seule partie du modèle qui semble susceptible d’évoluer radicalement. Les prochaines décennies pourraient toutefois être porteuses de découvertes majeures qui étofferaient le paradigme de manière significative. En voici une liste, bien sûr non-exhaustive :
Détection directe de matière noire
Les expériences engagées dans cette quête commencent à atteindre les régions intéressantes en terme de masses et de sections efficaces des particules candidates prédites par les extensions du modèle standard de la physique des particules ; une telle détection marquerait un triomphe sans précédent de la cosmologie en ce qu’une de ses découvertes bouleverserait définitivement la physique des particules. Ajoutons que les expériences CDMS [81] et Edelweiss [82] ont récemment observé pour la première fois des évènements « candidats » : il est cependant trop tôt pour dire si ceux-ci sont la signature de particules de matière noire ou s’ils résultent de simples fluctuations statistiques du bruit de fond. Cette question devrait être tranchée dans les mois à venir, notamment grâce aux futurs 44 Le modèle cosmologique confronté aux observations en 2010 résultats de l’expérience XENON100
Détection des modes B de polarisation du CMB
Nous développerons évidemment ce point au chapitre 3. 3. Falsification de la constante cosmologique, w(z) 6= −1. Une telle découverte serait bien entendu plus excitante qu’une confirmation à la quatrième décimale de w(z) = −1.
Détection de non-gaussianités primordiales
Cette détection marquerait la présence de processus non-linéaires lors de la génération des perturbations et placerait des contraintes fortes sur les modèles inflationnaires. Comme nous l’avons vu, une telle détection est extrêmement délicate d’un point de vue expérimental. 5. Modification de la relativité générale à petite ou grande échelle. Il est remarquable qu’après un siècle si riche en observations de toute sorte, la relativité rénérale constitue toujours le socle théorique de la cosmologie. En plus des expériences dédiées à la « tester » à toutes les échelles, de nombreuses études sont constamment effectuées à partir du jeu de données cosmologiques en vue de sa falsification au profit d’extensions minimales paramétrisées post-newtoniennes. Une récente agitation sur arXiv a mis en relief la subtilité de ce genre d’étude (un article [98] annonçant une falsification a finalement été retiré).
Introduction |