Mesure des anisotropies de polarisation du fond diffus cosmologique avec l’interféromètre bolométrique QUBIC

Mesure des anisotropies de polarisation du fond diffus cosmologique avec l’interféromètre bolométrique QUBIC

Anomalies du CMB

Les articles « officiels » de WMAP ont exploité de manière remarquable les mesures effectuées par le satellite ; à vrai dire, la plupart des implications cosmologiques intéressantes ont été étudiées dans ces publications. Elles concluent à la parfaite confirmation du modèle standard (autrement dit à l’absence d’un écart, autre que statistique, entre données et prédictions du modèle, après ajustement des paramètres cosmologiques). Ces données étant toutefois libre d’accès, des centaines d’analyses parallèles ont été publiées, en particulier en ce qui concerne la détection d’éventuels écarts au modèle standard, souvent par le biais d’une détection d’un motif irrégulier dans les cartes ou les spectres de puissance. Ceux-ci ont ainsi été scrutés et analysés sous toutes les coutures, sans qu’aucun résultat probant ne soit obtenu. Il me semble a contrario que si un enseignement doit être tiré de toute cette agitation, c’est justement la stupéfiante adéquation entre données du CMB et modèle standard. Ce genre de recherche est en fait confrontée à un certain nombre d’écueils d’analyse statistique que nous allons discuter brièvement ; nous aborderons également plus en détail le cas particulier de la recherche de non-gaussianités. 

Méthodologie statistique et science expérimentale

Des problèmes statistiques assez subtils apparaissent dès lors qu’on entreprend de montrer que des données soumises à une certaine variance d’échantillonage favorisent tel modèle (ou théorie7 ) plutôt qu’un autre. Dans le cas de l’étude des données CMB, l’échantillon est l’univers observable (on parle généralement de variance cosmique), et le modèle que l’on cherche à falsifier au profit d’un autre est le modèle standard ΛCDM. Un premier écueil bien connu est celui lié à l’introduction de nouveaux degrés de liberté. Lorsque l’on souhaite départager deux théories concurrentes, il ne suffit pas de comparer leurs efficacités respectives à reproduire les données (en comparant les χ 2 calculés par la méthode des moindres carrés par exemple) ; il faut également tenir compte de leurs nombres respectifs de degrés de liberté internes. Une des méthodes bien connues qui permet de résoudre ce problème est celle de la preuve bayesienne (« Bayesian evidence »). Le lecteur trouvera en [97] une bonne introduction aux approches bayesiennes. La fonction de vraisemblance d’un modèle est obtenue par intégration de la fonction de vraisemblance dans l’espace des paramètres – vu à travers la probabilité a priori bayesienne (le « prior »). Le rapport des fonctions de vraisemblance de deux modèles (que l’on désigne comme le facteur de Bayes) permet d’estimer si le nouveau modèle apporte une amélioration significative par rapport au modèle à falsifier. Si l’on oublie les subtilités du débat entre bayésiens et fréquentistes, cela revient dans les cas simples (de variances gaussiennes identiques et non corrélées) à étudier l’évolution des χ 2 réduits (rapports des χ 2 sur le nombre de degrés de libertés de chaque modèle) : un χ 2 réduit inférieur à 1 indique un modèle qui surconditionne les données. Considérons l’exemple trivial suivant : nous générons un jeu de données de N points satisfaisant à l’équation d’une droite dans un plan cartésien, chaque point étant affecté d’une variance 7Nous emploierons ici indifféremment l’un ou l’autre terme ; en disciple de Quine et à rebours des vues de nombreux physiciens, nous pensons que la différence entre les deux termes, si elle a un sens pratique, est particulièrement artificielle d’un point de vue épistémologique. Le modèle cosmologique confronté aux observations en 2010  d’échantillonage gaussienne ; le modèle à falsifier est constitué par l’équation d’une droite, le modèle concurrent par un polynôme de degré n. Le modèle concurent reproduira d’autant mieux les données que n est grand. On peut par contre vérifier que la procédure de la preuve bayesienne ne favorisera pas les modèles concurrents par rapport au modèle standard de la droite. L’application de ce genre de procédure n’est pourtant pas toujours aussi aisée ; prendre en compte tous les degrés de libertés peut se révéler plus difficile qu’il n’y parait, ceux-ci pouvant par exemple se dissimuler derrière certains principes ou postulats implicites de la théorie. Un deuxième écueil, plus retors, est celui lié à l’analyse a posteriori des données. Une distribution aléatoire suivant une certaine loi de probabilité présentera toujours nombre de particularités, dont le degré de probabilité était a priori (i.e. avant que le tirage soit effectué ou avant que l’observateur n’en prenne connaissance8 ) extrêmement faible. Un observateur dont l’objectif est de déterminer la loi sous-jacente à la distribution observée est ainsi bien en peine de distinguer les particularités du signal induites par la loi fondamentale de celles induites par le simple hasard. Les données WMAP ayant été examinées ad libitum, les exemples de particularités prétendument troublantes abondent : faible amplitude du quadrupôle, alignement des bas multipôles, asymétrie nord-sud ou encore initiales de Stephen Hawking (voir figure 2.8). Nous renvoyons le lecteur à l’excellent article WMAP-7 de Bennett et al. [162] pour une revue critique. FIG. 2.8: Les initiales de Stephen Hawking dans la carte ILC de WMAP. La probabilité a priori qu’un tel motif apparaisse dans les anisotropies de température du fond diffus est quasiment nulle. Une analyse a posteriori des données pourrait ainsi conclure à une falsification à 8σ (au moins…) du modèle standard si un malicieux théoricien bâtissait également a posteriori un modèle alternatif capable de les prédire. Il n’existe pas à ma connaissance de solution universelle à ce problème, mais plutôt une liste de recettes plus ou moins efficaces adaptées au cas par cas. Les physiciens de l’expérience Auger, qui observent un très petit nombre de rayons cosmiques d’ultra-haute énergie (soumis à une variance poissonnienne), utilisent par exemple des techniques dites de « prescriptions ». Ils analysent l’ensemble de leurs données sans aucune contrainte, et lorsqu’ils pensent avoir trouver un modèle sous-jacent (récemment l’anisotropie du fond de rayons cosmiques UHE), ils l’utilisent pour prédire le comportement des données qui seront acquises dans le futur. La « prescription » s’énonce à peu près sous cette forme : »à partir de la date xx/xx/xx, le modèle prédit que les données auront telles caractéristiques » ; il n’y a alors plus qu’à attendre patiemment une confirmation ou une infirmation du modèle par les données. 8La question de savoir si ces deux éventualités sont équivalentes dépasse le cadre de cette discussion..Le modèle cosmologique confronté aux observations en 2010 Les physiciens engagés dans les expériences de détection directe de matière noire (comme CDMS [81]) utilisent quant à eux une technique dite d’ »analyse aveugle ». L’analyse des données est mise en place à partir de données générées par simulations Monte-Carlo, avant qu’une campagne d’acquisition de données ne débute. Durant la phase d’acquisition, la partie du jeu de données incluant le signal recherché (les interactions des particules de matière noire) est masquée, et l’analyse des données effectuée par les physiciens (les « coupures d’évenements » pour utiliser le langage des « particulistes ») n’est ainsi pas biaisée : ceux-ci ne sont par exemple pas tentés (inconsciemment bien sûr…) de favoriser une analyse qui indiquerait une détection. Nous l’avons compris, ces considérations statistiques dépassent largement le cadre des données CMB ou même de la cosmologie ; elles sont en fait pertinentes pour toute science expérimentale dont les données sont irréductiblement soumises à une certaine variance d’échantillonage (mais ne commencent à occuper une place prépondérante dans un domaine scientifique que lorsque celui-ci atteint un certain degré de maturité). La situation des physiciens contemporains confrontés à cette problématique ne manque ainsi pas d’une certaine ironie : ceux-ci doivent parfois volontairement renoncer à connaître les données des expériences lorsqu’ils élaborent leurs nouveaux modèles, en vue de renforcer leur future crédibilité ! Pour en revenir aux études des anomalies du CMB, on comprend que les techniques décrites ci-dessus ne soient pas applicables (surtout à présent que les mesures aux grandes et moyennes échelles des spectres de puissance sont limitées par la variance cosmique). Rappelons à ce propos ce fait capital sur lequel nous avons déjà insisté : ces spectres ont été prédits par le modèle standard à la fin des années 1980 (voir figure 3.4) – même si les paramètres cosmologiques ont ensuite été ajustés sur les spectres expérimentaux. Autrement dit, le modèle standard n’a pas été conçu a posteriori des mesures CMB. Les études qui visent à détecter des écarts au modèle par analyse a posteriori des cartes et des spectres se heurtent ainsi d’autant plus aux difficultés évoquées. Toute annonce d’une falsification à 3σ ou même 4σ du modèle standard, fondée sur la détection d’un motif très particulier de la distribution des anisotropies (et sur un modèle – ou plus raisonnablement sur une extension du modèle standard – spécialement bâti a posteriori afin de prédire ce motif) doit donc être examinée avec la plus grande prudence. Remarquons d’ailleurs qu’il était statistiquement prévisible que quelques unes des centaines d’analyses publiées ou mises en ligne sur arXiv annonceraient des détections à 3σ d’un motif non prédit par le modèle standard dans les données du CMB : c’est en réalité le cas contraire qui aurait été troublant ! Ce genre de détections pourraient néamoins s’avérer intéressantes dans le cas où le modèle exotique sous-jacent permettrait de prédire une déviation attendue dans un autre canal d’observation.

Non-gaussianités

Bien que les mesures des anisotropies du CMB aient confirmé de manière stupéfiante la gaussianité des fluctuations primordiale, la détection de non-gaussianités est actuellement un champ de recherche important (surtout si on utilise comme estimateur de cette importance, le nombre de preprints arXiv consacrés au sujet). Les calculs concernant l’Univers primordial utilisent en général des approximations linéaires, ce qui conduit à une statistique parfaitement gaussienne des perturbations de densité primordiales et de la métrique. L’écart faible à la gaussianité d’un champ de perturbations peut être modélisé par l’ajout d’un terme quadratique à l’approximation linéaire : Φ(~x) = ΦL(~x) + fNL  Φ 2 L(~x) − Φ 2 L(~x) (2.4) Le modèle cosmologique confronté aux observations en 2010 43 Les perturbations du second ordre générées dans le cadre de modèles d’inflation à un seul champ induisent déjà des non-gaussianités, mais à un niveau indétectable, de l’ordre de grandeur des paramètres du slow-roll fNL ∼ O(ǫ,η) ∼ 10−2 (cf. chapitre 3). La détection d’un niveau plus élevé de non-gaussiannités fNL ∼ 1 éliminerait ainsi les modèles d’inflation les plus simples au profit de modèles plus complexes tels que les modèles dit hybrides (combinant plusieurs champs [63]), les modèles hors approximation de slow-roll, les modèles de reheating inhomogène, ou encore les modèles de curvaton (dans lesquels les fluctuations sont isocourbes). Des limites supérieures sont aujourd’hui placées sur le paramètre fNL grâce aux relevés de structures aux grandes échelles [84] (−31 < fNL < +70) et à l’analyse des données WMAP [135] (−9 < fNL < +111). Planck devrait permettre d’améliorer la précision de ces mesures par un ordre de grandeur. Un nombre relativement important d’études ont annoncé une détection de non-gaussianités primordiales, la plupart se basant sur les données publiques WMAP. Ces résultats doivent, je crois, être considérés avec la plus grande prudence, étant donné la faiblesse du signal recherché et la propension des avants-plans galactiques à être hautement non-gaussiens. Certaines des études procèdent à une série de tests afin de confirmer ou d’infirmer le caractère primordial de ces nongaussianités ; on peut par exemple répéter l’analyse en utilisant un masque galactique variable, afin de déterminer si le signal est constant sur la carte ou concentré dans le plan galactique ; on peut également répéter l’analyse en supprimant certaines gammes de multipôles, afin de déterminer les échelles auxquelles ces non-gaussianités sont dominantes (on sait par exemple qu’un signal détecté aux grands multipôles où le bruit de WMAP devient important sera peu crédible). Il faut malheureusement constater que toutes les études mises en ligne sur arXiv ne s’embarrassent pas de tels tests. Disons pour conclure – sur un ton plus politiquement correct – qu’aucune détection de non-gaussianités primordiales ne fait aujourd’hui l’objet d’un consensus au sein de la communauté. 2.5 Futur proche de la cosmologie observationnelle Le modèle standard de la cosmologie est ainsi fondé sur des bases observationnelles particulièrement robustes, si bien qu’il semble difficile d’imaginer une révolution future aboutissant à un changement complet de paradigme. Disons que la description de l’énergie noire est la seule partie du modèle qui semble susceptible d’évoluer radicalement. Les prochaines décennies pourraient toutefois être porteuses de découvertes majeures qui étofferaient le paradigme de manière significative. En voici une liste, bien sûr non-exhaustive :

Détection directe de matière noire

Les expériences engagées dans cette quête commencent à atteindre les régions intéressantes en terme de masses et de sections efficaces des particules candidates prédites par les extensions du modèle standard de la physique des particules ; une telle détection marquerait un triomphe sans précédent de la cosmologie en ce qu’une de ses découvertes bouleverserait définitivement la physique des particules. Ajoutons que les expériences CDMS [81] et Edelweiss [82] ont récemment observé pour la première fois des évènements « candidats » : il est cependant trop tôt pour dire si ceux-ci sont la signature de particules de matière noire ou s’ils résultent de simples fluctuations statistiques du bruit de fond. Cette question devrait être tranchée dans les mois à venir, notamment grâce aux futurs 44 Le modèle cosmologique confronté aux observations en 2010 résultats de l’expérience XENON100

Détection des modes B de polarisation du CMB

Nous développerons évidemment ce point au chapitre 3. 3. Falsification de la constante cosmologique, w(z) 6= −1. Une telle découverte serait bien entendu plus excitante qu’une confirmation à la quatrième décimale de w(z) = −1. 

Détection de non-gaussianités primordiales

Cette détection marquerait la présence de processus non-linéaires lors de la génération des perturbations et placerait des contraintes fortes sur les modèles inflationnaires. Comme nous l’avons vu, une telle détection est extrêmement délicate d’un point de vue expérimental. 5. Modification de la relativité générale à petite ou grande échelle. Il est remarquable qu’après un siècle si riche en observations de toute sorte, la relativité rénérale constitue toujours le socle théorique de la cosmologie. En plus des expériences dédiées à la « tester » à toutes les échelles, de nombreuses études sont constamment effectuées à partir du jeu de données cosmologiques en vue de sa falsification au profit d’extensions minimales paramétrisées post-newtoniennes. Une récente agitation sur arXiv a mis en relief la subtilité de ce genre d’étude (un article [98] annonçant une falsification a finalement été retiré).

Table des matières

Introduction
1 Une brève histoire de la cosmologie scientifique
1.1 De Platon à Einstein
1.1.1 Les premières cosmologies scientifiques
1.1.2 Le « modèle » héliocentrique
1.1.3 Le mystère des nébuleuses
1.1.4 Cosmologie newtonienne au XIXe siècle
1.1.5 La relativité générale
1.2 L’homme du Big Bang
1.3 Découverte du Fond Diffus Cosmologique
1.3.1 Nucléosynthèse primordiale
1.3.2 Penzias et Wilson
1.4 Emergence du modèle standard
1.4.1 Premiers soupçons de matière noire
1.4.2 Le temps des grandes échelles
1.4.3 Nucléosynthèse primordiale
1.4.4 Les supernovae
1.4.5 Anisotropies de température et de polarisation du CMB
1.5 Perspective
2 Le modèle ΛCDM confronté aux observations en
2.1 Concordance des observations
2.2 Matière noire et théories modifiées de la gravitation
2.3 Accélération de l’expansion et remise en cause du Principe Cosmologique
2.4 Anomalies du CMB
2.4.1 Méthodologie statistique et science expérimentale
2.4.2 Non-gaussianité
2.5 Futur proche de la cosmologie observationnelle
3 Le Fond Diffus Cosmologique et sa polarisation
3.1 Le plasma primordial
3.2 Anisotropies de température
3.2.1 Le spectre de puissance angulaire des fluctuations
3.2.2 Anisotropies primaires
3.2.3 Anisotropies secondaires
3.2.4 Avants-plans
3.2.5 Contraintes sur les paramètres cosmologiques
3.2.6 Contexte expérimental
3.3 Anisotropies de polarisation
3.3.1 Les paramètres de Stoke
3.3.2 Génération de polarisation par anisotropie quadrupolaire
3.3.3 Les champs E et B
3.3.4 Origine de la polarisation du fond diffus cosmologique
3.3.5 Contraintes cosmologiques
3.3.6 Contexte expérimental
3.4 Inflation et modes B de polarisation
3.4.1 Limitations du modèle standard sans inflation
3.4.2 Une brève histoire de l’inflation
3.4.3 Contraintes observationnelles sur r en
3.4.4 La course expérimentale aux modes B
4 Vers l’interférométrie bolométrique
4.1 Interférométrie et astronomie
4.1.1 Interférométrie optique
4.1.2 Interférométrie et radio-astronomie
4.2 Interférométrie hétérodyne dédiée au fond diffus cosmologique
4.2.1 Historique
4.2.2 Intérêt de l’interférométrie dédiée à la mesure CMB
4.2.3 Principe théorique
4.2.4 Concept instrumental
4.3 Naissance de l’interférométrie bolométrique
4.3.1 Historique
4.3.2 Concept instrumental
4.4 La collaboration QUBIC
5 Sommation cohérente des lignes de base équivalentes et reconstruction des visibilités
5.1 Formalisme théorique
5.1.1 Cornets
5.1.2 Lignes de base équivalentes/redondantes
5.1.3 Séparation des polarisations transverses
5.1.4 Déphaseurs contrôlés
5.1.5 Combineur de faisceaux
5.1.6 Puissance mesurée par un détecteur
5.2 Reconstruction des visibilités
5.2.1 Problème linéaire
5.2.2 Reconstruction simultanée ou indépendante sur les détecteurs
5.2.3 Inversion naïve du problème
5.2.4 Bruit d’un détecteur
5.2.5 Matrice de covariance de l’estimateur
5.3 La sommation cohérente des lignes de base équivalentes
5.3.1 Matrice de covariance du nouvel estimateur
5.4 Séquences de phases et fréquences de rotation respectant la sommation cohérente des lignes de base équivalentes
5.4.1 Différences de phases (cas non polarisé)
5.4.2 Séparation des polarisations
5.4.3 Modulations temporelle et fréquentielle
5.4.4 Déphasages géométriques
5.5 Etude numérique
5.5.1 Description de la simulation
5.5.2 Evolution de la sensibilité en fonction du nombre de ligne de base équivalentes
5.5.3 Evolution de la sensibilité en fonction de la longueur des séquences et du nombre de valeurs discrètes de phases
5.6 Contraintes instrumentales sur les déphaseurs
5.6.1 Modulation temporelle
5.6.2 Modulation fréquentielle
5.7 Conclusion
6 Le problème de la largeur de bande
6.1 Visibilités large bande et effets de lissage
6.1.1 Visibilités monochromatiques
6.1.2 Visibilités large bande
6.1.3 Forme analytique approchée du noyau de convolution
6.1.4 Visibilités large bande en unité de température
6.1.5 Un calcul plus correct du noyau de convolution
6.2 L’interféromètre bolométrique large bande
6.2.1 Puissances mesurées par les bolomètres large bande
6.2.2 Déphasages sans dépendance spectrale
6.2.3 Déphasages avec dépendance spectrale linéaire
6.3 La division en sous bandes virtuelles
6.3.1 Principe
6.3.2 Perte de rapport signal à bruit
6.3.3 Une piste pour la résolution du problème des déphasages à dépendance spectrale
6.4 Dégradation de la sensibilité pour une expérience CMB
6.4.1 Généralisation de l’estimateur de pseudo-spectre
6.4.2 Inefficacité de la méthode de reconstruction en sous-bandes virtuelles
6.5 Simulation numérique
6.5.1 Architecture de la simulation
6.5.2 Test de l’estimateur large bande
6.5.3 Effet lié à la dépendance spectrale des déphasages
6.6 Conclusion
7 Deux nouvelles architectures utilisant les phases géométriques
7.1 Description
7.1.1 Architecture alternative avec lame demi-onde rotative
7.1.2 Architecture alternative avec pseudo-corrélateur
7.2 Signal mesuré par les détecteurs
7.3 Reconstruction des visibilités
7.4 Comparaison des architectures
7.5 Vers une meilleure compréhension de l’interférométrie bolométrique
8 Sensibilité d’un interféromètre bolométrique dédié à l’observation du CMB
8.1 Définition d’un estimateur du spectre de puissance à partir du jeu de visibilités
8.1.1 Couverture du plan-uv
8.1.2 Effets de largeur de bande
8.1.3 Des visibilités de Stokes aux modes E et B
8.1.4 Un estimateur de pseudo-spectre non-biaisé et sa variance
8.2 Comparaison des sensibilités en imagerie, interférométries hétérodyne et bolométrique
8.2.1 Puissance et température équivalentes de bruit (NEP et NET)
8.2.2 Mesure d’un paramètre de Stokes
8.2.3 Mesure simultanée de Q et U
8.2.4 Filtre dans l’espace des Cℓ
8.2.5 Effets de largeur de bande
8.2.6 Uniformité du bruit sur la carte
8.2.7 Détecteurs
8.3 Conséquences pour QUBIC
9 Estimation des spectres de puissance à partir des visibilités
9.1 Méthodes de maximum de vraisemblance
9.1.1 Position du problème
9.1.2 Maximisation de la vraisemblance
9.2 Calcul des fonctions fenêtres
9.2.1 Matrice de covariance des visibilités dans l’approximation de ciel plat
9.2.2 Expressions analytiques des fonctions fenêtres
9.2.3 Intégration numérique
9.2.4 Lobe primaire gaussien et intégration semi-analytique
9.2.5 Au-delà de l’approximation de ciel plat
9.3 Erreurs obtenues sur les spectres de puissance
Auto-calibration grâce aux lignes de base redondantes et contrôle des effets systématiques
.1 Les procédures d’auto-calibration en interférométrie
.1.1 Termes de clotûre et synthèse d’image hybride
.1.2 Utilisation de la redondance
.1.3 L’omniscope
.2 Auto-calibration en interférométrie bolométrique
.2.1 Matrice de Jones
.2.2 Principe expérimental
.2.3 Sur-détermination du problème
.2.4 Radio-interférométrie traditionnelle et omniscope
.2.5 Matrice de Muller pour un interféromètre sensible à la polarisation
.3 Résolution numérique
.4 Prise en compte des erreurs induites par le combineur
.5 Discussion
Participation à l’analyse de données MBI-4
.1 Le prototype MBI-4
.2 Analyse de la campagne de données 09
.3 Simulation de l’instrument
.4 Limite de l’analyse
Contraintes instrumentales pour QUBIC
.1 Conséquences de notre étude au regard des possibilités technologiques
.1.1 Architecture générale
.1.2 Distribution des cornets
.1.3 Largeur de bande
.1.4 Interrupteurs polarisés
.1.5 Lame demi-onde en rotation
.1.6 Combineur optique
.1.7 Détecteurs au plan focal
.2 Optimisation de l’instrument
.2.1 Nombre de cornets et fenêtre du cryostat
.2.2 Distance focale et taille des bolomètres
.2.3 Nombre de bolomètres
.2.4 Résultat
.3 Récapitulatif
Epilogue : vers une interférométrie sans visibilités ?
.1 Un « imageur synthétique »
.1.1 Observation de champs fixes et estimation des spectres sans reconstruction des visibilités
.1.2 Balayage altazimuthal du ciel
.2 Equivalence des descriptions
.3 Intérêt de la nouvelle approche
Conclusion

projet fin d'etudeTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *