mercredi 28 juillet 2010

Les pulsations stellaires



Oui, les étoiles vibrent. Par exemple, notre Soleil montre des milliers de modes de vibrations différents. Toutes les étoiles, à un moment ou un autre au cours de leur évolution, vibreront (ou pulseront, ou oscilleront, d’autres termes qui décrivent le même phénomène). Mieux encore, ces vibrations nous permettent d’en comprendre la structure!

Étoiles variables

En 1572, l’astronome danois Tycho Brahe a observé la supernova du même nom. Depuis, l’astronomie occidentale s’est intéressée aux variations de luminosité des étoiles.

Plusieurs phénomènes peuvent expliquer que la lumière qui nous provient d’une étoile varie. Par exemple, une étoile peut en éclipser une autre au cours d’un phénomène nommé transit. Une autre étoile peut violemment éjecter de la matière, ce qui altère la quantité de lumière qu’elle émet. On peut également assister à l’explosion d’une étoile, comme dans le cas de la supernova que Tycho Brahe a observé.

Les étoiles peuvent aussi pulser : elles montrent des variations régulières de leur luminosité. Ce phénomène, proposé pour la première fois par l’astronome allemand August Ritter en 1879, est basé sur un mécanisme au sein de l’étoile. Il aura fallu toutefois attendre plus de 70 ans avant de comprendre les pulsations des étoiles.

Étoiles pulsantes

Les pulsations d’une étoile, qui peuvent avoir lieu en son cœur comme à sa surface, sont provoquées par des variations locales de la gravité et/ou de la pression dans une zone donnée. Ces variations sont causées par une perturbation de l’équilibre précaire dans lequel l’étoile se trouve. En effet, toute étoile (qui n’explose pas) est en équilibre dit hydrostatique : sa pression interne, qui lui ferait prendre de l’expansion, est balancée très exactement par la gravité, qui la ferait comprimer. Cependant, si la pression locale est perturbée, on excite des vibrations dans l’étoile nommés modes de pression. De la même façon, si la gravité locale varie, on observe de vibrations dans l’étoile qu’on nomme modes de gravité.

Une étoile montre soit des modes de pression, soit des modes de gravité. Dans de rares cas, on a observé à la fois des modes de pression et de gravité dans une étoile.

Le Soleil est l’exemple le plus près de nous d’une étoile pulsante. Toutefois, les variations de luminosité qui en sont issues sont de très faibles amplitudes. Il aura fallu envoyer des sondes spatiales dédiées à l’observation du Soleil pour enfin les mettre en évidence.

Certaines étoiles plus éloignées montrent des variations de luminosité si importantes qu’il est possible de les observer à l’œil nu. L’étoile géante rouge Mira, dans la constellation de la Baleine, en est un exemple. Les astronomes arabes, à la fin du Moyen-âge ont été les premiers à rapporter les variations de luminosité de Mira.

Astérosismologie

La Terre tremble parce que les plaques tectoniques qui constituent sa surface se déplacent. Ce mouvement induit des vibrations qui peuvent, dans certains cas, voyager jusqu’au cours de la Terre. La plupart du temps, ces vibrations, ou ondes sismiques, se propagent dans le manteau terrestre, fait de roches en fusion. En comprenant le comportement des ondes sismiques engendrées par les tremblements de Terre, on a ainsi pu déterminer la structure de notre planète. Cette branche de la physique se nomme sismologie (ou séismologie).

Il est possible de transposer les outils de la sismologie afin d’étudier la structure des étoiles qui pulsent. Cet exercice, connu sous le nom d’astérosismologie (ou astéroséismologie), est de plus en plus populaire. On se sert des variations de luminosité des étoiles qui oscillent pour en extraire les modes de pulsation. On compare ensuite ceux-ci avec des modes dits théoriques qui ont été calculés par des modèles complexes. Ces derniers incorporent tous les paramètres d’une étoile comme sa masse, la quantité de lumière qu’elle émet, son rayon, sa composition, sa classe, etc.

L’application de l’astérosismologie révèle la structure interne des étoiles, un exercice impossible à accomplir par les techniques traditionnellement employées en astronomie. En réalité, la spectroscopie, la photométrie et la polarimétrie ne sont sensibles qu’aux phénomènes ayant lieu à la surface d’une étoile. Toutefois, à l’aide de ces méthodes, on étudie les variations dans le temps de ces phénomènes. Ainsi, on peut extraire les modes de vibrations d’une étoile. Néanmoins, il est impératif de comparer ces résultats à des modèles pour comprendre ce qui se passe dans une étoile.

Ce puissant outil de l’astronomie contemporaine nous a notamment permis de « voir » l’intérieur du Soleil. Par l’entremise de l’héliosismologie (la discipline astérosismologique qui se concentre sur les pulsations du Soleil – du grec helios), on connaît ainsi la masse du cœur de cette étoile, sa vitesse de rotation et d’autres paramètres.

Plus récemment, des chercheurs de l’Université de Montréal ont utilisé l’astérosismologie pour démontrer l’effet de la perte de masse sur la structure interne d’une jeune étoile naine blanche. Le Pr Gilles Fontaine et son équipe ont révélé que la naine blanche connu sous l’appellation PG1159 tourne comme un corps solide jusqu’en son cœur. Habituellement, une étoile présente des vitesses différentes de rotation selon la profondeur (ce qu’on nomme une rotation différentielle).

Source

Mémoire de maîtrise de Myriam Francoeur

dimanche 25 juillet 2010

Observer la cristallisation d'un condensat de Bose-Einstein


En confinant à une température avoisinant dangereusement le zéro absolu 100,000 atomes de rubidium (37e élement du tableau périodique) à l’aide d’un système optique complexe, Tilman Esslinger et son équipe à l’École polytechnique fédérale de Zürich (où Einstein a poursuivi ses études!) ont observé la cristallisation d’un condensat de Bose-Einstein. Ils ont ainsi confirmé une prédiction vieille de 37 ans affirmant qu’il est possible de diminuer davantage l’énergie d’un condensat de Bose-Einstein... un état qui n’est déjà pas particulièrement énergétique!

Matière dégénérée

Il faut avant tout connaître quelques notions de physique pour comprendre la nature d’un condensat de Bose-Einstein.

D’abord, la matière qui nous entoure est composée d’atomes, eux-mêmes composés d’électrons (charge négative), de protons et de neutrons (respectivement de charges positive et nulle). Puisque ces particules sont quantiques, elles sont à la fois onde et corpuscule (la dualité onde-particule est une explication provenant du prolifique Einstein). Ceci permet de définir pour chacune d’entre elle une longueur d’onde dite de de Broglie dont la valeur est inversement proportionnelle à la racine 3e de la masse m et de la température T.

De plus, toutes ces particules possèdent un spin, une propriété quantique analogue à l’axe de rotation d’un corps sur lui-même. Toutefois, le spin est sensible à l’application d’un champ magnétique : une particule dotée d’un spin y étant soumise s’orientera préférentiellement à ce champ. Par ailleurs, toute particule ayant un spin demi-entier (1/2, 3/2, etc.) sont nommés fermions. Les électrons, protons et neutrons qui composent la matière ont tous un spin 1/2 et sont ainsi des fermions.

Puis les particules dans les atomes sont soumises à la force électrostatique, ou force de Coulomb. Les électrons, qui orbitent autour du noyau formé de protons et de neutrons (les nucléons) se repoussent. Les protons font de même à l’intérieur-même du noyau et les neutrons en assurent la cohésion. Dans tous les cas, ces particules sont très éloignées les unes des autres, à des distances nettement supérieures à leur longueur d’onde de de Broglie.

Néanmoins, dans certaines conditions, on rencontre de la matière dite dégénérée. Pour observer un tel « état », il faut que la distance entre les particules soit plus petite ou égale à leur longueur d’onde de de Broglie. Souvenons-nous que cette grandeur est inversement proportionnelle à la racine 3e de la masse. Les électrons étant approximativement 1840 fois moins massif que les nucléons, leur longueur d’onde de de Broglie est supérieure à celle associée aux protons et aux neutrons. Si on comprime suffisamment la matière, il est alors possible de dégénérer les électrons dans celle-ci. Dans la nature, on rencontre des électrons dégénérés dans les métaux (en première approximation) ou au cœur des étoiles naines blanches. Dans le premier cas, l’arrangement des noyaux atomiques dans un cristal force les électrons à se rapprocher. Dans le second cas, c’est la force gravitationnelle qui amène les électrons à être dégénérés.

Il est également possible de dégénérer les neutrons. Si la gravité est suffisamment élevée, les électrons et les protons se fusionnent pour engendrer des neutrons. Dans ces conditions, qu’on rencontre dans les étoiles à neutrons, la longueur d’onde de de Broglie est du même ordre de grandeur que la séparation entre les neutrons.

Condensat de Bose-Einstein

Puisque les électrons, les protons et les neutrons sont des fermions, ils doivent aussi obéir à un principe issu de la mécanique quantique. Selon ce formalisme, chaque particule est décrite par un état dit quantique. Un ensemble de fermions ne doivent en aucun cas être dans le même état et cette condition est connue comme le principe d’exclusion de Pauli. La matière composée de fermions dégénérés obéit à la lettre à cette règle.

Il existe toutefois une autre forme de matière dégénérée qui n’est pas soumise au principe d’exclusion de Pauli, qu’on appelle condensat de Bose-Einstein. Dans celle-ci on retrouve non pas des fermions dégénérés, mais des bosons dégénérés. Cet état de la matière, qu’on ne rencontre nulle part dans la nature, n’est obtenu que dans des conditions très particulières en laboratoire.

Les bosons sont des particules de spins entiers (1, 2, etc.). Parmi eux on retrouve les photons (la lumière), mais également des combinaisons de fermions. Le noyau de l’isotope le plus commun de l’hélium (He-4), composé de 2 protons et 2 neutrons, est ainsi un boson. Contrairement aux fermions, les bosons peuvent occuper un même état quantique puisqu’ils ne sont pas soumis au principe d’exclusion de Pauli. En diminuant radicalement la température des bosons, on assiste à la « condensation » de ces particules dans un même état quantique, un état nommé condensat de Bose-Einstein. Par ailleurs, les particules qui partagent le même état quantique semblent n’être plus qu’une seule particule! Les physiciens parlent « d’état quantique macroscopique » dans ces conditions.

Cet état a été prédit par les physiciens Bose et Einstein (toujours le même Einstein!) dans les années 1920, mais finalement obtenu en laboratoire en 1995. La raison : il faut impérativement refroidir la matière à quelques nanokelvins et moins au-dessus du zéro absolu (dont la valeur est de -273.15 °C, ou 0 °K). Il n’est pas nécessaire de dire que cet état est très peu énergétique.

Cristallisation d’un condensat de Bose-Einstein

Depuis 1995, les condensats de Bose-Einstein obtenus en laboratoire sont faits d’atomes de rubidium sous forme liquide. La réalisation de Esslinger et son équipe, qui ont réussi à cristalliser un condensat, est en soi un exploit. Ils ont pu atteindre ce nouvel état à l’aide de cavités optiques, des appareils qui ressemblent à deux miroirs convexes un en face de l’autre, et un laser. En exploitant un phénomène nommé « superradiance », ils ont pu diminuer encore l’énergie des atomes de rubidium dans le condensat jusqu’à ce que celui-ci devienne cristallin.

Sources

Physics Today

BEC Homepage

Notes de cours du professeur Gilles Fontaine (Université de Montréal) en mécanique statistique

mercredi 21 juillet 2010

Prévenir au lieu de quérir (ou guérir)



Le Congrès américain a récemment introduit le projet de loi H.R. 5587, intitulé « To establish a United States Commission on Planetary Defense and for other purposes » (Pour établir une commission américaine pour la défense planétaire et autres). L’objectif est de garder un œil sur tout astéroïde ou comète ayant le potentiel d’entrer en collision avec la Terre (les NEO pour Near-Earth Objects) et d’agir en cas d’une éventuelle collision.

Déjà, en 1998, le Congrès s’est intéressé aux NEO et avait émis un mandat à la NASA pour qu’elle catalogue tous ces objets d’ici dont la taille est supérieure à 1 km. En 2005, elle a réitéré ce mandat, désirant étendre le catalogue jusqu’aux objets de 140 m et plus. On a estimé en 2009 que 70 à 80 % des NEO de plus de 1 km ont été identifiés. Avec le projet de loi H.R. 5587, le gouvernement américain fait un pas de plus pour contrer la « menace de l’espace ».

Probabilités de collision

La probabilité qu’un astéroïde ou une comète entre en collision avec la Terre et, de surcroît, provoque une catastrophe à l’échelle de la planète, est très faible. Selon la NASA, un corps d’une cinquantaine de mètres de diamètre percuterait la Terre en moyenne tous les 100 ans. Pour des objets dont la taille est autour d’un kilomètre, on estime qu’une collision a lieu tous les 500,000 ans. L’évènement de Tunguska dans le ciel de Sibérie en 1908, est le dernier impact de ce type à avoir eu lieu (quoique l’astéroïde ait explosé à quelques dizaines de kilomètres au-dessus du sol). Dans le cas des astéroïdes ou comètes de plus de 5 km, les collisions sont encore moins fréquentes et devraient survenir à peu près tous les 10 millions d’années. Le dernier impact de ce genre aurait eu lieu il y a 65 millions d’années dans la péninsule du Yucatan.

Pourquoi les chances de collisions diminuent avec la taille des NEO? Les modèles de formation du système solaire montrent que les planètes se seraient formées par l’agrégation de poussières en rotation autour du Soleil. Ces agrégats auraient par la suite formés des corpuscules dits planétésimaux qui seraient à leur tour entré en collision avec d’autres de ces objets. Pour une collision dite complètement inélastique, les deux planétésimaux se seraient agrégés, formant ainsi de plus gros planétésimaux. Ce processus donnerait finalement naissance aux planètes. Toutefois, au cours de ce long processus, la quantité de gros planétésimaux diminuerait au fil des collisions, étant agrégés ou tout simplement détruits.

On croit que les astéroïdes et les comètes sont les vestiges de la formation du système solaire. Les comètes seraient des planétésimaux originaux tandis que les astéroïdes dans la chaîne du même nom seraient les résidus d’une planète détruite par la forte interaction gravitationnelle entre Jupiter et le Soleil. Ces astéroïdes auraient subi de multiples collisions entre eux, réduisant sensiblement leur taille. Les astéroïdes et les comètes dont les chances d’impact avec la Terre sont les plus élevées sont ceux qui ont subi une perturbation dans leur orbite originale et dont la nouvelle orbite traverse celle de la Terre.

Impact

La taille d’un NEO influence grandement les effets de sa collision sur la Terre. En-deça d’une cinquantaine de mètres de diamètre, un astéroïde devrait se désintégrer, mais cette désintégration dépend également de la composition de l’objet. En effet, s’il est principalement fait de métaux comme le fer et le nickel (souvent un mélange des deux), l’astéroïde ne se désintègrera pas autant que s’il était rocheux.

Meteor Crater, dans le nord de l’Arizona, est non seulement le cratère d’impact le mieux conservé dans le monde, mais aussi un parfait exemple d’un impact produit par un astéroïde de fer/nickel de 50 m. Il y a 50,000 ans, celui-ci a frappé l’endroit à une vitesse estimée à près de 15 km/s (54,000 km/h). L’impact a laissé un trou béant de 1,200 m de diamètre et de 170 m de profondeur dans la plaine et soulevé un anneau de 45 m au-dessus du sol. En creusant, on a découvert des fragments jusqu’à 6 km en-dessous de la surface. Pourtant, les modèles semblent montrer que l’astéroïde aurait perdu la moitié de sa masse, soit 300,000 tonnes métriques, au cours de sa descente!

Pour des NEO dont la taille est supérieure à 1km, on estime que son impact peut dégager suffisamment de matière dans l’atmosphère pour provoquer un « hiver nucléaire ». La poussière encouragerait la formation des nuages qui réfléchirait davantage de lumière du Soleil, abaissant ainsi la température à la surface de la Terre. On croit que le cratère Chicxulub sur la péninsule du Yucatan au Mexique a été causé par l’impact d’un astéroïde de 10 km il y a 65 millions d’années. Les conséquences de cet évènement auraient entraîné l’extinction des dinosaures. Le réservoir Manicouagan, dans la Côte-Nord, est un autre exemple d’un cratère engendré par l’impact d’un NEO de plus de 1 km (5 km).

L’impact d’un NEO dans l’océan peut également provoquer d’importants raz-de-marée qui peuvent inonder des régions complètes, engendrant des centaines de milliers de morts dans les régions côtières. Le tsunami du 26 décembre 2004 dans l’Océan indien n’est qu’un aperçu des effets d’une collision avec un NEO.

Cataloguer les NEO

Il existe déjà plusieurs programmes un peu partout dans le monde dont l’objectif est d’identifier les NEO. Le programme Spacewatch du Steward Observatory (Université d’Arizona), employant deux télescopes au sommet de Kitt Peak (sud de l’Arizona) en est un. Le Catalina Sky Survey (CSS), dont les télescopes sont situés dans la chaîne de montagne Santa Catalina (sud de l’Arizona) détient quant à lui le record actuel de détections des NEO.

D’autres projets sont en élaboration pour cataloguer les astéroïdes et comètes qui croiseraient la Terre. Le Palomar Transient Sky Survey débute ses opérations de cataloguer le ciel à la recherche de tous les phénomènes variables visibles de la Terre, dont le passage des NEO. Pan-Starrs, au sommet du Mauna Kea (Hawaii) devrait également commencer ses observations. Un autre projet, le LSST (Large Synoptic Survey Telescope – Chili), devrait être opérationnel en 2017 et cataloguer avec une meilleure résolution les NEO de petites tailles (140-500 m).

Sources

Space.com
LSST
Visite au Meteor Crater en septembre 2009
CSS
NASA NEO

dimanche 4 avril 2010

Le temps qu'il fait et le réchauffement climatique

Les vacances de Pâques sont ensoleillées, chaudes et agréables pour tous, et plusieurs associent ce phénomène aux changements climatiques. Ont-ils raisons de penser ainsi?

Certes, il fait beaucoup plus chaud cette fin de semaine : nous avons battu des records de température. Selon Environnement Canada, il ferait en moyenne entre -1 et 8°C le samedi 3 avril. Hier, à Montréal, le mercure a plutôt affiché des températures entre 10.5 et 25.7 °C. Sauf qu'il faut se rappeler au départ que ce qu'Environnement Canada (ou MétéoMédia, ou d'autres compagnies spécialisées dans le domaine des prévisions météorologiques) affiche sont des MOYENNES. Par définition, on tient ainsi compte de données plutôt "abberrantes" comme le doux temps d'hier, et d'autres de ces journées qui sont survenues depuis les 50 dernières années. Oui, c'était le plus chaud des 3 avril, mais combien faisait-il un 3 avril passé? Peut-être 18 °C, et personne ne l'attribuait aux changements climatiques (ce n'était pas une expression à la mode non plus).

Je tiens à ajouter que je ne suis pas contre "les changements climatiques". Je suis contre la mauvaise interprétation des données.

Mais pourquoi fait-il si chaud? Il suffit d'observer les cartes météorologiques actuelles pour le comprendre.


Celle-ci, tirée du site de MétéoMédia, montre les différentes zones de haute et de basse pression, respectivement les lettres D et A, ainsi que les fronts chauds (en rouge) et les fronts froids (en bleu). On remarque aussi un trait beaucoup plus pâle qui traverse le continent nord-américain, le courant-jet.

Ce courant d'air très rapide et de très haute altitude (voir "courant-jet" sur Wikipédia) a un effet assez important sur les grandes masses d'air qui forment les dépressions, les anticyclones et d'autres phénomènes qui font la pluie et le beau temps. Ces masses d'air, se déplaçant plus souvent qu'autrement de ouest en est et du sud au nord (une conséquence de la rotation terrestre), atteigneront un moment donné le courant-jet et devront suivre sa trajectoire. Toutefois, la trajectoire de ce courant n'est pas fixe et évolue au cours des années, passant plus haut ou plus bas.

Qu'il fasse plus chaud est une conséquence de plusieurs phénomènes climatologiques de grande amplitude, et le courant-jet les module. On doit aussi tenir compte des phénomènes El Nino et La Nina et autres, où l'on a croissance (ou décroissance) de la température des eaux océaniques, aidant à la formation de masses d'air plus chaudes.

Il est fort probable que le réchauffement climatique ait à voir avec les températures actuellement enregistrées. Toutefois, sa contribution reste somme toute limitée lorsqu'on compare toutes les autres sources qui peuvent localement accroître la température au Québec. Le courant-jet et les masses d'air suivent des cycles qui rendent des étés plus chauds et des hivers plus doux. Et présentement nous sommes au sommet d'un de ces cycles.

Les cycles sont lents. De mémoire d'Homme, il serait très difficile de s'en souvenir. Il est évidemment plus facile de parler en terme du réchauffement climatique, mais cela dénote de l'incompréhension face au phénomène réellement observé. Je me souviens par exemple de l'été 2000, il faisait très peu chaud. Et puis les étés sont devenus plus chauds. Conséquence du réchauffement climatique, devenu à la mode depuis? Certainement pas! C'est après tout un phénomène observé depuis les 150 dernières années, pas les 10 dernières!

mercredi 24 mars 2010

50 ans de recherche sur la fusion nucléaire

Une autre capsule radio, beaucoup plus proche de ce qui est demandé dans le cours.


Des chercheurs de partout dans le monde se retroussent les manches pour dompter la fusion nucléaire.

Outre qu’elle fait briller les étoiles, la fusion nucléaire s’est avant tout manifestée au centre de l’explosion de bombes thermonucléaires. Au cœur de l’explosion, la fusion nucléaire est toutefois hors de contrôle. Les physiciens, désireux d’en comprendre les mécanismes, se sont ainsi attelés à la dompter dans les années 1960. Puis, en 1973, lors de la flambée des prix de l’essence, les gouvernements occidentaux ont eux aussi été attirés par la fusion nucléaire. Dans le but de développer des sources d’énergie alternatives, ils ont investi depuis milliards de dollars afin de promouvoir la recherche sur la fusion nucléaire.

Le phénomène survient lorsque la température atteint quelques centaines de millions de degrés Celsius. Des atomes d’hydrogène peuvent alors se combiner entre eux pour former des atomes d’hélium. On constate toutefois que la masse initiale d’hydrogène est légèrement plus élevée que la masse finale d’hélium. En réalité, la masse manquante est convertie en énergie selon la fameuse équation d’Einstein, E = mc². Cette énergie colossale est celle que l’on désire exploiter.

Depuis le début des années 1990, les chercheurs sont en mesure de reproduire en laboratoire les conditions nécessaires pour démarrer la fusion nucléaire. Cependant, lorsqu’ils réussissent à produire de la fusion nucléaire, ils sont incapables de l’entretenir : le record de durée de la fusion n’est que de quatre secondes. Il est en effet extrêmement difficile de maintenir le carburant de la fusion nucléaire aux températures qui règnent au cœur du Soleil…

Néanmoins, les chercheurs poursuivent leurs travaux pour dompter la fusion nucléaire. L’objectif est d’être en mesure d’entretenir la fusion nucléaire pour quelques minutes, ce qui en ferait enfin un moyen efficace de produire de l’énergie.

vendredi 19 mars 2010

Toujours plus gros, toujours plus loin

Voici une première chronique, écrite dans le cadre de mon cours de communication scientifique à distance offert par l'Université Laval.


Le télescope spatial James Webb (JWST), un projet commun entre la NASA, l’Agence spatiale européenne (ESA) et l’Agence spatiale canadienne, succèdera en 2014 au télescope Hubble, en orbite depuis presque 20 ans. Le JWST sera doté d’un miroir de 6.5 m de diamètre, ce qui en fera le plus gros télescope jamais déployé dans l’espace. Il sera situé au point de Lagrange L2, en équilibre entre la Terre et le Soleil, à une distance de près de 150 millions de kilomètres (50 fois la distance Terre-Lune). Les coûts de cette mission sont estimés à 5 milliards de dollars.

Alors que Hubble observait le ciel dans le visible, le JWST sera sensible dans une plage de longueurs d’onde comprises entre 0.7 et 25 microns, dans le spectre de l’infrarouge. Il scrutera le ciel, détectant les premières lumières de l’Univers. « Les premières étoiles, très chaudes, émettaient beaucoup dans l’ultraviolet », précise René Doyon, professeur à l’Université de Montréal et coordonnateur scientifique d’un des quatre appareils de détection qui sera à bord du télescope James Webb. La lumière de ces étoiles, nées quelques millions d’années après le Big Bang, est aujourd’hui fortement décalée vers l’infrarouge, d’où l’importance d’avoir un appareil sensible à cette portion du spectre lumineux. Le télescope spatial James Webb cherchera également de nouveaux systèmes planétaires à l’extérieur du système solaire. On souhaite ainsi étudier la formation des exoplanètes et possiblement détecter des traces de vie sur celles-ci.

De telles observations seraient tout simplement impossibles sur Terre. « Cela reviendrait à observer le ciel en plein jour avec des néons accrochés à l’ouverture du télescope », rappelle le professeur Doyon à propos de l’observation dans l’infrarouge sur Terre. C’est pour cette raison que le télescope spatial James Webb sera déployé à 150 millions de kilomètres de nous : il ne ressentira ainsi ni la contribution de la radiation infrarouge de la Terre, ni la lumière zodiacale. Notons que cette dernière, produite par la diffusion de la lumière du Soleil sur les grains de poussière contenus dans le système solaire, émet aussi dans l’infrarouge.

La construction du télescope est très avancée. Le 8 janvier dernier, la NASA acheminait 6 des 18 segments formant le miroir primaire du JWST au laboratoire XRCF (X-ray and Cryogenic Facility, Marshall Space Flight Center) en Alabama. Ils y seront soumis à une batterie de tests qui vérifieront leur résistance aux conditions extrêmes de l’espace.

Les segments, de forme hexagonale, sont faits de béryllium, un métal léger et très résistant. Une fois amincis et polis, ils sont recouverts d’un mince film d’or, un matériau fortement réfléchissant dans l’infrarouge.

On vérifiera au cours de la prochaine année au laboratoire XRCF la capacité de chaque segment à résister aux températures de l’ordre – 250 °C qui règnent dans l’espace. Les ingénieurs de la NASA étudieront aussi la déformation des segments, qui changeront de forme avec la température. Ils seront ainsi en mesure de simuler les ajustements nécessaires pour rétablir l’alignement du miroir du télescope James Webb une fois dans l’espace. Ces tests devraient être complétés en 2011.

Bienvenue

Bonjour à tous!

Je vous souhaite la bienvenue sur une tout nouvelle tentative : l'écriture d'un blogue sur la physique.

Il en manque vraiment, selon moi.

J'espère que vous apprécierez.

Myriam