Sciences

446 Sujets 2.0k Messages
  • Collision spatiale : on a frôlé la catastrophe

    8
    0 Votes
    8 Messages
    145 Vues

    @Violence que le cosmos se rassure, on est pas exportable avant bien quelques centaines d’années. :ahah: c’est pas les 12 hommes qui ont marché sur la lune, qui font de nous une espèce intergalactique.

    Et vu qu’on retourne à l’âge de pierre à grands pas, l’univers peur dormir tranquille.

  • 0 Votes
    15 Messages
    257 Vues

    Et voilà la fameuse photo du moment où le module touche la lune et où la jambe se plie:

    3bc84435-9677-4b2c-8f07-c562e28d0587-image.png

    “Nous nous sommes dressés debout, le moteur allumé pendant un certain temps”, a déclaré Altemus. “Puis, alors qu’il s’arrêtait, le véhicule s’est légèrement renversé.”

    40bb4f02-7fb0-438d-af1f-cd334e8de8a0-image.png

    En se basant sur la gravité de la Lune, Intuitive Machines et la NASA ont calculé qu’il lui fallait environ deux secondes pour basculer. L’atterrisseur est tombé sur le côté, avec un réservoir d’hélium ou une étagère radio en contact avec la Lune. Cette saillie, combinée à la pente du terrain de 12 degrés, signifie qu’Ulysse s’appuie désormais doucement sur la surface lunaire à un angle d’environ 30 degrés. Mardi, le vaisseau spatial a renvoyé une image confirmant ces conclusions.

    Heure de dormir

    Comme Intuitive Machines a mieux compris la situation et l’état de son véhicule, elle a pu télécharger un torrent de données. La NASA a obtenu des informations précieuses sur ses six charges utiles à bord, a déclaré Sue Lederer, scientifique du projet pour l’agence spatiale. Mercredi, la NASA avait pu télécharger environ 50 Mo de données. La base du succès était un seul bit de données.

    Mais le temps presse alors que le Soleil se couche vers l’horizon. Ulysse sera à court d’énergie dès mercredi soir, entrant dans la longue nuit lunaire. Dans environ trois semaines, alors que la lumière du soleil recommencera à frapper les panneaux solaires du vaisseau spatial, Intuitive Machines tentera de réveiller le vaisseau spatial. Les chances sont assez longues. La chimie de ses batteries lithium-ion n’aime pas le froid et les températures chuteront jusqu’à moins -280° Fahrenheit (moins-173° Celsius) dans quelques jours. Cela pourrait détruire les batteries ou casser les composants électroniques de l’ordinateur de vol.

    Pourtant, l’espoir reste éternel pour un vaisseau spatial que ses opérateurs ont pris l’habitude d’appeler affectueusement Odie. Jusqu’à présent, cela a défié tous les pronostics. “C’est un petit gars décousu”, a déclaré Lederer. “J’ai confiance en Odie à ce stade.”

    Source: https://arstechnica.com/science/2024/02/that-moment-when-you-land-on-the-moon-break-a-leg-and-are-about-to-topple-over/

  • L’archéologie devient galactique

    6
    1 Votes
    6 Messages
    91 Vues

    Rien n’est certain, mais l’histoire de l’Univers telle qu’on pense la connaitre actuellement pourrait être remise en cause.
    Les dernières observations effectuées par James Webb sèment un peu le trouble dans le milieu de la cosmologie.

  • 1 Votes
    1 Messages
    24 Vues

    Voir la modélisation de l’impact (Gif animé)

    https://assets.newatlas.com/dims4/default/2a44224/2147483647/strip/true/crop/986x657+1+0/resize/840x560!/quality/90/?url=http%3A%2F%2Fnewatlas-brightspot.s3.amazonaws.com%2F98%2Ff2%2F16dda93d40d6a929e72f962460d2%2F1simulation-of-dart-s-impact-on-dimorphos.gif

    Lorsque la sonde spatiale DART de la NASA s’est écrasée sur l’astéroïde Dimorphos, elle n’a laissé aucun cratère. Au lieu de cela, il y a eu une éclaboussure, où l’astéroïde s’est déformé comme une gelée alors que toute sa structure s’est déplacée.

    Le test de redirection double astéroïde (DART) était certainement spectaculaire. Écraser un vaisseau spatial d’une demi-tonne sur un astéroïde à 3,8 miles par seconde (6,1 km/s) est plutôt cool dans le département des feux d’artifice, mais cette collision cosmique avait un objectif très sérieux.

    Des milliers de météores frappent chaque jour l’atmosphère terrestre. La plupart d’entre eux ne sont pas plus gros que des grains de poussière, et la plupart des plus gros brûlent ou tombent dans les océans. Malheureusement, il y en a aussi de très énormes, certains approchant les 8 km de diamètre, qui pourraient un jour nous diriger.

    Si l’un de ces monstres venait à frapper la Terre, cela déclencherait un événement d’extinction jamais vu depuis que les dinosaures ont encaissé leurs jetons. Même les astéroïdes de taille intermédiaire pourraient détruire une grande ville plus efficacement qu’une bombe H. C’est pour cette raison que la NASA et d’autres organisations ont investi dans des programmes visant à développer des moyens d’identifier, de suivre et, si nécessaire, de dévier les astéroïdes potentiellement dangereux bien avant qu’ils ne deviennent une menace.

    Pour DART, la NASA et ses partenaires ont sélectionné l’astéroïde Dimorphos, qui orbite autour d’un astéroïde plus gros appelé Didymos. En le frappant, l’objectif était de modifier suffisamment l’orbite de Dimorphos pour qu’il puisse être mesuré par des télescopes orbitaux et au sol.

    L’exercice fut un succès, l’orbite de Dimopros étant tellement modifiée que sa révolution de 11 heures 55 minutes autour de Didymos fut raccourcie de 33 minutes, plus ou moins une minute. Lancée cette année, la mission Hera de l’ESA rencontrera Dimorphos en 2026 et évaluera de plus près les effets de DART.

    11f0321d-2dba-4868-a7f9-610275a2eaf3-image.png
    L’impact de DART vu depuis LICIACube ASI/NASA/APL

    Cependant, des études ici sur Terre basées sur les données de la mission d’impact d’astéroïdes Hayabusa2 du Japon en 2019, des expériences en laboratoire et des observations de Dimorphos par les télescopes spatiaux James Webb et Hubble ainsi que des observatoires au sol ont été intégrées à l’hydrodynamique des particules lissées (SPH) de l’Université de Berne. logiciel avec des résultats surprenants.

    Un tel logiciel a également été utilisé pour simuler la formation de la Lune il y a des milliards d’années. Et excusez-nous si nous utilisons une excuse quelconque pour diffuser à nouveau cette vidéo stupéfiante, dans laquelle la NASA reconstitue les heures qui ont suivi l’écrasement d’un corps de la taille de Mars sur la Terre, faisant réagir notre planète solide comme un liquide.

    En exécutant 250 simulations basées sur la division de la version numérique de l’astéroïde en millions de particules, puis en intégrant des facteurs tels que la gravité, la masse, la forme, la déviation orbitale et le panache de débris qui l’accompagne après l’impact, ainsi que différentes valeurs pour encore facteurs inconnus, le logiciel SPH a déterminé que Dimorphos n’est pas un corps solide. Au lieu de cela, il s’agit d’un gros tas de décombres maintenus ensemble par leur attraction gravitationnelle mutuelle et très faible.

    Selon l’ESA, cela contribue à expliquer l’ampleur de la déviation de l’astéroïde. Cela suggère également que lorsque HERA arrivera sur les lieux, il ne trouvera pas de cratère d’impact. Au lieu de cela, il découvrira ce qui ressemble plus à une zone d’éclaboussure peu profonde où des débris représentant un pour cent de la masse ont été éjectés et la structure de l’astéroïde a considérablement changé alors que huit pour cent de la roche meuble et de la poussière de sa structure se sont déplacés.

    Si cela est confirmé par l’observation, cela permettra non seulement d’affiner les stratégies de déviation des astéroïdes, mais également d’apporter un nouvel éclairage sur la nature des objets que l’on appelle les orphelins du système solaire.

    “L’image globale que nous obtenons de Dimorphos comme un corps presque sans cohésion, façonné en grande partie par la faible force de gravité, semble être en accord avec nos observations rapprochées d’autres astéroïdes”, a déclaré Patrick Michel, directeur de recherche au CNRS à Observatoire de la Côte d’Azur à Nice et chercheur principal d’Hera.

    “Ryugu – visité par Hayabusa2 – et Bennu – visité par le vaisseau spatial OSIRIS-REx de la NASA – sont des astéroïdes de classe C riches en carbone, très différents des Didymos et Dimorphos de classe S riches en silicates”, a-t-il poursuivi, "mais tous semblent posséder un manque de cohésion comparable. Nous devons encore comprendre et clarifier ce comportement, car nous ne pouvons pas faire de statistiques uniquement sur un trio d’astéroïdes, mais un manque général de cohésion pour tous les petits astéroïdes est une suggestion intrigante, et ce serait une bonne nouvelle pour la défense planétaire, car si nous savons à l’avance comment un corps va réagir, cela facilitera la conception des outils de déviation appropriés. »

    Source: https://newatlas.com/space/dart-asteroid-redirection-impact/
    Et: https://www.nature.com/natastron/

  • 1 Votes
    1 Messages
    34 Vues

    Issue d’une formation en biologie et en chimie, Stéphanie Descroix travaille dans un domaine de recherche hautement pluridisciplinaire : la microfluidique. Grâce à cette technologie, elle crée des mini-organes sur puce. Des outils qui ouvrent des perspectives immenses, notamment en oncologie…

    text alternatif

    Lorsqu’on parle avec Stéphanie Descroix (1), directrice de recherche CNRS et cheffe d’équipe à l’Institut Curie, à Paris, un trait de caractère retient l’attention : sa « positive attitude ». Qu’on en juge : son lieu de travail ? « C’est un centre merveilleux, le plus bel endroit pour mener mes recherches », lance-t-elle. Son travail ? Il est « génial », « hyper satisfaisant ». Sa carrière ? « J’ai eu beaucoup de chance ! » Et ses collaborateurs ? Beaucoup sont de « super collègues ». « Elle crée une ambiance si bonne dans son groupe qu’on a du mal à le quitter », constate Charlotte Bouquerel, qui a travaillé avec elle pendant quatre ans, dans le cadre de son stage de doctorat.

    text alternatif

    Mais la chercheuse dénote aussi par ses recherches… à la pointe de la technologie ! C’est que son groupe, l’équipe « Macromolécules et microsystèmes en biologie et en médecine », est un des leaders mondiaux dans un domaine récent, qui promet de révolutionner la compréhension de la physiologie et des pathologies humaines et leur prise en charge : les organes sur puces.

    Dits aussi « organs-on-chip » (de leur nom anglais), « les organes sur puce sont de nouvelles technologies conçues pour reproduire certaines caractéristiques cellulaires, biochimiques, physiques et physiologiques des organes et tissus humains, comme leur structure en trois dimensions, leur environnement physico-chimique (taux d’oxygène, acidité…) ou leurs fonctions », éclaire Stéphanie Descroix. Ces systèmes sont fabriqués grâce à la microfluidique, une technologie née il y a une trentaine d’années, en plein essor aujourd’hui.

    À la croisée de la biologie, de la physique, de la chimie et de l’ingénierie, la microfluidique permet la fabrication de dispositifs miniatures sur des petites puces en verre, en silicone ou en plastique. D’une taille réduite (quelques centimètres carrés), ces plateformes hébergent un ensemble de micro-canaux gravés ou moulés, connectés entre eux de manière à réaliser une fonction donnée comme mélanger des composants ou encore contrôler l’environnement biochimique.

    L’art de faire mieux avec moins

    En pratique, « les organes sur puce sont obtenus à partir de cellules et de molécules de la matrice extracellulaire, le “ciment” qui maintient attachées les cellules d’un même tissu. L’ensemble est injecté sur une puce microfluidique où il s’auto-organise pour acquérir une structure en trois dimensions qui peut être similaire à celle du vrai organe », détaille la directrice de recherche.

    Les atouts des organes sur puce sont énormes ! Tout d’abord, la microfluidique permet d’y contrôler différents paramètres biologiques, physiques ou physico-chimiques : composition en cellules, en matrice extracellulaire, taux d’oxygène, acidité, forces appliquées, etc. ; ce qui permet de se rapprocher au mieux des caractéristiques et des conditions retrouvées au sein de vrais organes ou tissus. Conséquence, les organes sur puce devraient à l’avenir être des outils d’expérimentation plus fiables que les simples cellules mises en culture.

    text alternatif

    Ensuite, ils permettent de réaliser de nombreuses expériences avec très peu de matériel biologique : « quelques dizaines de milliers de cellules pour un organe sur puce, ce qui peut représenter quelques millimètres carrés de l’organe d’origine ». Enfin, comparés aux tests chez l’animal ou l’humain, ils permettent de travailler plus rapidement et à moindre coût. Bref, comme le souligne Stéphanie Descroix dans un chapitre d’ouvrage consacré à la microfluidique (2), ces systèmes permettent de « faire mieux avec moins » !

    La multidisciplinarité chevillée au corps

    Comment la chercheuse en est-elle arrivée à se spécialiser dans un domaine si pointu ? De fait, cette francilienne née à Fontenay-sous-Bois (94) a toujours baigné dans un environnement propice à la curiosité scientifique : « Mes parents, tous deux scientifiques mais dans l’industrie, avaient une vraie appétence pour la science, qu’ils nous ont transmise à mon frère – aujourd’hui professeur de maths – et moi. Par la suite, je me suis mariée avec un chercheur et j’ai désormais deux enfants qui aiment également les sciences », confie-t-elle.

    C’est aussi très tôt qu’elle a affiché un goût marqué pour différentes disciplines : « au lycée, j’aimais les maths, la bio, l’histoire, l’allemand et aussi la physique-chimie ». Mais une fois le baccalauréat en poche, elle doit faire un choix.

    Elle s’inscrit alors en biologie, à l’université des sciences de la vie à Créteil (94). Sitôt sa maîtrise de sciences et techniques en génie biochimique et biologique acquise, le besoin de pluridisciplinarité la rattrape. Elle « bifurque » alors vers un diplôme d’études approfondies, spécialisé cette fois en chimie analytique (cette partie de la chimie dédiée à l’analyse de produits chimiques), à l’université Pierre-et-Marie-Curie, devenue Sorbonne Université.

    Une fois sa thèse obtenue en 2002, celle qui se dit « souvent pressée, au point que (son) professeur de tennis ne cesse de (lui) répéter de faire trois ou quatre échanges avant de monter au filet pour conclure l’attaque ! », court-circuite le traditionnel stage postdoctoral qui clôture normalement la formation des chercheurs et opte pour un poste à l’université d’Orsay en tant qu’attachée temporaire d’enseignement et de recherche. Mais très vite, elle se sent « plus à (sa) place dans la recherche que l’enseignement », et tente le concours d’entrée au CNRS qu’elle décroche en 2004.

    Mettre le cancer sur puce pour aller vers une médecine personnalisée

    La microfluidique ? Stéphanie Descroix y fait ses premiers pas dès son entrée au CNRS : « À cette époque, raconte-t-elle, cette technologie commençait à significativement décoller en France. Aussi, j’ai souhaité, avec mon équipe d’accueil d’alors – le Laboratoire physico-chimie des électrolytes, colloïdes et sciences analytiques (3) –, la combiner avec des approches bio-analytiques (qui permettent la mesure quantitative d’un objet biologique, Ndlr) ». Cependant, observe-t-elle, « cela m’a pris du temps pour devenir experte en microfluidique et en organes sur puce…et mon apprentissage est loin d’être terminé ! »

    Désormais, à l’Institut Curie, qu’elle a intégré en 2011, la chercheuse et ses collègues développent des organes sur puce particuliers : « des tumeurs de patients sur puce ». Comme elle l’explique, « il s’agit de micro-tumeurs créées à partir de différentes cellules issues d’un même patient : des cellules cancéreuses mais aussi d’autres naturellement présentes dans les tumeurs, comme des cellules immunitaires et des cellules de vaisseaux sanguins ».

    Grâce à ce type d’outils, la chercheuse espère réaliser un grand rêve : développer des systèmes de médecine personnalisée qui permettraient de tester la réponse d’un patient aux chimiothérapies ou aux immunothérapies (deux types de traitements anticancer) ; ces thérapies pouvant être plus ou moins efficaces selon les caractéristiques – notamment génétiques – de chaque tumeur. « Si on arrive à développer de tels outils, ils pourraient aider à donner directement au patient la thérapie la plus efficace pour lui. Ce qui augmenterait ses chances de survie », espère Stéphanie Descroix.

    text alternatif

    Lors d’une étude récente (4), la chercheuse et ses collègues ont démontré la faisabilité de ce concept chez une dizaine de patients. Reste maintenant à renouveler l’étude à plus grande échelle. Pour ce faire, un large essai clinique est prévu avec environ deux cents malades. Il devrait être lancé dans les six prochains mois.

    De nombreuses découvertes en perspective

    Mais il n’y a pas que la recherche appliquée ! « Mon équipe fait également de la recherche fondamentale, pour améliorer nos connaissances sur les organes et leurs maladies. Pouvoir travailler sur ces deux versants de la recherche que l’on a tendance à opposer, alors qu’ils se nourrissent mutuellement, est une spécificité à laquelle je tiens », souligne Stéphanie Descroix, avec une certaine fierté.

    Dans ce domaine, la chercheuse « s’amuse » notamment à tenter de répondre à plusieurs questions très précises concernant l’intestin, « un organe superbe mais trop souvent sous-estimé ». Par exemple, lors de récents travaux publiés notamment avec Danijela Vignjevic, biologiste cellulaire à l’Institut Curie (5), elle a co-développé un intestin sur puce qui a permis d’en savoir plus sur la mise en place des différents types de cellules constituant l’épithélium intestinal, le tissu qui recouvre la paroi interne de l’intestin grêle. « Nous voulions savoir ce qui pilotait l’organisation spatiale de ces différents types cellulaires, sachant qu’ils ne sont pas placés n’importe comment mais à des niveaux précis dans l’épithélium », développe-t-elle.

    text alternatif

    Et bingo ! La cheffe d’équipe et ses collègues ont montré que si la géométrie particulière de l’épithélium en cryptes (creux) et en villosités (replis) régule en partie le positionnement des cellules au niveau de ce tissu, elle ne suffit pas. Il faut aussi la présence de cellules particulières, appelées fibroblastes, lesquelles produisent des substances (des facteurs de croissances et du collagène, le constituant majeur de la matrice extracellulaire) indispensables au bon positionnement des cellules. En fait, termine Stéphanie Descroix, « les potentialités des organes sur puce sont énormes. Dans les années à venir, ils devraient mener à de très nombreuses découvertes. Et ce, aussi bien en recherche fondamentale et appliquée qu’en clinique ! ».

    (1) Laboratoire Physique de la cellule et cancer (CNRS/Institut Curie/Sorbonne Université). Équipe « Macromolécules et microsystèmes en biologie et en médecine » résidente de l’Institut Pierre Gilles de Gennes pour la microfluidique (IPGG) à Paris. (2) « Faire mieux avec moins : la microfluidique ! », Stéphanie Descroix, Jean-Baptiste Salmon, Julien Legros, in Étonnante chimie, sous la direction de Claire-Marie Pradier, CNRS Éditions, 2021. (3) Unité CNRS/École supérieure de physique et de chimie industrielles/Sorbonne Université. (4) Irina Veith et al. bioRxiv. 21 juin 2023. doi: https://doi.org/10.1101/2023.06.21.545960 (5) Marine Verhulsel et al. Lab Chip. 27 janvier 2021. https://pubs.rsc.org/en/content/articlelanding/2021/lc/d0lc00672f

    Source: https://lejournal.cnrs.fr/articles/stephanie-descroix-la-biologiste-qui-met-nos-organes-sur-puce

  • 1 Votes
    15 Messages
    122 Vues

    @duJambon a dit dans En Europe, le recyclage des batteries accélère malgré un modèle économique encore incertain :

    @Popaul Je n’ai rien vu concernant la puissance en fonction du volume, s’il faut le double du volume pour stocker la même quantité d’énergie (par exemple), ça risque malheureusement de passer à la trappe.

    Très bonne remarque.
    La densité d’énergie stockable dépend directement de la densité des atomes qui composent le métal de la batterie. Le lithium étant le métal dont les atomes sont les plus petits (numéro atomique 3) il ne faut pas s’attendre à de grandes améliorations en ce qui concerne le stockage énergétique. Tout au mieux des améliorations mais on ne fera clairement pas du x100, peut-être même pas x10.

  • 0 Votes
    1 Messages
    26 Vues

    Airbus vient d’achever une campagne de tests démontrant la possibilité de réaliser des vols d’hélicoptère autonomes, via un écran tactile. Les technologies mises en œuvre vont aussi contribuer au développement des aéronefs à décollage et atterrissage verticaux, les taxis volants.

    06a9b1e5-eecf-45c9-9d9f-378ef3c78228-image.png

    Dans leurs combinaisons orange, les pilotes d’essai ont toutes les raisons de s’ennuyer. Il faut dire qu’une fois la mission de l’hélicoptère prédéfinie sur une tablette, ils n’ont plus qu’à suivre sa bonne exécution. Ce type de vol, encore futuriste il y a peu, est désormais une réalité. Il est le fruit d’un projet lancé il y a un peu plus de trois ans au sein d’Airbus, dénommé Vertex. Le groupe a dévoilé, lundi 27 novembre, avoir achevé la campagne de tests de ce projet, menée depuis Marignane (Bouches-du-Rhône) du 27 octobre au 22 novembre, qui a démontré la faisabilité technique de trajets d’hélicoptère 100% autonomes.

    C’est Airbus UpNext, l’entité du groupe chargée de faire mûrir des technologies de rupture, qui a mené à bien ces travaux. «L’objectif était d’appliquer une conduite autonome de niveau 3, comme cela existe dans l’automobile, à un hélicoptère tout en améliorant le niveau de sécurité», explique Alexandre Gierczynski, responsable du projet Vertex au sein d’Airbus UpNext. Le niveau d’autonomie 3, sur une échelle qui en compte 5, permet de lâcher le volant dans certaines conditions. L’équipe d’Airbus UpNext a mis à profit FlightLab, un véritable laboratoire volant mis sur pied à partir d’un H130 d’Airbus Helicopters, division du groupe qui assemble des hélicoptères à Marignane. Vertex aboutit à la possibilité de réaliser un vol 100% autonome, du décollage à l’atterrissage, en passant par le vol de croisière.

    Source pour abonnés: https://www.usinenouvelle.com/editorial/comment-airbus-a-realise-un-vol-d-helicoptere-autonome-avec-une-simple-tablette.N2198883

  • La société des addictions

    5
    1 Votes
    5 Messages
    101 Vues

    @Le_Piaf a dit dans La société des addictions :

    Tu peux être l’homme le plus fort, le plus beau, le plus riche, si tu tombes dedans, c’est extrêmement difficile d’en sortir.

    Surtout de rester humble et ne jamais juger une personne addict aux drogues dures ou à l’alcool.

    Tu sais pas comment est fait la vie et si tu joues le con en jouant le connard de service en jugeant une personne addict, ça pourrait te tomber dans la gueule directement ou indirectement.
    Je connais beaucoup d’addict et je ne les ai jamais au grand Dieu jamais jugé (famille et santé détruite) et pourtant j’ai jamais fumé que ce soit qu’une cigarette dans ma life (peut être le sport qui a fait que…ou la famille…je sais pas)

  • Une nouvelle monnaie pour détrôner le dollar ?

    7
    2 Votes
    7 Messages
    157 Vues

    @Pluton9 “Il ne fluctue que peu par rapport à l’€”. Des variations entre 0,9 et 1,6 que l’on a constaté depuis 20 ans lors des différentes crises sont loin d’être neutres ; il n’y qu’a constater les prix à la pompe durant ces périodes pour s"en convaincre.
    L’OPEP à déjà restreint ses approvisionnements sans que le $ en souffre vraiment les USA étant en fait les premiers producteurs d’Hydrocarbure et largement auto-suffisants. Les variations de production de L’OPEP font surtout souffrir l’Europe.

    b170d0e0-a3e5-4dcb-94f4-ade38af9843c-Live Long & Prosper.jpg 

  • 0 Votes
    7 Messages
    91 Vues

    @tanjerine a dit dans Un gros satellite européen fera un retour incontrôlé sur Terre mercredi :

    Bonjour, j’ai recherché l’info ce matin (de très bonne heure), pas vue

    Idem, et pour les news sur la santé des phoques, j’ai l’impression qu’il faudra attendre longtemps…

  • Hannelore Derluyn révèle la vie cachée des matériaux

    4
    3 Votes
    4 Messages
    89 Vues

    @michmich c’est un début

  • La cryptographie face à la menace quantique

    2
    0 Votes
    2 Messages
    63 Vues

    J’ai absolument tout compris no fake 😏

  • Pourquoi veut-on retourner sur la Lune?

    5
    1 Votes
    5 Messages
    104 Vues

    @purplehaze a dit dans Pourquoi veut-on retourner sur la Lune? :

    Impressionnant j’ignorais ce fait, j’ai toujours pensé que ca devait représenter 100x plus. Finalement c’est plutôt une bonne chose mais reste le problème de la gestion des déchets !

    D’un autre côté c’est pas le même carburant 😉 . Parmi les carburants des fusées modernes, le “LOX/LH2” est celui qui présente la valeur Isp(*) la plus élevée. Le Raptor de SpaceX et le BE-4 de Blue Origin utilise un ensemble “méthane liquide/LOX”.

    (*) L’impulsion spécifique (Isp) s’exprime comme le rapport de la force propulsive au débit poids de propergols consommés Isp = F/qgo, go étant, par convention, la pesanteur au sol.

  • 0 Votes
    2 Messages
    30 Vues

    Hé ben, va avoir du boulot celui-là…
    text alternatif

  • Un zoo fossile d'un demi-milliard d'années

    1
    2 Votes
    1 Messages
    49 Vues

    Un nouveau gisement de fossiles découvert au pied de la montagne Noire, au sud du Massif central, apporte un témoignage inédit sur la biodiversité marine d’il y a un demi-milliard d’années.

    text alternatif

    Dans le sud-est des Rocheuses canadiennes, la faune des schistes de Burgess a acquis une renommée internationale dans le milieu de la paléontologie. Ces dépôts fossiles à flanc de montagne offrent un témoignage unique de l’explosion cambrienne, véritable foisonnement de vie animale survenu il y a plus d’un demi-milliard d’années dans les océans du globe. De l’autre côté de l’Atlantique, Cabrières est en passe de devenir aussi célèbre que le site fossilifère nord-américain. En 2018, ce village de l’Hérault situé sur les contreforts méridionaux de la montagne Noire a été le théâtre d’une découverte exceptionnelle : un vaste ensemble d’espèces fossilisées datant de l’Ordovicien inférieur (- 485 à - 477 millions d’années), soit la période géologique qui succède immédiatement au Cambrien (- 541 à - 485 millions d’années).

    text alternatif

    Les tout premiers fossiles ont été exhumés par Éric et Sylvie Monceret, un couple de paléontologues amateurs qui explore depuis de nombreuses années les affleurements géologiques de la région du Minervois.

    Dans les semaines qui précédèrent leur découverte sur les pentes d’une colline boisée se dressant à quelques kilomètres de Cabrières, Éric Monceret était au Maroc où il participait à une mission scientifique dans le massif de l’Anti-Atlas.

    « À n’en pas douter, cette campagne de fouilles les a aidés à se familiariser avec la paléofaune à préservation exceptionnelle de l’Ordovicien inférieur, dont la formation géologique des Fezouata constitue l’un des témoignages les plus remarquables », constate Bertrand Lefebvre, chargé de recherche CNRS au Laboratoire de géologie de Lyon : Terre, planètes, environnement (1) (LGL-TPE) qui a supervisé plusieurs études de terrain dans cette région.

    Un gisement fossilifère exceptionnel

    À l’instar du gisement fossilifère des Fezouata, celui de Cabrières appartient à la catégorie des « Konservat-Lagerstätten ». En paléontologie, ce terme d’origine allemande désigne les dépôts fossiles particulièrement bien préservés. « De tels assemblages contiennent non seulement les parties dures des animaux, comme les squelettes d’arthropodes ou les coquilles de bivalves, mais aussi des parties molles de nature organique qui apparaissent parfois dans la roche sous forme d’empreintes, détaille Bertrand Lefebvre. Contrairement à un gisement fossilifère classique qui se compose uniquement de restes minéralisés, un “Lagerstätte de conservation” offre donc un très bon aperçu de la structure originelle des communautés d’espèces. »

    text alternatif

    Sur l’ensemble de la planète, les dépôts de ce genre représentent à peine 1 % des sites fossilifères. En ce qui concerne l’Ordovicien inférieur, les gisements en mesure de décrire la faune et la flore des écosystèmes marins de cette époque géologique se comptent même sur les doigts d’une main.

    À l’aune de cette rareté, on mesure toute la valeur scientifique d’un gisement comme celui de Cabrières. Valeur qui n’a d’ailleurs fait que se confirmer au fil des campagnes de fouilles organisées depuis 2018, celles-ci ayant d’ores et déjà abouti à la découverte de plus de 400 fossiles dont la taille s’échelonne entre quelques millimètres et plusieurs centimètres (2).

    « Outre la présence d’arthropodes archaïques tels que les trilobites, de brachiopodes, de cnidaires et de mollusques gastéropodes que l’on retrouve tous dans la formation géologique des Fezouata, le biote de Cabrières se singularise par une abondance d’éponges de grande taille et d’algues ramifiées », souligne Christophe Dupichaud, doctorant au LGL-TPE qui a participé à la dernière étude de terrain du site, en octobre 2023.

    Quand l’Hérault voisinait avec le pôle Sud

    La présence en nombre d’éponges et de macro-algues dans le gisement de Cabrières trahit son implantation géographique à de hautes latitudes durant l’Ordovicien inférieur. Sous l’action de la dérive des continents, l’actuel département de l’Hérault se situait en effet tout près du pôle Sud à cette époque. Au même moment, la Terre est confrontée à une phase de réchauffement intense ayant débuté vers la fin du Cambrien. La température moyenne des océans est alors supérieure de 15° C à celle d’aujourd’hui.

    text alternatif

    La biodiversité dont témoigne le dépôt fossile de Cabrières accrédite donc un peu plus l’hypothèse selon laquelle il n’y a pas eu d’extinction à grande échelle des espèces vers la fin de l’époque cambrienne, mais plutôt des disparitions ponctuelles dans les zones océaniques les plus impactées par le réchauffement comme les régions tropicales et tempérées. « Les pôles ayant été moins affectés par la hausse des températures, ils ont pu servir de refuge aux animaux et végétaux qui furent capables de migrer vers ces hautes latitudes », complète Christophe Dupichaud.

    text alternatif

    Au travers de collaborations avec des chercheurs de l’Institut des sciences de la Terre de Lausanne et de l’université Paris-Saclay, certains des fossiles collectés dans le gisement de la montagne Noire ont pu être examinés avec des technologies de pointe. La surface de cinq spécimens d’arthropodes bivalves a tout d’abord été scrutée à l’aide d’un microscope électronique à balayage de dernière génération. Deux autres échantillons contenant des arthropodes bivalves, des brachiopodes et des éponges ont en outre été auscultés en profondeur grâce au Synchrotron Soleil.

    « En offrant la possibilité de déterminer la géométrie des cristaux de fer présents dans les fossiles, ces analyses nous ont permis de confirmer qu’un processus de fossilisation extrêmement rapide avait abouti à la minéralisation de certains tissus mous de ces organismes », explique le doctorant en paléontologie.

    Contextualiser le processus de fossilisation

    Par ailleurs, en dépit des campagnes de fouilles successives, l’équipe scientifique a constaté que certains groupes d’animaux emblématiques de l’Ordovicien étaient quasiment absents du gisement de Cabrières. C’est notamment le cas des échinodermes, dont on dénombre seulement cinq spécimens, alors qu’ils constituent les deux tiers des taxons identifiés sur le site des Fezouata.

    Cette sous-représentation pourrait être liée à une trop grande concentration d’éléments nutritifs dans la colonne d’eau. Car si les échinodermes prospèrent dans les milieux oligotrophes pauvres en nutriments, ils se révèlent incapables de concurrencer les autres espèces lorsque les ressources nutritives sont abondantes.

    Pour Bertrand Lefebvre, la rareté des échinodermes dans le biote de Cabrières pourrait aussi refléter sa localisation dans le milieu marin lorsque débuta le processus de fossilisation : « Sachant que les éocrinoïdes, qui constituent l’essentiel des échinodermes des Fezouata, se rencontrent soit près du rivage soit à une centaine de mètres de profondeur, comme cela a pu être confirmé dans le cas du gisement marocain, le biote de Cabrières se situait peut-être à une profondeur intermédiaire, dans une sorte de no man’s land où les éocrinoïdes sont généralement absents. »

    text alternatif

    La prochaine campagne de fouilles prévue en avril permettra sans doute d’éclaircir ce mystère. Deux semaines durant, une quinzaine de chercheurs parmi lesquels des paléobiologistes, des géochimistes et des sédimentologues se relaieront sur le site fossilifère de la montagne Noire. Leur mission : recueillir un maximum de données in situ afin de reconstituer l’environnement dans lequel évoluait cette communauté d’espèces unique tout en élucidant les circonstances dans lesquelles celle-ci s’est retrouvée piégée pour l’éternité dans les sédiments marins de l’Ordovicien inférieur.

    (1) Unité CNRS/ENS Lyon/Université Claude Bernard Lyon 1. (2) “The Cabrières Biota (France) provides insights into Ordovician polar ecosystems”, Farid Saleh et al., Nature Ecology and Evolution, 9 février 2024.

    Source: https://lejournal.cnrs.fr/articles/un-zoo-fossile-dun-demi-milliard-dannees

    Nos ancêtres les crevettes… 🤔

  • Voici venu le temps des trous blancs

    1
    3 Votes
    1 Messages
    54 Vues

    Exacts opposés des trous noirs, les trous blancs expulseraient matière et lumière sans jamais en absorber. La détection de ces objets encore hypothétiques établirait la gravité quantique et pourrait expliquer l’origine de la matière noire.

    text alternatif

    Plus personne ne doute aujourd’hui de l’existence des trous noirs, ces astres dont rien, pas même la lumière, ne peut s’échapper. Mais depuis leur prédiction en 1915 par la théorie de la relativité générale d’Einstein, il aura fallu multiplier les observations pour établir leur réalité. Cette histoire pourrait bien se répéter avec les trous blancs. Ces objets prévus eux aussi par la relativité générale sont l’exact opposé des trous noirs : ils ne peuvent qu’expulser matière et lumière quand les trous noirs ne peuvent qu’en absorber. Ainsi, s’il est impossible de s’échapper d’un trou noir, il l’est tout autant de pénétrer dans un trou blanc, aussi appelé « fontaine blanche ». Pour beaucoup, ces astres exotiques ne seraient que de simples curiosités mathématiques. Mais certains scientifiques commencent à croire très sérieusement à leur existence car ils sont parvenus à élaborer un scénario convaincant pour expliquer leur formation : d’après eux, les trous blancs constituent le stade ultime de l’évolution des trous noirs.

    text alternatif

    Genèse d’un trou noir

    En effet, si les trous blancs sont longtemps restés dans l’ombre, c’est « parce que contrairement aux trous noirs, il n’existe pas de mécanisme simple qui permet d’expliquer leur naissance », note Carlo Rovelli, du Centre de physique théorique (1). Le physicien italien est à l’origine, avec d’autres chercheurs, du scénario de formation des trous blancs et l’auteur d’un récent livre sur ces astres énigmatiques (2). Concernant la genèse des trous noirs, le phénomène est bien établi et parfaitement décrit par la relativité générale : lorsqu’une étoile d’au moins trois fois la masse du Soleil arrive en fin de vie, elle s’effondre sur elle-même. Dans une explosion gigantesque, une supernova, les couches externes de l’astre sont projetées dans le milieu interstellaire, tandis que son cœur se comprime et devient si dense qu’il forme un trou noir, délimité par un « horizon », une frontière à sens unique au-delà de laquelle rien ne peut plus ressortir, ni rayonnement ni matière.

    Réconcilier physique quantique et relativité générale

    Pour les trous blancs, l’histoire est plus compliquée et fait appel à une autre théorie, beaucoup plus récente : la gravitation quantique à boucles, développée à la fin des années 1980 par l’Américain Lee Smolin et Carlo Rovelli. Il s’agit d’une des tentatives les plus abouties pour réconcilier la théorie de la relativité générale d’Einstein et la physique quantique. La première décrit la déformation de l’espace et du temps sous l’effet de la matière à l’échelle de l’Univers. Dans ce cadre, la géométrie, variable, de cet espace-temps détermine les mouvements de la matière qu’on interprète comme étant dus à une force gravitationnelle. La seconde explique comment les particules élémentaires interagissent à l’échelle de l’infiniment petit.

    text alternatif

    Mais la relativité générale ne dit rien des particules élémentaires, tout comme la mécanique quantique ignore totalement les étoiles et autres galaxies. Parvenir à unifier ces deux visions dans une seule et même théorie dite de « gravité quantique » constitue ainsi un des défis majeurs de la physique actuelle pour mieux comprendre le monde qui nous entoure. À commencer par les trous noirs. Dans ces astres en effet, les deux théories se trouvent forcément mêlées puisqu’à la fois le champ gravitationnel qu’ils exercent est très fort et la matière y est concentrée à l’extrême. « C’est pour cette raison que la relativité générale échoue à elle seule à répondre à une question pourtant simple : que devient la matière qui tombe au cœur d’un trou noir ? », résume Carlo Rovelli.

    Quanta d’espace contre singularité

    D’après les équations d’Einstein, en effet, la concentration de la matière qui s’accumule au centre de l’astre devient telle qu’il finit par se former une singularité, un point où la densité d’énergie et la courbure de l’espace-temps deviennent infinies. Mais ces infinis ne peuvent pas avoir de réalité physique et sont au contraire le signe des limites de la théorie.

    text alternatif

    Pour aller plus loin et tenter de supprimer ce problème, la gravitation quantique à boucles stipule que l’espace lui-même est soumis aux phénomènes quantiques : de la même manière que la matière est composée d’atomes, l’espace est constitué de grains individuels, ou quantas, minuscules mais de taille finie. Ainsi, dans cette vision, l’espace ne peut pas être divisé à l’infini. Il est impossible de descendre sous la barre des 10(puiss -35) mètre. Et comme rien ne peut être plus petit que ce quantum d’espace, la singularité disparaît purement et simplement : au cœur du trou noir, quand la matière en effondrement sur elle-même atteint ces échelles de taille, il lui est impossible de se concentrer davantage. « Il se produit alors un changement fondamental. L’espace-temps génère en quelque sorte une force répulsive d’origine quantique qui s’oppose à l’effondrement et fait rebondir la matière », avance Carlo Rovelli. Au cours de cette transition quantique extrêmement brève – comme celles qui s’opèrent dans le monde des particules élémentaires –, la géométrie de l’espace-temps elle-même s’inverse, permettant à la matière qui auparavant se contractait d’être désormais expulsée. C’est ainsi que les trous noirs sont amenés à devenir des trous blancs, recrachant la matière qui s’était effondrée en leur sein.

    Crédible, ce scénario mis en équations par la gravité quantique à boucles donne du poids à l’existence de ces fontaines blanches. Qui plus est, il permet non seulement de régler le problème de la singularité des trous noirs mais aussi d’éliminer le fameux paradoxe de l’information posé par ces derniers et longtemps débattu par les physiciens. En effet, quand un objet tombe dans un trou noir, l’information qu’il porte avec lui semble perdue à tout jamais puisque rien en théorie ne peut ressortir d’un trou noir. Dès lors, ces ogres cosmiques constitueraient les seules régions de l’Univers où l’information n’est pas conservée. Mais si le destin d’un trou noir est de finir en trou blanc, alors le paradoxe est résolu simplement : toute l’information séquestrée par le trou noir se retrouve libérée par le trou blanc.

    Cache-cache dans les distorsions temporelles

    Toutefois, aussi séduisante soit-elle, l’hypothèse de la formation des trous blancs laisse une interrogation de taille : si les trous noirs se transforment fatalement en fontaines blanches, pourquoi ne les voit-on pas s’illuminer autour de nous l’un après l’autre ? En réalité, cette contradiction n’est qu’apparente car elle s’explique parfaitement dans le cadre de la relativité générale, où le temps est flexible. Un objet massif courbe l’espace-temps autour de lui de telle façon qu’il ralentit le temps. Sur Terre, par exemple, le temps s’écoule plus lentement au bord de la mer qu’en haut des montagnes, où la gravité est moindre.

    text alternatif

    Bien sûr, sur notre planète, l’effet est infime. « Mais dans un trou noir, la différence devient énorme : un temps très court proche de l’horizon correspond à un temps très long loin de ce dernier. Ainsi, le temps du rebond, qui n’excède pas quelques millisecondes pour le trou noir lui-même, peut correspondre à plusieurs milliards d’années pour un observateur éloigné », explique Aurélien Barrau, du Laboratoire de physique subatomique et de cosmologie (3). Résultat : si l’on ne voit pas de trous noirs s’embraser dans le ciel, c’est parce que, dans notre espace-temps à nous, ils n’en ont pas encore eu le temps.

    À la recherche des trous noirs primordiaux

    Doit-on alors faire définitivement une croix sur l’observation de ces hypothétiques trous blancs et renoncer du même coup à mettre à l’épreuve le modèle développé par les scientifiques ? Pour ceux issus de gros trous noirs, même de quelques masses solaires, inutile en effet d’espérer : ces derniers ne devraient se transformer qu’au bout d’un temps largement supérieur à l’âge de l’Univers. Mais à côté de ces monstres, il existerait une myriade de petits trous noirs qui pourraient déjà avoir entamé leur transformation. Car ceux-ci perdent constamment une partie de leur masse à cause d’un phénomène d’évaporation mis en évidence par le Britannique Stephen Hawking. « Par un effet lié aux fluctuations quantiques du vide, ils rayonnent de la lumière et leur masse diminue de plus en plus rapidement, jusqu’au point où peut se produire la transition quantique qui les fait devenir trous blancs », précise Carlo Rovelli.

    text alternatif

    De tels trous noirs suffisamment petits pour subir une évaporation assez rapide sont forcément des trous noirs primordiaux, des astres encore hypothétiques qui seraient nés juste après le Big Bang, quand l’Univers était très dense et très chaud. À cette époque, des accumulations localisées de matière auraient conduit à la formation de ces astres de masses et de tailles extrêmement variées, parmi lesquels certains seraient minuscules. C’est donc sur ces trous noirs originels, certes encore jamais observés, que les astronomes focalisent leur attention, dans l’espoir de détecter des indices de leur transformation en trou blanc.

    Comment les observer ?

    Mais comment ces fontaines blanches manifesteraient-elles leur présence ? Première possibilité : l’événement pourrait être très violent, le trou noir explosant brutalement en transformant une grande partie de sa masse en rayonnement. « D’après mes calculs, l’explosion libérerait un flot de photons gamma, sous la forme de flashs intenses et brefs. Il n’est donc pas impossible que certains sursauts gamma observés, très rapides et très énergétiques, viennent de l’explosion d’un trou noir en trou blanc », souligne Aurélien Barrau. Pour le chercheur, il serait même possible de faire la distinction entre ces différents phénomènes, car les signaux provenant des trous blancs devraient présenter selon lui une signature bien particulière : un décalage vers le rouge – du fait de son mouvement d’éloignement, un objet lointain voit sa lumière décalée vers le rouge – différent des autres astres. Un effet que l’on pourra peut-être mettre en évidence dans de futures observations en accumulant de grandes quantités de données sur les sources gamma enregistrées par de multiples instruments.

    text alternatif

    La matière noire faite de trous blancs ?

    Mais tous les trous noirs ne sont pas destinés à exploser violemment. Ayant évaporé la quasi-totalité de leur masse, certains d’entre eux deviendraient alors de minuscules et paisibles trous blancs, imperceptibles car n’émettant quasiment plus de rayonnement et dotés d’une espérance de vie très longue. « Les équations de la gravité quantique à boucles permettent de calculer précisément la masse de ces trous blancs : de l’ordre du microgramme. Cela peut paraître négligeable mais mis bout à bout, tous ces trous blancs pourraient contribuer de façon importante à la matière noire », s’enthousiasme Carlo Rovelli. Cette matière invisible, qui constituerait environ 27 % du contenu de l’Univers et dont la nature demeure mystérieuse, ne révèle sa présence aux astronomes que par ses effets gravitationnels. Avec les trous blancs, c’est une nouvelle piste qui s’ouvre pour tenter de résoudre ce mystère. Étant donné leur très faible masse, la détection de ces trous blancs serait extrêmement difficile. Mais le chercheur et son équipe réfléchissent d’ores et déjà à des détecteurs hyper sensibles capables d’une telle prouesse.

    Vers l’avènement de la gravité quantique à boucle ?

    La découverte de signaux en provenance de trous blancs serait une avancée majeure. Non seulement elle prouverait l’existence de ces astres mais, en confirmant la prédiction de la gravitation quantique à boucles, elle permettrait pour la première fois aux astronomes d’établir la nature quantique de l’espace-temps. « La recherche de ces signatures observationnelles est primordiale pour pouvoir affiner nos méthodes de calcul et construire une théorie de gravitation quantique qui décrit correctement notre Univers », souligne Etera Livine, du Laboratoire de physique de l’ENS de Lyon (4) qui travaille sur les développements mathématiques de la gravitation quantique à boucles.

    text alternatif

    Cette théorie a aujourd’hui le vent en poupe par rapport à d’autres théories de gravitation quantique, comme la théorie des cordes. Car ses prédictions convaincantes ne s’arrêtent pas à l’existence des trous blancs. Il y a quelques années, cette même théorie a permis en effet de résoudre un autre problème, posé cette fois par le Big Bang. Tout comme au cœur des trous noir, la relativité générale prédit l’apparition d’une singularité au début de l’Univers, lorsque toute la matière était concentrée dans un volume minuscule. De la même manière, la gravité quantique à boucles supprime cette singularité en décrivant comment l’Univers, d’abord en contraction, aurait rebondi avant de rentrer dans sa phase d’expansion actuelle. Là encore, les astronomes tentent de prédire les traces qu’aurait pu laisser ce grand rebond dans le fond diffus cosmologique, la première lumière de l’Univers émise 380 000 ans après le Big Bang. « Vu leurs très faibles niveaux d’intensité, de telles signatures ne seraient pas détectables par les instruments actuels. Mais nous avons bon espoir que les expériences futures pourront permettre de tester ce modèle », confie Aurélien Barrau. La gravitation quantique à boucles pourrait alors bouleverser notre vision de l’Univers.

    (1) Unité CNRS/Aix-Marseille Université/Université de Toulon. (2) Trous blancs, Carlo Rovelli, Flammarion, septembre 2023. (3) Unité CNRS/Université Grenoble-Alpes. (4) Unité CNRS/ENS Lyon.

    Source: https://lejournal.cnrs.fr/articles/voici-venu-le-temps-des-trous-blancs

  • Une lune de Saturne déclarée propice à la vie

    1
    1 Votes
    1 Messages
    31 Vues

    Mimas enferme sous sa surface glacée un improbable océan liquide.


    Mimas, petite lune de Saturne. Les astronomes l’ont longtemps comparée à l’Étoile de la mort de «Star Wars».

    Les astronomes la comparent à l’Étoile de la mort de «Star Wars» mais elle s’avère plus hospitalière qu’imaginé: Mimas, petite lune de Saturne, renferme sous sa surface glacée un improbable océan liquide propice à l’apparition de la vie, selon une étude publiée mercredi.

    Mimas vient compléter la famille des rares lunes du système solaire abritant de l’eau liquide sous leur banquise: Europe et Ganymède (autour de Jupiter), Encelade et Titan (autour de Saturne).

    «On ne s’y attendait pas»

    «S’il y a bien un endroit dans l’Univers où on ne s’attendait pas à trouver les conditions favorables à la vie, c’est bien Mimas», a expliqué lors d’une conférence de presse Valéry Lainey, principal auteur de l’étude parue dans Nature.

    Le satellite de la planète aux anneaux, découvert en 1789 par l’astronome William Herschel, n’avait «pas du tout la tête de l’emploi», raconte cet astronome à l’IMCCE (Institut de mécanique céleste et de calcul des éphémérides) de l’Observatoire de Paris-PSL.

    D’abord considérée inhabitable

    L’astre, de seulement 400 kilomètres de diamètre, était surnommée «lune de la mort» tant il semblait froid, inerte et donc inhabitable. En cause: sa surface criblée de cratères, dont un immense lui donnant de faux airs d’Etoile de la mort, la station de l’Empire galactique dans la saga «Star Wars».

    Sa coquille de glace semblait figée, sans traces d’activité géologique interne susceptible de la modifier. Au contraire de sa grande sœur Encelade, dont la surface lisse est régulièrement remodelée grâce à l’activité de son océan interne et de ses geysers – une source de chaleur nécessaire pour maintenir l’eau à l’état liquide.

    Puis une intuition…

    Les scientifiques avaient néanmoins l’intuition qu’il «se passait quelque chose à l’intérieur» de Mimas, raconte Valéry Lainey. Ils ont alors étudié la rotation du satellite sur lui-même et ses petites oscillations, appelées librations, qui peuvent varier en fonction de la structure interne de l’astre.

    Leurs premiers travaux, publiés en 2014, échouent à trancher en faveur d’un océan liquide. Une majorité de scientifiques penchant plutôt sur l’hypothèse d’un noyau rocheux.

    Recherches élargies

    «On aurait pu en rester là, mais nous étions frustrés», se souvient Valéry Lainey. Son équipe a alors récupéré plusieurs dizaines d’images prises par la sonde Cassini de la Nasa (2004-2017), afin d’élargir ses recherches à l’ensemble du système saturnien et 19 de ses lunes.

    Ces données ont permis d’analyser le mouvement orbital de Mimas autour de Saturne et la manière dont il affecte ses librations. Et de détecter d’infimes variations dans ces librations, de l’ordre de quelques centaines de mètres, trahissant la présence d’un océan liquide sous la totalité de la surface.

    «C’est la seule conclusion viable», soulignent Matija Cuk, de l’Institut SETI de recherche d’intelligence extra-terrestre (Californie), et Alyssa Rose Rhoden, du Southwest Research Institute à Boulder (Colorado), dans un commentaire joint aux travaux de Nature.

    L’océan se meut sous une épaisseur de glace de 20 à 30 kilomètres, comparable à celle d’Encelade, décrit l’étude. Il serait né sous l’influence de la gravité d’autres lunes de Saturne: des «effets de marée» qui secouent l’astre et créent de la chaleur empêchant son océan de geler.

    Mer formée récemment

    Les calculs suggèrent une mer formée récemment, il y a seulement entre 5 à 15 millions d’années, ce qui expliquerait pourquoi aucun signe géologique n’a encore été détecté en surface.

    La lune «réunit toutes les conditions pour l’habitabilité: de l’eau liquide, maintenue par une source de chaleur, en contact avec de la roche pour que se développent les échanges chimiques» indispensables à la vie, résume Nicolas Rambaux de l’IMCCE, l’un des auteurs.

    Réponse «dans les décennies à venir»

    Mimas peut-elle abriter des formes de vie primitive, comme des bactéries ou des archées ? «La question sera adressée aux prochaines missions spatiales dans les décennies à venir», anticipe Valéry Lainey.

    «Une chose est sûre: si vous cherchez les conditions les plus récentes d’habitabilité dans le système solaire, c’est Mimas qu’il faut regarder», conclut l’astronome.

    Source: https://www.lematin.ch/story/decouverte-une-lune-de-saturne-declaree-propice-a-la-vie-103038375

  • 0 Votes
    1 Messages
    33 Vues

    Il y a cinquante ans, une équipe française était à l’origine d’une découverte qui conduira à l’élaboration du modèle standard de la physique des particules.
    text alternatif
    En 1973, grâce à la chambre à bulles Gargamelle, l’équipe d’André Lagarrigue au Cern démontrait l’existence de courants neutres dans l’interaction faible. Un résultat qui permettait d’unifier en une seule théorie deux interactions fondamentales qu’on pensait jusqu’ici distinctes : la force électromagnétique, responsable de l’attraction/répulsion entre particules chargées électriquement, et la force faible, responsable de la radioactivité bêta. Le développement de cette théorie, dite « électrofaible », aboutira quelques années plus tard à l’édification du modèle standard, parachevé en 2012 par la découverte du boson de Higgs, et qui décrit l’ensemble des particules et des forces qui composent et régissant la matière connue.

    Désintégration bêta et force faible

    La découverte de la « force » faible remonte aux années 1930, quand le physicien Enrico Fermi a proposé l’existence d’une interaction expliquant la désintégration radioactive bêta, qui se manifeste, dans le noyau atomique, par la transformation d’un neutron en proton, accompagnée de l’émission d’un électron et d’un neutrino. À la fin des années 1950, les développements du modèle de Fermi postulent que cette interaction faible est « portée » par une particule médiatrice encore non observée mais baptisée « W » pour « weak ». En effet, selon la théorie quantique des champs, les interactions fondamentales entre particules de matière (aussi appelées « fermions ») sont « portées » par l’échange d’autres particules appelées « bosons ». La portée de ces interactions dépend alors de la masse de la particule médiatrice : plus sa masse est importante, plus la portée de la force sera limitée. Le photon, particule médiatrice de la force électromagnétique, est de masse nulle : la portée de cette interaction est donc infinie.
    text alternatif
    Mais le modèle de Fermi posait un problème majeur : « la masse de cette particule médiatrice devait être élevée, en cohérence avec une force de courte portée. Mais une masse non nulle aurait signifié que la symétrie fondamentale de la théorie était brisée, et la description de l’interaction faible par échange de boson ne pouvait plus fonctionner », précise Claude Charlot, directeur de recherche au Laboratoire Leprince-Ringuet (1) à l’École polytechnique.

    La théorie électrofaible

    La solution au problème sera apportée en 1964, avec le mécanisme de Brout-Englert-Higgs (2). « Il repose sur deux éléments : un champ quantique nouveau, appelé “champ de Higgs” et une brisure spontanée de la symétrie », note Claude Charlot. Une telle rupture de symétrie se serait manifestée, quelques fractions de secondes après le Big Bang, par un changement brusque de l’état d’énergie minimale de l’Univers ; à l’image d’une balle à l’équilibre sur un col entre deux vallées, qui tomberait d’un côté ou d’un autre pour atteindre un nouvel équilibre, au creux d’une des vallées. L’introduction du mécanisme de Higgs permettait ainsi de ne pas remettre en question la symétrie mathématique de la théorie faible.

    Quelques années plus tard, Martinus Veltman et Gerard t’Hooft ont reformulé le modèle pour obtenir des résultats sans infinis dans les calculs. S’appuyant sur ces calculs, Sheldon Glashow, Steven Weinberg et Abdus Salam élaborent la théorie électrofaible. « Aux bosons électriquement chargés W+ et W- déjà prédits par les théories faibles précédentes, la théorie électrofaible ajoute un troisième intermédiaire, le boson neutre Z0 », raconte Delphine Blanchard, doctorante en histoire des sciences au Centre Alexandre Koyré (3). Un hypothétique boson neutre dont l’existence devrait se manifester par l’observation d’un « courant neutre » en plus des « courants chargés » dus aux bosons W+ et W-.

    Le projet Gargamelle

    À la fin des années 1960, André Lagarrigue propose alors au Cern une série d’expériences sur l’interaction faible en exposant un faisceau de neutrinos et d’antineutrons dans la chambre à bulles Gargamelle. « L’idée de sa construction est née à la conférence de Sienne en 1963. Elle faisait 4,8 mètres de long, 2 mètres de diamètre et contenait environ 12 mètres cubes de fréon », se rappelle Bernard Degrange, directeur de recherche émérite au CNRS. « Le liquide est préalablement détendu pour être dans un état de pré-ébullition. L’énergie d’ionisation déposée localement par une particule chargée crée des bulles sur son passage. Des flashs éclairent l’intérieur du corps de la chambre et permettent de photographier les traces des particules chargées à l’aide des caméras », explique Claude Charlot.
    text alternatif
    Comme les neutrinos ne possèdent pas de charge, ils ne laissent aucune trace dans la chambre. Mais ils interagissent sur les noyaux des atomes constituants du fréon – carbone, fluor et brome – en produisant des particules chargées qui sont détectées. « Le fréon augmente la masse de cible, et donc la probabilité de détecter des interactions neutrinos. C’est aussi un moyen efficace d’identifier les électrons par rayonnement et de détecter par leur conversion en paires e+e- les photons gamma issus de l’interaction des neutrinos ou de la désintégration de particules secondaires. Enfin, la longueur moyenne d’interaction des neutrons dans le fréon est nettement inférieure aux dimensions de Gargamelle, on peut donc détecter leur présence », ajoute le chercheur.

    Deux types d’événements recherchés

    L’observation des courants neutres ne figurait alors qu’en huitième position sur la liste des choses à faire avec Gargamelle. « Lors des événements dans la chambre à bulles, il y avait huit vues stéréoscopiques, qui nous permettaient d’analyser les résultats sous plusieurs angles différents », se souvient Bernard Degrange. Dès la première expérience de la chambre en 1971, des interactions de neutrinos produisant un muon ou un électron sont observées, signatures du processus de courant chargé. Restaient 20 à 30 % d’événements qui ne comportaient ni muon ni électron à l’état final : ils pouvaient être dus soit à des neutrons, soit aux courants neutres tout récemment prédits. « C’est pourquoi, en 1971, on décide de mesurer aussi ces événements », ajoute Bernard Degrange. Deux types d’événements étaient particulièrement recherchés : l’interaction d’un neutrino avec un électron dans le liquide, et l’interaction d’un neutrino avec un hadron – un proton ou un neutron.
    text alternatif
    Mais comment savoir si l’on est en présence de courants neutres ou juste d’interactions de neutrons ? « Quand l’interaction de neutrinos produisait un neutron à l’extérieur du volume visible, l’interaction était classée “candidat courant neutre”. D’après les observations, il existait forcément des interactions neutrinos à courant neutre », explique Claude Charlot. Résultat : au mois de juillet 1973, les chercheurs confirmèrent 166 évènements hadroniques et un événement électronique. « Au cours du même mois, l’annonce de la découverte est faite au Cern par Paul Musset, et un papier pour chaque type d’événements sera envoyé à la revue scientifique Physics Letters, publiée le 3 septembre 1973 », résume Delphine Blanchard.

    Émergence du modèle standard

    En 1974, l’existence des courants neutres est confirmée par le groupe d’Argonne aux États-Unis, utilisant une chambre à hydrogène de 12 pieds, ainsi que par les expériences Harvard-Pennsylvania-Wisconsin et CalTech du laboratoire Fermi, ce qui ouvrira la voie à l’élaboration du modèle standard de la physique des particules. L’observation directe des bosons W et Z en 1983 par les collaborations UA1 et UA2 du Cern – qui vaudra à Carlo Rubia et Simon van der Meer le prix Nobel 1984 –, puis celle du boson de Higgs en 2012 au LHC, qui vaudra le prix Nobel 2013 à François Englert et Peter Higgs – complèteront et conforteront définitivement le modèle.
    text alternatif
    Toutefois, s’il reste à ce jour la meilleure description du monde subatomique, ce modèle standard laisse de nombreuses zones d’ombre : il n’explique par exemple ni les échelles de masses des différentes générations de quarks et de leptons, ni l’origine du champ de Higgs, ni la nature de la matière noire postulée par les astrophysiciens pour expliquer la formation et le maintien des galaxies et des amas galactiques. Autant d’énigmes que devra résoudre la physique du XXIe siècle…

    (1) Unité CNRS/École polytechnique. (1) Robert Brout, François Englert et Peter Higgs. (1) Unité CNRS/EHESS/MNHN.

    Source: https://lejournal.cnrs.fr/articles/aux-origines-du-modele-standard

  • 0 Votes
    2 Messages
    62 Vues
    Starlab, avec la moitié du volume de l’ISS, pourra tenir dans la soute de Starship

    La station spatiale commerciale Starlab sera lancée sur la fusée Starship de SpaceX, ont annoncé des responsables cette semaine.

    Starlab est une coentreprise entre la société américaine Voyager Space et la société aérospatiale multinationale européenne Airbus. L’entreprise construit une grande station avec un volume habitable équivalent à la moitié du volume pressurisé de la Station spatiale internationale et lancera la nouvelle station au plus tôt en 2028.

    “L’histoire de succès et de fiabilité de SpaceX a conduit notre équipe à sélectionner Starship pour orbiter autour de Starlab”, a déclaré Dylan Taylor, président-directeur général de Voyager Space, dans un communiqué. “SpaceX est le leader inégalé en matière de lancements à haute cadence et nous sommes fiers que Starlab soit mis en orbite en un seul vol par Starship.”

    Montage dans un grand carénage

    Starlab aura un diamètre d’environ 26 pieds (8 mètres). Ce n’est peut-être pas une coïncidence si la soute du Starship peut accueillir des véhicules mesurant jusqu’à 26 pieds de diamètre dans son carénage spacieux. Cependant, dans une interview, Marshall Smith, directeur de la technologie de Voyager Space, a déclaré que la société avait examiné plusieurs options de lancement.

    “Nous avons envisagé plusieurs lancements pour mettre Starlab en orbite, et nous avons finalement opté pour des options de lancement unique”, a-t-il déclaré. “Cela permet d’économiser une grande partie des coûts de développement. Cela permet d’économiser une grande partie des coûts d’intégration. Nous pouvons tout construire et vérifier sur le terrain, le tester et le lancer avec des charges utiles et d’autres systèmes. L’une des nombreuses leçons Ce que nous avons appris de la Station spatiale internationale, c’est que la construction et l’intégration dans l’espace coûtent très cher.”

    Avec un seul lancement sur un vaisseau spatial, le module Starlab devrait être prêt à être habité par des humains presque immédiatement, a déclaré Smith.

    Starlab est l’une des nombreuses stations spatiales développées par le secteur privé en lice pour remplacer commercialement la Station spatiale internationale, que la NASA devrait mettre hors service en 2030. Parmi les autres prétendants figurent Axiom Space, Blue Origin et Vast Space. SpaceX peut également configurer une version humaine de Starship comme station spatiale temporaire.

    La NASA a fourni un financement de démarrage à certaines de ces sociétés, dont Voyager Space, pour commencer à concevoir et développer leurs stations. La NASA devrait organiser un deuxième tour de concours l’année prochaine, au cours de laquelle elle sélectionnera une ou plusieurs entreprises pour procéder à la construction et aux tests de leurs stations.

    Trouver des clients

    Chaque entreprise développe une station spatiale qui servira à la fois aux clients gouvernementaux (la NASA souhaite continuer à faire voler au moins une poignée d’astronautes en orbite terrestre basse à des fins de recherche) et aux clients privés. Le défi pour Starlab et d’autres stations commerciales consiste à développer une clientèle au-delà de la NASA pour supporter les dépenses liées aux vols et à l’exploitation des stations.

    Le défi est de taille : la NASA a dépensé plus de 100 milliards de dollars pour construire la Station spatiale internationale et dispose d’un budget annuel de 3 milliards de dollars pour les opérations et le transport des personnes et des fournitures vers la station. L’agence est susceptible de financer des stations spatiales commerciales à hauteur d’environ 1 milliard de dollars par an. Ces entreprises doivent donc construire leurs installations relativement rapidement et à faible coût, puis trouver une base diversifiée de clients pour compenser leurs dépenses.

    Starlab pourrait avoir un avantage à cet égard avec sa copropriété avec Airbus. L’une des grandes questions entourant la fin de la Station spatiale internationale est de savoir ce qu’il adviendra des astronautes européens qui y volent désormais. L’Agence spatiale européenne sera probablement réticente à financer des missions vers des stations spatiales privées détenues et exploitées par des sociétés américaines. L’implication d’Airbus rend donc Starlab attractive pour les pays européens en tant que destination.

    Source: https://arstechnica.com/space/2024/02/by-launching-on-starship-the-starlab-station-can-get-to-orbit-in-one-piece/