Sciences

488 Sujets 2.2k Messages
  • 5 Votes
    9 Messages
    268 Vues

    @Pluton9 a dit dans La clé pour lutter contre la pseudoscience n’est pas la moquerie, c’est l’empathie :

    Paul M. Sutter est un crétin arrogant dans la pure tradition américaine qui prône que seuls ceux qui ont fait des études, peuvent être scientifiques et que seules leurs méthodes sont reconnaissables

    On en a un comme ça aussi chez nous 😁

  • 4 Votes
    11 Messages
    379 Vues

    Comment « faire vos propres recherches » peut vous conduire à des informations douteuses et à des théories du complot

    C’est pourtant simple : ne pas tout éponger au premier degré les égouts des réseaux “dits sociaux”, toujours rester maître de son libre-arbitre et de ses facultés de discernement sans céder aux chants des influenceurs quels qu’ils soient (idéologiques, politiques, marchands et publicitaires).

    Les plus perméables psychologiquement en attente et/ou en perte de repères ne le comprendront peut-être pas à leurs dépens. Mais ça viendra plus tard… ou pas.

  • Conseils aux planteurs de graines de doute

    Épinglé Déplacé
    1
    2 Votes
    1 Messages
    104 Vues

    J’ai un doute, mais je me soigne:

    Source: https://jaiundoute.com/

  • [Vidéos] Sciences, zététique et plus encore...

    Épinglé
    8
    6 Votes
    8 Messages
    331 Vues

    David Louapre, lauréat de la Médaille de la médiation scientifique 2023 du CNRS

    Chaque mois, une nouvelle vidéo vient expliquer un concept scientifique issu de la biologie, de l’astronomie, de la physique quantique… David Louapre s’occupe ainsi de la chaîne YouTube Science Étonnante, qui compte plus de 1,3 million d’abonnés pour 110 millions de vidéos vues.
    “Je suis animé par la volonté de transmettre à la société ce que j’ai eu la chance d’apprendre pendant mes études et mes recherches”, raconte ce docteur en physique théorique diplômé de l’ENS Lyon.

    Alors qu’il travaillait dans la recherche privée chez Saint-Gobain, David Louapre a ouvert un blog, qu’il a transformé en chaîne YouTube en 2015. Il y aborde les sujets scientifiques qui le passionnent, rencontrant un vif succès en ligne. Il a ensuite publié plusieurs ouvrages de vulgarisation, dont “Mais qui a attrapé le bison de Higgs ?”. David Louapre est également directeur scientifique chez Ubisoft, où il adapte des simulations et les modèles scientifiques au monde du jeu vidéo.

  • [Conseils lecture] Sciences, zététique et plus encore...

    Épinglé
    25
    4 Votes
    25 Messages
    686 Vues

    @Pollux a dit dans [Conseils lecture] Sciences, zététique et plus encore... :

    Juste un dernier petit mot avant de vous laisser tranquille
    Je serais curieux de savoir comment, dans les années 20, ont été traités les gens, parce que pense qu’il y en a eu, qui émettaient des réserves sur ce nouveau produit miracle qu’était le radium.
    Cf le post de darkCainou un peu plus haut.

    C’est pourtant évident 😉
    si on se réfère à la crise actuelle…

    La plupart des scientifiques se sont montrés prudents, avant même l’utilisation massive, ils ont pris beaucoup de risques pour les tout premiers avec leur santé, mais rapidement ils ont mis un frein à l’utilisation débridée. Même si à l’époque cette science était très neuve (celle de la matière, les atomes etc… je ne parle pas de la radioactivité)

    Ensuite les charlatans, les scientifiques rebelles, les bonimenteurs, les entreprises ont utilisés ça en masse malgré les avertissements du corps scientifique (un peu comme Raoult et la chloroquine (qui a beaucoup tué, et les gens ont suivi leur gourou aveuglement comme pour le radium)), pour finalement sous la pression beaucoup trop tardive des états (surtout le notre 20/30 ans de retard sur le radium, toujours bien lent à réagir comme pour la crise de l’hydroxychloroquine). Il faut dire qu’il n’y avait pas les mêmes gardes fous, la science dans l’histoire de l’humanité, celle basée sur les preuves c’est assez récent.

    Heureusement, le Radium était tellement cher, les stocks mondiaux se comptaient en grammes que la plupart des entreprises qui vendait la radioactivité dans leurs produits (je parle des produits de beauté, alimentation etc…) n’en mettaient en fait pas, passé une époque.

    Dans le cas présent, les processus scientifiques ne sont plus du tout les même que y’a 120 ans, l’arnm n’est pas une nouvelle technologie découverte y’a 2 ans, il y a presque 30 ans de savoir accumulés, et ça se base sur un corpus de connaissances bien plus complètes sur l’adn et l’arn.

    Si on devait comparer au radium, se serait plus comme si on utilisait le premier vaccin ARNm dans les années 60 juste après la découverte et que posant un problème des scientifiques douteux continueraient à l’utiliser.

    L’ARNm du virus quand on attrape la covid on en est envahi complètement, rien à voir avec le vaccin et la petite dose, le risque de retro transcription est beaucoup plus important alors avec le virus, de même avec les effets secondaires.

  • Tourisme spatial, Fram2 est lancée

    2
    0 Votes
    2 Messages
    28 Vues

    Avec un peu de bol et quelques accidents, on aura moins de milliardaires américains soutiens du blondinet… Allez y! Volez messieurs dames 👹

  • Quel est l'intérêt de ces lignes sur les serviettes ?

    7
    1 Votes
    7 Messages
    108 Vues

    Parfait !
    Utilisez votre linge pour vous torcher le trou de balle. Ces motifs plats, en plus d’être décoratifs, sont là pour vous aider à enlever le dernier ptit bout récalcitrant qui vous résiste.
    Après quelques utilisations, hop -> dans la machine avec vos chemises.

    Ne revez pas de toilettes japonaises qui coûtent une fortune.

  • 0 Votes
    15 Messages
    132 Vues

    @Pluton9 Donc, ils donnent bien du pognon pour ariane, alors au final c’est quoi le problème ? C’est parce que c’est juste des intermédiaires ? Et puis non, ne réponds pas à cette question, je m’en tape le coquillard et je ne bosse pour aucun des trois. :lol:

  • La vraie I.A. apprend à raisonner

    1
    0 Votes
    1 Messages
    35 Vues

    Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?

    Résoudre cette petite énigme demande un peu de réflexion (et une lecture attentive de l’énoncé). Vous pourriez imaginer une famille de trois filles et un garçon, puis réaliser que le garçon a trois sœurs. Ou bien vous pourriez trouver une règle plus générale : chaque garçon de la famille aura une sœur de plus que chaque fille. Autrement dit, la réponse à une telle énigme n’est pas immédiate, comme Paris est la capitale de la France ; elle requiert du raisonnement, une caractéristique essentielle de l’intelligence humaine, que les grands modèles linguistiques (MLL) comme GPT-4, malgré leur comportement impressionnant, peinent à maîtriser.

    *J’ai soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), et j’ai obtenu la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. En effet, plusieurs systématiques études ont montré que GPT-4 et les modèles similaires manquent de capacités de raisonnement robuste, ce qui limite leur utilité dans de nombreux domaines. Des astuces incitatives, comme l’ajout de « Réfléchissons étape par étape » à la fin d’une requête pour encourager un meilleur raisonnement, peuvent parfois améliorer les capacités de résolution de problèmes des étudiants en LLM, mais elles n’ont pas été suffisamment efficaces pour transformer ces systèmes en raisonneurs robustes.

    Pour remédier à ce problème, de nombreuses entreprises d’intelligence artificielle (IA) de premier plan ont récemment créé de nouveaux types de systèmes d’IA, souvent appelés grands modèles de raisonnement (LRM), spécialement entraînés pour effectuer certains types de raisonnement. Parmi ceux-ci figurent les modèles o1 et o3 d’OpenAI, Claude d’Anthropic avec son « mode de pensée étendu », Gemini 2.0 Flash Thinking Experimental de l’entreprise chinoise DeepSeek de Google et le modèle R1.

    Si vous soumettez à un LRM une énigme comme celle-ci, il générera ce que l’on appelle une « chaîne de pensée » : des énoncés en langage naturel décrivant étape par étape un processus de raisonnement apparemment plausible. Par exemple, j’ai soumis l’énigme des « sœurs » au modèle o1 d’OpenAI. Contrairement à GPT-4o, le modèle o1 me fournit sa chaîne de pensée pour arriver à la (bonne) réponse :

    Julia a deux sœurs. Il y a donc trois filles au total (Julia et deux autres). Julia a également un frère, nommé Martin. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). Martin a donc trois sœurs.

    Cela ressemble beaucoup à une pensée humaine à voix haute, et en effet, o1 et d’autres LRM sont entraînés sur de nombreux exemples de chaînes de pensée générées par l’homme. La capacité à générer de telles étapes de raisonnement a permis aux LRM d’atteindre de nouveaux sommets de performance dans des tests de performance difficiles en sciences, mathématiques et codage. Par exemple, OpenAI a indiqué que son modèle o1 s’est classé parmi les 500 meilleurs étudiants américains lors d’une épreuve de qualification pour les Olympiades de mathématiques américaines et a dépassé la précision des doctorants dans un test de performance portant sur des problèmes de physique, de biologie et de chimie. D’autres LRM ont atteint des performances similaires.

    Certaines entreprises misent gros sur les LRM comme base d’assistants IA commercialement lucratifs. OpenAI, par exemple, a mis à disposition ses meilleurs LRM et son « Outil de Recherche approfondie » associé à des abonnés payant 200 $ par mois, et envisagerait de facturer jusqu’à 20 000 $ par mois pour des modèles de raisonnement capables de mener des recherches de niveau doctorat.

    Mais certains chercheurs remettent en question tout l’engouement suscité par les LRM et se demandent si ces modèles, comme le titrait un article , « réfléchissent et raisonnent réellement, ou font-ils simplement semblant ? » Autrement dit, leur entraînement à la chaîne de pensée leur permet-il de raisonner de manière générale et robuste, ou réussissent-ils sur certains critères étroitement définis en imitant simplement le raisonnement humain sur lequel ils ont été formés ?

    Je reviendrai plus en détail sur ces questions plus tard, mais je vais d’abord esquisser comment fonctionnent ces modèles et comment ils sont formés.
    Un LRM repose sur un « modèle de base » pré-entraîné, un LLM tel que GPT-4o. Dans le cas de DeepSeek, le modèle de base était leur propre LLM pré-entraîné, appelé V3. (La dénomination des modèles d’IA peut prêter à confusion.) Ces modèles de base ont été entraînés sur d’énormes quantités de texte généré par l’homme, l’objectif étant de prédire le prochain jeton (c’est-à-dire un mot ou une partie de mot) dans une séquence de texte.

    Le modèle de base est ensuite « post-entraîné », c’est-à-dire qu’il est entraîné plus avant, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour le puzzle des « sœurs ». Après cet entraînement spécifique, lorsqu’un problème lui est posé, le LRM ne génère pas des jetons un par un, mais des chaînes de pensée entières. Ces chaînes de pensée peuvent être très longues.

    Contrairement à GPT-4o, par exemple, qui génère un nombre relativement faible de jetons, un par un, lorsqu’un problème lui est posé, des modèles comme o1 peuvent générer des centaines, voire des milliers d’étapes de chaîne de pensée, totalisant parfois des centaines de milliers de jetons générés (dont la plupart ne sont pas révélés à l’utilisateur). Et comme les clients utilisant ces modèles à grande échelle sont facturés au jeton, cela peut s’avérer très coûteux.

    Ainsi, un LRM effectue beaucoup plus de calculs qu’un LLM pour générer une réponse. Ces calculs peuvent impliquer la génération de nombreuses chaînes de pensée possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou encore une recherche plus sophistiquée parmi les possibilités, semblable à la recherche « anticipation » que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup. Avec un modèle comme o1, ces calculs se déroulent en arrière-plan ; l’utilisateur ne voit qu’un résumé des étapes de la chaîne de pensée générées.

    Pour ce faire, l’entraînement ultérieur des LRM utilise généralement deux méthodes d’apprentissage automatique : l’apprentissage supervisé et l’apprentissage par renforcement. L’apprentissage supervisé peut consister à entraîner les LRM sur des étapes de raisonnement générées par des experts humains hautement rémunérés, ou sur des chaînes de pensée générées par un autre modèle d’IA, où chaque étape est évaluée par des humains ou par un autre modèle d’IA.

    L’apprentissage par renforcement est, en revanche, une méthode non supervisée, dans laquelle le LRM génère lui-même un ensemble complet d’étapes de raisonnement menant à une réponse. Le modèle n’est « récompensé » que pour avoir obtenu la bonne réponse et pour avoir présenté les étapes de raisonnement dans un format lisible par l’homme (par exemple, en les numérotant séquentiellement).

    La puissance de l’apprentissage par renforcement sur un grand nombre d’essais réside dans le fait que le modèle peut identifier les étapes qui fonctionnent et celles qui ne fonctionnent pas, même s’il ne reçoit aucun retour supervisé (coûteux) sur la qualité de ces étapes. Le prix Turing 2025, la récompense la plus prestigieuse de l’informatique, a notamment été décerné à deux chercheurs qui ont contribué au développement des méthodes d’apprentissage par renforcement de base aujourd’hui utilisées pour entraîner les LRM.

    Il est intéressant de noter que DeepSeek a montré que les méthodes d’apprentissage par renforcement, sans aucun apprentissage supervisé, produisaient un modèle performant sur de nombreux critères de raisonnement. Comme l’expliquent les chercheurs de DeekSeek , ce résultat « souligne la puissance et la beauté de l’apprentissage par renforcement : plutôt que d’enseigner explicitement au modèle comment résoudre un problème, nous lui fournissons simplement les incitations appropriées, et il développe de manière autonome des stratégies avancées de résolution de problèmes. » L’accent mis sur l’apprentissage par renforcement plutôt que sur l’apprentissage supervisé a été l’un des facteurs qui ont permis à DeepSeek de créer un LRM dont la formation et l’utilisation sont bien moins coûteuses que celles des LRM équivalents créés par des entreprises américaines.

    Un débat important a eu lieu au sein de la communauté de l’IA pour savoir si les LRM « raisonnent véritablement » ou « imitent simplement » le type de raisonnement humain présent dans les données de pré-entraînement ou de post-entraînement. Un blog spécialisé a qualifié o1 de « premier exemple de modèle doté de véritables capacités de raisonnement général ». D’autres étaient plus sceptiques. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de « méta-mimétisme » ; autrement dit, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de « pensée à voix haute » humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution robuste et générale des problèmes.

    Bien sûr, la signification même de « raisonnement authentique » n’est pas claire. « Raisonnement » est un terme générique qui désigne de nombreux types de processus cognitifs de résolution de problèmes ; les humains utilisent une multitude de stratégies, notamment le recours à des étapes mémorisées, des heuristiques spécifiques (« règles empiriques »), des analogies avec des solutions passées et parfois même une véritable logique déductive.

    Dans les modèles LRM, le terme « raisonnement » semble être assimilé à la génération d’étapes en langage naturel apparemment plausibles pour résoudre un problème. La mesure dans laquelle cela offre des capacités de résolution de problèmes générales et interprétables reste une question ouverte. Les performances de ces modèles sur les tests de mathématiques, de sciences et de codage sont indéniablement impressionnantes. Cependant, leur robustesse globale reste largement à tester, notamment pour les tâches de raisonnement qui, contrairement à celles sur lesquelles les modèles ont été testés, n’ont pas de réponses claires ni d’étapes de résolution clairement définies, ce qui est le cas de nombreux problèmes du monde réel, voire de la plupart, sans parler de « l’amélioration du climat, l’établissement d’une colonie spatiale et la découverte de toute la physique », autant d’accomplissements que Sam Altman d’OpenAI attend de l’IA à l’avenir. Et bien que les chaînes de pensée des modèles LRM soient vantées pour leur « interprétabilité humaine », il reste à déterminer dans quelle mesure ces « pensées » en langage naturel générées représentent fidèlement ce qui se passe réellement au sein du réseau neuronal lors de la résolution d’un problème. De nombreuses études (menées avant l’avènement des LRM) ont montré que lorsque les LLM génèrent des explications pour leur raisonnement, les explications ne sont pas toujours fidèles à ce que fait réellement le modèle.

    De plus, le langage anthropomorphique utilisé dans ces modèles peut induire les utilisateurs en erreur et les amener à leur accorder une confiance excessive. Les étapes de résolution de problèmes générées par les LRM sont souvent appelées « pensées » ; les modèles eux-mêmes nous indiquent qu’ils « réfléchissent » ; certains modèles entremêlent même les étapes de raisonnement avec des mots comme « Hmm », « Ah ! » ou « Attendez ! » pour les rendre plus humaines. Selon un porte-parole d’OpenAI, « les utilisateurs nous ont indiqué que comprendre comment le modèle raisonne à travers une réponse permet non seulement de prendre des décisions plus éclairées, mais aussi de renforcer la confiance dans ses réponses. » Mais la question est de savoir si les utilisateurs construisent la confiance principalement sur la base de ces touches humaines, alors que le modèle sous-jacent est loin d’être fiable.

    Des recherches supplémentaires sont nécessaires pour répondre à ces questions importantes de robustesse, de fiabilité et d’interprétabilité des LRM. De telles recherches sont difficiles à mener sur des modèles tels que ceux d’OpenAI, de Google et d’Anthropic, car ces entreprises ne publient pas leurs modèles ni de nombreux détails sur leur fonctionnement. Il est encourageant de constater que DeepSeek a publié les pondérations du modèle R1, un rapport détaillé sur son apprentissage et a permis au système de montrer pleinement ses chaînes de pensée, ce qui facilitera la recherche sur ses capacités. Espérons que cela incitera d’autres entreprises d’IA à faire preuve d’une transparence similaire quant à leurs créations.

    Source: https://www.science.org/doi/10.1126/science.adw5211

  • Dans la jungle du home-cinéma

    35
    10 Votes
    35 Messages
    2k Vues

    Petit ajout dans le guide pour le nouveau format sonore IAMF, voir aussi ici et ici:

    IAMF (pour Immersive Audio Model and Formats)

    d6d27b04-2ac3-46a8-bc50-e795a1dcdfec-image.png

    Les trois caractéristiques de la technologie IAMF : audio vertical, audio basé sur l’IA et audio personnalisé

    La technologie IAMF offre trois fonctionnalités distinctes qui améliorent l’expérience audio. (dixit Samsung, je ne l’ai pas encore entendu).

    Capacité à exprimer le son verticalement

    Les anciens codecs audio open source ne prenaient en charge que l’expression sonore horizontale. Grâce à la technologie IAMF, l’audio peut désormais être exprimé verticalement, ce qui rend le son de plus en plus multidirectionnel. « L’IAMF rend le son plus réaliste, en permettant aux auditeurs d’entendre le son devant, derrière ou de chaque côté, mais aussi au-dessus ou en dessous », explique Nam. « Ainsi, lorsque la technologie IAMF est appliquée aux enceintes et barres de son de votre téléviseur, les auditeurs peuvent entendre des sons tels que des oiseaux volant au-dessus de leur tête sur leur téléviseur. »

    Analyse de scène basée sur l’IA et effets audio 3D

    L’IAMF utilise l’IA et l’apprentissage profond pour analyser les scènes et mettre en valeur certains aspects du contenu, en ajustant les niveaux audio pour un son plus riche tout au long de l’expérience. « À la télévision et au cinéma, certaines scènes sont principalement axées sur la bande-son ou la musique de fond », explique Nam. « L’IAMF équilibre alors le son. De même, la technologie ajuste le son avec précision lors des dialogues entre personnages afin de permettre à l’auditeur de se concentrer sur la conversation. »

    De plus, la technologie IAMF offre un son optimal malgré les variations de l’environnement de l’appareil. « En ajustant les données audio d’analyse de la scène en fonction de l’environnement de l’appareil, la technologie IAMF permet aux auditeurs de profiter de la qualité sonore originale du contenu sur des téléviseurs domestiques standard », a ajouté Hwang.

    Audio hautement personnalisé

    Grâce à la technologie IAMF, les utilisateurs pourront ajuster librement le son selon leurs préférences. Que les spectateurs souhaitent amplifier les effets sonores d’une scène d’action ou enrichir les dialogues, IAMF leur offre la possibilité de personnaliser le son du contenu pour une expérience plus personnalisée.

    e36c7968-72a4-4bff-8f2c-2f52114e1481-image.png
    L’IAMF analyse les données du contenu et permet aux spectateurs d’ajuster et de personnaliser les paramètres audio. Lors d’un match sportif, les utilisateurs peuvent choisir directement de mettre en valeur la voix du commentateur ou les sons du match lui-même.

    L’audio 3D dans toute l’industrie grâce à l’IAMF open source (comme le HDR libre de droits)

    L’open source est essentiel à la création d’une norme unifiée pour l’ensemble du secteur. IAMF est la première norme technologique audio open source adoptée par AOM, ce qui signifie que les créateurs de contenu, qu’ils soient professionnels ou indépendants, peuvent accéder à cette technologie et en étendre l’utilisation.

    « Pour permettre à chacun de créer librement du contenu grâce à la technologie audio 3D, il est nécessaire que les technologies associées soient accessibles à tous », a déclaré Nam. « Fournir un cadre open source complet pour l’audio 3D, de la création à la diffusion et à la lecture, permettra des expériences audio encore plus diversifiées à l’avenir. »

    De même, Park a souligné l’impact considérable que la technologie IAMF aura sur le paysage audio à l’avenir. « Parce que nous vivons à une époque dominée par la création de contenu, l’IAMF contribuera à orienter, développer et transformer l’écosystème audio 3D », a-t-il déclaré.

    Le succès obtenu grâce à la coopération

    Les recherches sur l’IAMF ont débuté en 2020 et ont duré près de quatre ans. Grâce à la persévérance et au travail acharné de l’équipe, celle-ci a pu atteindre son objectif.

    « Le projet a nécessité de nombreuses journées de travail non-stop, et il nous a parfois fallu travailler de nuit en raison du décalage horaire entre nos bureaux et ceux de Google », a déclaré Hwang.

    Source: https://news.samsung.com/my/interview-movie-quality-audio-from-the-comfort-of-your-home-meet-the-leaders-of-next-generation-3d-audio-technology

    Voir aussi: https://aomediacodec.github.io/iamf/v1.1.0.html

  • 3 Votes
    3 Messages
    43 Vues

    @Aurel tout s’explique! :ahah:

  • Série documentaire Cultures Animales sur ARTE

    1
    1 Votes
    1 Messages
    21 Vues

    le film “Partager des traditions” est disponible dès aujourd’hui sur la plateforme web d’ARTE pour un mois, avant une diffusion prochaine à la télévision.

    Lien vers la playlist de la série :

    https://www.arte.tv/fr/videos/RC-026462/cultures-animales/

    Cet épisode de 52 minutes vous emmènera au cœur des traditions animales, en mettant notamment en lumière nos recherches sur les macaques japonais, financées par l’Université de Strasbourg, le CNRS, et l’Institut universitaire de France (IUF). Vous découvrirez comment ces primates apprennent, transmettent et adaptent leurs comportements culturels au fil du temps.

    Pour aller plus loin :
    - Les péripéties d’un primatologue aux Éditions Odile Jacob
    - Le Dernier Gorille chez Tana Éditions

  • 1 Votes
    1 Messages
    21 Vues

    66e850ca-036e-4ba8-be24-f577dc1c3124-image.png

    Le télescope spatial Gaia de l’Agence spatiale européenne a terminé sa mission de cartographie de la Voie lactée jeudi avec une commande l’envoyant vers une “orbite de retraite”, selon un communiqué de l’ESA. L’exploitation de ses données se poursuivra jusqu’en 2030.

    Gaia a révolutionné notre connaissance de la Voie lactée. Lancé le 19 décembre 2013 par l’Agence spatiale européenne (ESA), le satellite a dressé ses observations depuis une orbite stable à 1,5 million de kilomètres de la Terre, le point de Lagrange L2.

    Afin d’éviter qu’une fois inactif il ne menace d’autres instruments travaillant à cet endroit, comme les télescopes spatiaux James Webb ou Euclid, l’ESA a lancé jeudi les dernières commandes à Gaia (lire encadré).

    Avec une impulsion, ses moteurs vont l’amener sur une “orbite de retraite” autour du Soleil, avec la garantie qu’il restera à au moins dix millions de kilomètres de la Terre pour les cent ans à venir.

    Un catalogue des objets de la Voie lactée

    En onze ans, la machine a dressé une véritable carte de la galaxie et permis de mieux comprendre son origine, son évolution et sa forme actuelle. Grâce notamment à un catalogue d’actuellement plus de 1,8 milliard d’étoiles dont la position, les caractéristiques et le mouvement dévoilent son histoire.

    Source et plus: https://www.rts.ch/info/sciences-tech/2025/article/gaia-le-telescope-qui-a-revolutionne-notre-vision-de-la-voie-lactee-28835864.html

  • 2 Votes
    2 Messages
    56 Vues

    Merci pour le partage de ce genre d’infos…

  • 1 Votes
    1 Messages
    31 Vues

    L’entreprise de l’aérospatiale chinoise Galactic Energy prévoit de déployer une rampe de lancement géante pour fusées. Le système doit utiliser des aimants supraconducteurs pour propulser les lanceurs spatiaux au-delà de Mach 1 (1235 km/h) avant de procéder à leur allumage.

    fac7b842-d356-40c5-8f41-84aced0802c4-image.png
    Le lancement d’engins spatiaux propulsés par la technologie maglev a également été étudié par des chercheurs américains au début des années 2000. Le Maglifter imaginé en 2003 devait accélérer jusqu’à plus de 900 km/h.

    L’idée est de faire comme avec les trains Maglev… Mais à la verticale. L’entreprise aérospatiale chinoise Galactic Energy prévoit de déployer la première rampe de lancement géante pour fusées au monde d’ici à 2028. Basée sur la lévitation électromagnétique, la plateforme de lancement est actuellement testée dans la région du Sichuan, dans le sud-ouest de la Chine, par l’entreprise d’État China aerospace science and industry corporation, selon le South China morning post.

    Comparable aux trains à lévitation magnétique, le système développé par l’entreprise privée utilise des aimants supraconducteurs pour accélérer silencieusement les fusées jusqu’à des vitesses supersoniques. Objectif, dépasser Mach 1, soit 1235 km/h, avant de procéder à l’allumage du lanceur. La longueur de la rampe, sans doute démesurée, n’est pas précisée.

    Source: https://www.usinenouvelle.com/article/en-chine-cette-entreprise-veut-lancer-des-fusees-grace-a-une-rampe-de-lancement-a-aimants.N2229549

  • 2 Votes
    1 Messages
    25 Vues

    Sur sa face cachée, la Lune possède la preuve qu’un cataclysme s’est produit à sa surface il y a bien longtemps. La vaste dépression du bassin Pôle Sud-Aitken, qui mesure 2 500 km de diamètre pour 13 km de profondeur, est en effet le résultat d’un impact d’astéroïde extrêmement violent.

    Découvert dans les années 1960 grâce aux premières sondes envoyées vers la Lune, ce bassin est depuis intensément étudié. Si son origine est aujourd’hui clairement liée à un impact géant, sa datation restait cependant encore incertaine, notamment à cause du manque de données directes. Une incertitude qui pèse sur notre compréhension de l’histoire de la Lune.

    ea5cec4a-9a8f-4243-b0ab-33270b65eef4-image.png
    Carte topographique du bassin Pôle Sud-Aitken à partir des données de Kaguya.

    Les précieux échantillons de Chang’e-6

    C’est notamment pour tenter d’éclaircir ce point que la mission Chang’e-6 a été imaginée par l’Administration spatiale nationale chinoise. En juin 2024, la sonde est ainsi la première à se poser sur la face cachée de la Lune, dans le bassin Pôle Sud-Aitken, pour y faire des prélèvements. Quelques jours plus tard, l’étage de remontée s’arrache à la gravité lunaire avec à son bord de précieux échantillons de roches lunaires qui seront rapportés avec succès sur Terre pour être analysés.

    De nouveaux résultats viennent ainsi d’être publiés dans la revue National Science Review. Les scientifiques de l’Académie des Sciences chinoise se sont ainsi intéressés à la datation de certains échantillons de roches fondues identifiées comme étant liées à un impact. Et les résultats ont mis en lumière l’existence non pas d’un seul, mais de deux événements distincts, datés respectivement de 4,25 et de 3,87 milliards d’années.

    Un impact très précoce dans l’histoire de la Lune

    Pour les chercheurs, la formation du bassin correspondrait toutefois à la date de 4,25 milliards d’années, en raison des conditions de cristallisations identifiées dans ces échantillons. Ces résultats issus d’analyses d’échantillons prélevés directement dans le bassin permettent donc de valider l’âge très ancien de cet impact, qui se serait ainsi produit seulement 320 millions d’années après la formation du Système solaire.

    Source: https://www.futura-sciences.com/sciences/actualites/espace-mission-chinoise-revele-lune-subi-impact-cataclysmique-il-y-425-milliards-annees-120687/

  • La lune, future guerre des étoiles ?

    76
    0 Votes
    76 Messages
    2k Vues
    Vu que les préparatifs se poursuivent, il semble de plus en plus probable que la NASA lance la mission Artemis II

    Tard samedi soir, les techniciens du Centre spatial Kennedy en Floride ont déplacé l’étage central de la deuxième fusée du système de lancement spatial de la NASA en position entre les deux propulseurs à combustible solide du véhicule.

    À l’intérieur de l’emblématique bâtiment d’assemblage des véhicules, haut de 52 étages, les équipes au sol ont utilisé des grues robustes pour soulever l’étage central orange caramel de son berceau dans l’immense couloir de transfert du VAB, le passage central reliant les quatre baies d’assemblage de la fusée. Les grues ont ensuite fait pivoter la structure verticalement, permettant aux ouvriers de détacher l’une des grues du bas de la fusée.

    La fusée était alors suspendue à un pont roulant de 325 tonnes, qui la hisserait par-dessus le tableau arrière jusqu’à la grande baie nord-est du bâtiment. L’étage principal, construit par Boeing, pèse environ 94 tonnes (85 tonnes métriques), mesure environ 65 mètres de haut et contiendra 730 000 gallons de propergol cryogénique au décollage. Il s’agit du plus gros élément de la mission Artemis II de la NASA, qui doit transporter un équipage d’astronautes autour de la face cachée de la Lune dès l’année prochaine.

    Enfin, les équipes au sol ont descendu la fusée entre les deux propulseurs à propergol solide du Space Launch System déjà empilés sur une plate-forme de lancement mobile à l’intérieur de High Bay 3, où la NASA a assemblé les navettes spatiales et les fusées Saturn V pour les missions lunaires Apollo.

    Dimanche, les équipes du VAB ont connecté l’étage central à chaque booster aux points d’attache avant et arrière. Après avoir effectué les connexions électriques et de données, les ingénieurs placeront un adaptateur conique sur l’étage central, suivi de l’étage supérieur de la fusée, d’un autre anneau adaptateur, et enfin du vaisseau spatial Orion qui accueillera l’équipage de quatre personnes d’Artemis II pour son voyage de dix jours dans l’espace lointain.

    4d7f1a68-a738-46b5-ae7e-6e5406ed6eba-image.png

    Premier vol habité

    Il s’agira du premier vol habité du programme Artemis de la NASA, qui vise à faire atterrir des astronautes sur le pôle Sud lunaire et, à terme, à établir une présence humaine durable sur la Lune, en vue de futures expéditions vers Mars. Le premier alunissage habité du programme est prévu pour la mission Artemis III, utilisant toujours SLS et Orion, mais avec un nouvel élément : l’énorme fusée Starship de SpaceX servira d’atterrisseur lunaire habitable. Artemis II n’atterrira pas, mais transportera des humains à proximité de la Lune pour la première fois depuis 1972.

    L’étage principal d’Artemis II est arrivé de son usine de Louisiane l’année dernière, et la NASA a commencé à empiler les propulseurs d’appoint à poudre SLS en novembre. Parmi les autres avancées récentes sur la voie d’Artemis II, citons l’installation des panneaux solaires du vaisseau spatial Orion et la fermeture du module de service du vaisseau au Centre spatial Kennedy, avec des panneaux aérodynamiques qui seront largués lors du lancement.

    Dès le mois prochain, le vaisseau spatial Orion sera transféré vers une autre installation à Kennedy pour le ravitaillement en carburant, puis vers un autre bâtiment pour rejoindre son système d’interruption de lancement avant de rejoindre le VAB pour y être empilé sur le système de lancement spatial. Avant la mission inhabitée Artemis I en 2022, il a fallu environ huit mois pour mener à bien ces activités avant de livrer Orion au VAB. Il est donc légitime d’être sceptique quant à la date de lancement prévue par la NASA pour Artemis II, fixée à avril 2026, qui accuse déjà des années de retard.

    Cependant, la lente progression vers le lancement se poursuit. Il y a quelques mois, certains acteurs bien informés de la communauté spatiale pensaient qu’il était fort possible que l’administration Trump annule rapidement le Space Launch System de la NASA, ce vaisseau lourd et coûteux conçu pour envoyer des astronautes de la Terre à la Lune. La possibilité la plus immédiate était de mettre fin au programme SLS avant son lancement avec Artemis II.

    Cette possibilité semble avoir été écartée par les circonstances. Les fusées les plus souvent citées comme remplaçantes du système de lancement spatial – Starship de SpaceX et New Glenn de Blue Origin – ne seront probablement pas autorisées à effectuer des missions habitées avant plusieurs années au moins.

    912fc50c-2251-4356-9c33-da32ae649e53-image.png
    Le vaisseau spatial Orion de la mission Artemis II, ici avec ses panneaux solaires installés pour le vol, juste avant leur enclos dans des carénages aérodynamiques pour les protéger lors du lancement.

    Le Starship entièrement réutilisable promet à long terme un coût et des performances nettement supérieurs à ceux du système de lancement spatial. Cependant, il a subi plusieurs échecs consécutifs en début d’année, soulevant des questions sur la conception améliorée du Starship de SpaceX, connue sous le nom de « Version 2 » ou « Bloc 2 ». Une fois les problèmes de conception résolus, SpaceX devra prouver sa capacité à récupérer et réutiliser des Starships et à tester les capacités de ravitaillement en orbite du véhicule. Le New Glenn de Blue Origin a effectué un premier vol réussi en janvier, mais son prochain vol est probablement prévu dans six mois ou plus.

    L’architecture actuelle de la NASA a encore une durée de vie limitée, et l’agence disposera probablement de plusieurs options pour transporter les astronautes vers et depuis la Lune dans les années 2030. Une décision sur l’avenir à long terme du SLS et d’Orion n’est pas attendue avant que le candidat de l’administration Trump au poste d’administrateur de la NASA, Jared Isaacman, ne prenne ses fonctions après confirmation par le Sénat.

    Quel avenir pour le programme SLS ?

    Il existe différents degrés d’annulation. La plus draconienne serait un ordre immédiat d’arrêter les préparatifs d’Artemis II. Cette éventualité semble moins probable qu’il y a quelques mois et entraînerait des coûts. Le démontage et l’élimination des pièces de la fusée SLS et du vaisseau spatial Orion d’Artemis II coûteraient des millions de dollars. L’annulation de contrats de plusieurs milliards de dollars avec Boeing, Northrop Grumman et Lockheed Martin exposerait la NASA à des coûts de résiliation importants.

    Bien sûr, ces engagements seraient inférieurs aux 4,1 milliards de dollars estimés par l’inspecteur général de la NASA pour chacune des quatre premières missions Artemis. La majeure partie de cet argent a déjà été dépensée pour Artemis II, mais si la NASA dépense plusieurs milliards de dollars pour chaque mission Artemis, il ne restera plus beaucoup d’argent pour d’autres projets intéressants.

    D’autres options pour la NASA pourraient être de fixer un point de transition à partir duquel le programme Artemis quitterait la fusée Space Launch System, et peut-être même le vaisseau spatial Orion, et passerait à de nouveaux véhicules.

    dd31b324-8351-4941-9a28-9a2cb69b0063-image.png
    Vue plongeante sur le système de lancement spatial d’Artemis II

    Une autre possibilité, qui semble facile à saisir pour les décideurs d’Artemis, pourrait être d’annuler le développement d’un étage supérieur d’exploration plus grand pour la fusée SLS. Si le calendrier de la NASA prévoit un nombre limité de vols SLS, il est difficile de justifier le coût estimé de 5,7 milliards de dollars pour le développement de la version améliorée du Bloc 1B du Système de Lancement Spatial. Il existe des options commerciales pour remplacer l’étage supérieur d’exploration de la fusée, construit par Boeing, comme mon collègue Eric Berger l’a judicieusement décrit dans un article de fond l’année dernière.

    Pour l’instant, il semble que le mastodonte orange de la NASA ait encore un peu de vie. Tout le matériel nécessaire à la mission Artemis II est arrivé sur le site de lancement en Floride.

    L’administration Trump publiera sa demande de budget pour l’exercice 2026 dans les prochaines semaines. La NASA pourrait alors avoir un administrateur permanent, et le voile sur les projets de la Maison-Blanche pour Artemis sera levé.

    Source: https://arstechnica.com/space/2025/03/as-preps-continue-its-looking-more-likely-nasa-will-fly-the-artemis-ii-mission/

  • 2 Votes
    7 Messages
    86 Vues

    WOW put1 c’est le retour de la SpacePirateAgency! :ahah:

    Vu en Norvège il y a une quinzaine d’années:

  • Uranus est beaucoup plus chaud que nous le pensions

    1
    0 Votes
    1 Messages
    30 Vues

    dbe189a9-873f-421d-a720-7cbe45437bd3-image.png

    Deux équipes ont conclu séparément qu’Uranus dégageait plus de chaleur interne que ce qu’indiquaient les observations de Voyager 2. Au lieu de simplement réfléchir la chaleur du Soleil, elle en ajoute une partie. Les articles doivent encore être examinés par des pairs, mais, outre le fait que les équipes parviennent indépendamment à des conclusions similaires, ces résultats rapprochent Uranus de ses homologues géantes gazeuses.

    Les planètes possèdent trois sources de chaleur : l’énergie résiduelle du potentiel gravitationnel de leurs composants, la radioactivité et la chaleur du Soleil. La première rend initialement les planètes très chaudes, ce qui nous permet d’observer de jeunes planètes à des années-lumière, mais elle s’est largement dissipée après plus de 4 milliards d’années. L’équilibre entre les deux autres dépend du degré de radioactivité des isotopes qui composent la planète et de leur distance au Soleil.

    Les missions Voyager ont révélé une divergence apparente entre Uranus et les trois autres géantes gazeuses. Contrairement aux autres, Uranus ne semblait pas dégager de chaleur excédentaire au-delà de sa réflexion de la lumière solaire, suggérant une faible concentration d’isotopes radioactifs. Uranus et Neptune étant très similaires sur de nombreux points, cette différence était surprenante, et les comparaisons avec Jupiter et Saturne ont indiqué que c’était Uranus qui était l’anomalie.

    Nous ne sommes pas retournés sur Uranus depuis, mais les télescopes sur Terre et en orbite ont suffisamment progressé pour permettre un deuxième regard.

    Le professeur Patrick Irwin de l’Université d’Oxford et ses coauteurs ont utilisé des observations réalisées entre 2000 et 2009 par le télescope spatial Hubble, le télescope Gemini Nord d’Hawaï et le télescope infrarouge de la NASA. Ils ont ensuite cherché à corriger le fait qu’Uranus était proche de son équinoxe à ce moment-là, et non proche du solstice lors du passage de Voyager.

    Une équipe dirigée par Xinyue Wang, étudiant diplômé de l’Université de Houston, a utilisé des observations datant du milieu du 20e siècle et a ajouté celles provenant d’instruments plus avancés au fur et à mesure qu’elles devenaient disponibles, extrapolant ainsi à une orbite entière de 84 ans.

    Les deux équipes concluent que Voyager 2 a mal mesuré Uranus (une hypothèse presque hérétique) ou qu’elle est passée près d’Uranus à un moment inhabituel, ce qui a conduit les planétologues à une conclusion erronée. Des preuves suggèrent que cela pourrait être le cas pour d’autres caractéristiques de la planète ; il pourrait donc y avoir une explication.

    Quoi qu’il en soit, « Uranus n’est pas aussi étrange que nous le pensions », a déclaré Irwin à ScienceNews .

    Les deux équipes concluent qu’Uranus réfléchit davantage de chaleur dans l’espace que ce que Voyager a rapporté, ce qui suggère une source interne. Les équipes diffèrent légèrement quant à la quantité de chaleur excédentaire – 12,5 % pour l’une, 15 % pour l’autre –, mais les marges d’erreur se chevauchent, ce qui les rend pratiquement identiques.

    Les deux estimations de l’excès de chaleur restent bien inférieures à celles de toutes les autres planètes géantes : Neptune produit tellement de chaleur interne qu’elle rayonne plus de deux fois plus qu’elle n’en reçoit, et les deux autres sont proches. « Uranus reste une exception », a déclaré Irwin à ScienceNews.

    Les raisons de ce phénomène restent obscures, mais pourraient être liées à la collision qui aurait renversé Uranus . L’extrême inclinaison de l’axe d’Uranus accroît les variations saisonnières de la quantité de chaleur qu’elle dégage, raison pour laquelle l’équipe de Wang a choisi de réaliser des estimations sur une orbite entière.

    Wang et ses coauteurs déclarent : « La mission phare Uranus, telle que recommandée par la récente étude décennale, fournira des observations cruciales pour répondre à des questions encore non résolues et approfondir notre compréhension de cette énigmatique géante de glace », mais dans le contexte scientifique actuel aux États-Unis, les chances que cela se produise sont incertaines. Il y aura une fenêtre d’opportunité pour bénéficier d’une augmentation de la gravité de Jupiter, réduisant considérablement le coût et la durée de la mission, mais cela nécessite un lancement en 2032 ; des décisions doivent donc être prises rapidement.

    Source: https://www.iflscience.com/uranus-is-much-hotter-than-we-thought-78453

  • Coucher de soleil lunaire

    5
    1 Votes
    5 Messages
    78 Vues

    @patricelg non, creuse :mouhaha: