Sciences

518 Sujets 2.3k Messages
  • Tourisme spatial, Fram2 est lancée

    2
    0 Votes
    2 Messages
    41 Vues

    Avec un peu de bol et quelques accidents, on aura moins de milliardaires américains soutiens du blondinet… Allez y! Volez messieurs dames 👹

  • Quel est l'intérêt de ces lignes sur les serviettes ?

    7
    1 Votes
    7 Messages
    192 Vues

    Parfait !
    Utilisez votre linge pour vous torcher le trou de balle. Ces motifs plats, en plus d’être décoratifs, sont là pour vous aider à enlever le dernier ptit bout récalcitrant qui vous résiste.
    Après quelques utilisations, hop -> dans la machine avec vos chemises.

    Ne revez pas de toilettes japonaises qui coûtent une fortune.

  • 0 Votes
    15 Messages
    269 Vues

    @Pluton9 Donc, ils donnent bien du pognon pour ariane, alors au final c’est quoi le problème ? C’est parce que c’est juste des intermédiaires ? Et puis non, ne réponds pas à cette question, je m’en tape le coquillard et je ne bosse pour aucun des trois. :lol:

  • La vraie I.A. apprend à raisonner

    1
    0 Votes
    1 Messages
    44 Vues

    Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?

    Résoudre cette petite énigme demande un peu de réflexion (et une lecture attentive de l’énoncé). Vous pourriez imaginer une famille de trois filles et un garçon, puis réaliser que le garçon a trois sœurs. Ou bien vous pourriez trouver une règle plus générale : chaque garçon de la famille aura une sœur de plus que chaque fille. Autrement dit, la réponse à une telle énigme n’est pas immédiate, comme Paris est la capitale de la France ; elle requiert du raisonnement, une caractéristique essentielle de l’intelligence humaine, que les grands modèles linguistiques (MLL) comme GPT-4, malgré leur comportement impressionnant, peinent à maîtriser.

    *J’ai soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), et j’ai obtenu la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. En effet, plusieurs systématiques études ont montré que GPT-4 et les modèles similaires manquent de capacités de raisonnement robuste, ce qui limite leur utilité dans de nombreux domaines. Des astuces incitatives, comme l’ajout de « Réfléchissons étape par étape » à la fin d’une requête pour encourager un meilleur raisonnement, peuvent parfois améliorer les capacités de résolution de problèmes des étudiants en LLM, mais elles n’ont pas été suffisamment efficaces pour transformer ces systèmes en raisonneurs robustes.

    Pour remédier à ce problème, de nombreuses entreprises d’intelligence artificielle (IA) de premier plan ont récemment créé de nouveaux types de systèmes d’IA, souvent appelés grands modèles de raisonnement (LRM), spécialement entraînés pour effectuer certains types de raisonnement. Parmi ceux-ci figurent les modèles o1 et o3 d’OpenAI, Claude d’Anthropic avec son « mode de pensée étendu », Gemini 2.0 Flash Thinking Experimental de l’entreprise chinoise DeepSeek de Google et le modèle R1.

    Si vous soumettez à un LRM une énigme comme celle-ci, il générera ce que l’on appelle une « chaîne de pensée » : des énoncés en langage naturel décrivant étape par étape un processus de raisonnement apparemment plausible. Par exemple, j’ai soumis l’énigme des « sœurs » au modèle o1 d’OpenAI. Contrairement à GPT-4o, le modèle o1 me fournit sa chaîne de pensée pour arriver à la (bonne) réponse :

    Julia a deux sœurs. Il y a donc trois filles au total (Julia et deux autres). Julia a également un frère, nommé Martin. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). Martin a donc trois sœurs.

    Cela ressemble beaucoup à une pensée humaine à voix haute, et en effet, o1 et d’autres LRM sont entraînés sur de nombreux exemples de chaînes de pensée générées par l’homme. La capacité à générer de telles étapes de raisonnement a permis aux LRM d’atteindre de nouveaux sommets de performance dans des tests de performance difficiles en sciences, mathématiques et codage. Par exemple, OpenAI a indiqué que son modèle o1 s’est classé parmi les 500 meilleurs étudiants américains lors d’une épreuve de qualification pour les Olympiades de mathématiques américaines et a dépassé la précision des doctorants dans un test de performance portant sur des problèmes de physique, de biologie et de chimie. D’autres LRM ont atteint des performances similaires.

    Certaines entreprises misent gros sur les LRM comme base d’assistants IA commercialement lucratifs. OpenAI, par exemple, a mis à disposition ses meilleurs LRM et son « Outil de Recherche approfondie » associé à des abonnés payant 200 $ par mois, et envisagerait de facturer jusqu’à 20 000 $ par mois pour des modèles de raisonnement capables de mener des recherches de niveau doctorat.

    Mais certains chercheurs remettent en question tout l’engouement suscité par les LRM et se demandent si ces modèles, comme le titrait un article , « réfléchissent et raisonnent réellement, ou font-ils simplement semblant ? » Autrement dit, leur entraînement à la chaîne de pensée leur permet-il de raisonner de manière générale et robuste, ou réussissent-ils sur certains critères étroitement définis en imitant simplement le raisonnement humain sur lequel ils ont été formés ?

    Je reviendrai plus en détail sur ces questions plus tard, mais je vais d’abord esquisser comment fonctionnent ces modèles et comment ils sont formés.
    Un LRM repose sur un « modèle de base » pré-entraîné, un LLM tel que GPT-4o. Dans le cas de DeepSeek, le modèle de base était leur propre LLM pré-entraîné, appelé V3. (La dénomination des modèles d’IA peut prêter à confusion.) Ces modèles de base ont été entraînés sur d’énormes quantités de texte généré par l’homme, l’objectif étant de prédire le prochain jeton (c’est-à-dire un mot ou une partie de mot) dans une séquence de texte.

    Le modèle de base est ensuite « post-entraîné », c’est-à-dire qu’il est entraîné plus avant, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour le puzzle des « sœurs ». Après cet entraînement spécifique, lorsqu’un problème lui est posé, le LRM ne génère pas des jetons un par un, mais des chaînes de pensée entières. Ces chaînes de pensée peuvent être très longues.

    Contrairement à GPT-4o, par exemple, qui génère un nombre relativement faible de jetons, un par un, lorsqu’un problème lui est posé, des modèles comme o1 peuvent générer des centaines, voire des milliers d’étapes de chaîne de pensée, totalisant parfois des centaines de milliers de jetons générés (dont la plupart ne sont pas révélés à l’utilisateur). Et comme les clients utilisant ces modèles à grande échelle sont facturés au jeton, cela peut s’avérer très coûteux.

    Ainsi, un LRM effectue beaucoup plus de calculs qu’un LLM pour générer une réponse. Ces calculs peuvent impliquer la génération de nombreuses chaînes de pensée possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou encore une recherche plus sophistiquée parmi les possibilités, semblable à la recherche « anticipation » que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup. Avec un modèle comme o1, ces calculs se déroulent en arrière-plan ; l’utilisateur ne voit qu’un résumé des étapes de la chaîne de pensée générées.

    Pour ce faire, l’entraînement ultérieur des LRM utilise généralement deux méthodes d’apprentissage automatique : l’apprentissage supervisé et l’apprentissage par renforcement. L’apprentissage supervisé peut consister à entraîner les LRM sur des étapes de raisonnement générées par des experts humains hautement rémunérés, ou sur des chaînes de pensée générées par un autre modèle d’IA, où chaque étape est évaluée par des humains ou par un autre modèle d’IA.

    L’apprentissage par renforcement est, en revanche, une méthode non supervisée, dans laquelle le LRM génère lui-même un ensemble complet d’étapes de raisonnement menant à une réponse. Le modèle n’est « récompensé » que pour avoir obtenu la bonne réponse et pour avoir présenté les étapes de raisonnement dans un format lisible par l’homme (par exemple, en les numérotant séquentiellement).

    La puissance de l’apprentissage par renforcement sur un grand nombre d’essais réside dans le fait que le modèle peut identifier les étapes qui fonctionnent et celles qui ne fonctionnent pas, même s’il ne reçoit aucun retour supervisé (coûteux) sur la qualité de ces étapes. Le prix Turing 2025, la récompense la plus prestigieuse de l’informatique, a notamment été décerné à deux chercheurs qui ont contribué au développement des méthodes d’apprentissage par renforcement de base aujourd’hui utilisées pour entraîner les LRM.

    Il est intéressant de noter que DeepSeek a montré que les méthodes d’apprentissage par renforcement, sans aucun apprentissage supervisé, produisaient un modèle performant sur de nombreux critères de raisonnement. Comme l’expliquent les chercheurs de DeekSeek , ce résultat « souligne la puissance et la beauté de l’apprentissage par renforcement : plutôt que d’enseigner explicitement au modèle comment résoudre un problème, nous lui fournissons simplement les incitations appropriées, et il développe de manière autonome des stratégies avancées de résolution de problèmes. » L’accent mis sur l’apprentissage par renforcement plutôt que sur l’apprentissage supervisé a été l’un des facteurs qui ont permis à DeepSeek de créer un LRM dont la formation et l’utilisation sont bien moins coûteuses que celles des LRM équivalents créés par des entreprises américaines.

    Un débat important a eu lieu au sein de la communauté de l’IA pour savoir si les LRM « raisonnent véritablement » ou « imitent simplement » le type de raisonnement humain présent dans les données de pré-entraînement ou de post-entraînement. Un blog spécialisé a qualifié o1 de « premier exemple de modèle doté de véritables capacités de raisonnement général ». D’autres étaient plus sceptiques. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de « méta-mimétisme » ; autrement dit, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de « pensée à voix haute » humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution robuste et générale des problèmes.

    Bien sûr, la signification même de « raisonnement authentique » n’est pas claire. « Raisonnement » est un terme générique qui désigne de nombreux types de processus cognitifs de résolution de problèmes ; les humains utilisent une multitude de stratégies, notamment le recours à des étapes mémorisées, des heuristiques spécifiques (« règles empiriques »), des analogies avec des solutions passées et parfois même une véritable logique déductive.

    Dans les modèles LRM, le terme « raisonnement » semble être assimilé à la génération d’étapes en langage naturel apparemment plausibles pour résoudre un problème. La mesure dans laquelle cela offre des capacités de résolution de problèmes générales et interprétables reste une question ouverte. Les performances de ces modèles sur les tests de mathématiques, de sciences et de codage sont indéniablement impressionnantes. Cependant, leur robustesse globale reste largement à tester, notamment pour les tâches de raisonnement qui, contrairement à celles sur lesquelles les modèles ont été testés, n’ont pas de réponses claires ni d’étapes de résolution clairement définies, ce qui est le cas de nombreux problèmes du monde réel, voire de la plupart, sans parler de « l’amélioration du climat, l’établissement d’une colonie spatiale et la découverte de toute la physique », autant d’accomplissements que Sam Altman d’OpenAI attend de l’IA à l’avenir. Et bien que les chaînes de pensée des modèles LRM soient vantées pour leur « interprétabilité humaine », il reste à déterminer dans quelle mesure ces « pensées » en langage naturel générées représentent fidèlement ce qui se passe réellement au sein du réseau neuronal lors de la résolution d’un problème. De nombreuses études (menées avant l’avènement des LRM) ont montré que lorsque les LLM génèrent des explications pour leur raisonnement, les explications ne sont pas toujours fidèles à ce que fait réellement le modèle.

    De plus, le langage anthropomorphique utilisé dans ces modèles peut induire les utilisateurs en erreur et les amener à leur accorder une confiance excessive. Les étapes de résolution de problèmes générées par les LRM sont souvent appelées « pensées » ; les modèles eux-mêmes nous indiquent qu’ils « réfléchissent » ; certains modèles entremêlent même les étapes de raisonnement avec des mots comme « Hmm », « Ah ! » ou « Attendez ! » pour les rendre plus humaines. Selon un porte-parole d’OpenAI, « les utilisateurs nous ont indiqué que comprendre comment le modèle raisonne à travers une réponse permet non seulement de prendre des décisions plus éclairées, mais aussi de renforcer la confiance dans ses réponses. » Mais la question est de savoir si les utilisateurs construisent la confiance principalement sur la base de ces touches humaines, alors que le modèle sous-jacent est loin d’être fiable.

    Des recherches supplémentaires sont nécessaires pour répondre à ces questions importantes de robustesse, de fiabilité et d’interprétabilité des LRM. De telles recherches sont difficiles à mener sur des modèles tels que ceux d’OpenAI, de Google et d’Anthropic, car ces entreprises ne publient pas leurs modèles ni de nombreux détails sur leur fonctionnement. Il est encourageant de constater que DeepSeek a publié les pondérations du modèle R1, un rapport détaillé sur son apprentissage et a permis au système de montrer pleinement ses chaînes de pensée, ce qui facilitera la recherche sur ses capacités. Espérons que cela incitera d’autres entreprises d’IA à faire preuve d’une transparence similaire quant à leurs créations.

    Source: https://www.science.org/doi/10.1126/science.adw5211

  • 3 Votes
    3 Messages
    54 Vues

    @Aurel tout s’explique! :ahah:

  • Série documentaire Cultures Animales sur ARTE

    1
    1 Votes
    1 Messages
    29 Vues

    le film “Partager des traditions” est disponible dès aujourd’hui sur la plateforme web d’ARTE pour un mois, avant une diffusion prochaine à la télévision.

    Lien vers la playlist de la série :

    https://www.arte.tv/fr/videos/RC-026462/cultures-animales/

    Cet épisode de 52 minutes vous emmènera au cœur des traditions animales, en mettant notamment en lumière nos recherches sur les macaques japonais, financées par l’Université de Strasbourg, le CNRS, et l’Institut universitaire de France (IUF). Vous découvrirez comment ces primates apprennent, transmettent et adaptent leurs comportements culturels au fil du temps.

    Pour aller plus loin :
    - Les péripéties d’un primatologue aux Éditions Odile Jacob
    - Le Dernier Gorille chez Tana Éditions

  • 1 Votes
    1 Messages
    36 Vues

    66e850ca-036e-4ba8-be24-f577dc1c3124-image.png

    Le télescope spatial Gaia de l’Agence spatiale européenne a terminé sa mission de cartographie de la Voie lactée jeudi avec une commande l’envoyant vers une “orbite de retraite”, selon un communiqué de l’ESA. L’exploitation de ses données se poursuivra jusqu’en 2030.

    Gaia a révolutionné notre connaissance de la Voie lactée. Lancé le 19 décembre 2013 par l’Agence spatiale européenne (ESA), le satellite a dressé ses observations depuis une orbite stable à 1,5 million de kilomètres de la Terre, le point de Lagrange L2.

    Afin d’éviter qu’une fois inactif il ne menace d’autres instruments travaillant à cet endroit, comme les télescopes spatiaux James Webb ou Euclid, l’ESA a lancé jeudi les dernières commandes à Gaia (lire encadré).

    Avec une impulsion, ses moteurs vont l’amener sur une “orbite de retraite” autour du Soleil, avec la garantie qu’il restera à au moins dix millions de kilomètres de la Terre pour les cent ans à venir.

    Un catalogue des objets de la Voie lactée

    En onze ans, la machine a dressé une véritable carte de la galaxie et permis de mieux comprendre son origine, son évolution et sa forme actuelle. Grâce notamment à un catalogue d’actuellement plus de 1,8 milliard d’étoiles dont la position, les caractéristiques et le mouvement dévoilent son histoire.

    Source et plus: https://www.rts.ch/info/sciences-tech/2025/article/gaia-le-telescope-qui-a-revolutionne-notre-vision-de-la-voie-lactee-28835864.html

  • 2 Votes
    2 Messages
    72 Vues

    Merci pour le partage de ce genre d’infos…

  • 1 Votes
    1 Messages
    38 Vues

    L’entreprise de l’aérospatiale chinoise Galactic Energy prévoit de déployer une rampe de lancement géante pour fusées. Le système doit utiliser des aimants supraconducteurs pour propulser les lanceurs spatiaux au-delà de Mach 1 (1235 km/h) avant de procéder à leur allumage.

    fac7b842-d356-40c5-8f41-84aced0802c4-image.png
    Le lancement d’engins spatiaux propulsés par la technologie maglev a également été étudié par des chercheurs américains au début des années 2000. Le Maglifter imaginé en 2003 devait accélérer jusqu’à plus de 900 km/h.

    L’idée est de faire comme avec les trains Maglev… Mais à la verticale. L’entreprise aérospatiale chinoise Galactic Energy prévoit de déployer la première rampe de lancement géante pour fusées au monde d’ici à 2028. Basée sur la lévitation électromagnétique, la plateforme de lancement est actuellement testée dans la région du Sichuan, dans le sud-ouest de la Chine, par l’entreprise d’État China aerospace science and industry corporation, selon le South China morning post.

    Comparable aux trains à lévitation magnétique, le système développé par l’entreprise privée utilise des aimants supraconducteurs pour accélérer silencieusement les fusées jusqu’à des vitesses supersoniques. Objectif, dépasser Mach 1, soit 1235 km/h, avant de procéder à l’allumage du lanceur. La longueur de la rampe, sans doute démesurée, n’est pas précisée.

    Source: https://www.usinenouvelle.com/article/en-chine-cette-entreprise-veut-lancer-des-fusees-grace-a-une-rampe-de-lancement-a-aimants.N2229549

  • 2 Votes
    1 Messages
    38 Vues

    Sur sa face cachée, la Lune possède la preuve qu’un cataclysme s’est produit à sa surface il y a bien longtemps. La vaste dépression du bassin Pôle Sud-Aitken, qui mesure 2 500 km de diamètre pour 13 km de profondeur, est en effet le résultat d’un impact d’astéroïde extrêmement violent.

    Découvert dans les années 1960 grâce aux premières sondes envoyées vers la Lune, ce bassin est depuis intensément étudié. Si son origine est aujourd’hui clairement liée à un impact géant, sa datation restait cependant encore incertaine, notamment à cause du manque de données directes. Une incertitude qui pèse sur notre compréhension de l’histoire de la Lune.

    ea5cec4a-9a8f-4243-b0ab-33270b65eef4-image.png
    Carte topographique du bassin Pôle Sud-Aitken à partir des données de Kaguya.

    Les précieux échantillons de Chang’e-6

    C’est notamment pour tenter d’éclaircir ce point que la mission Chang’e-6 a été imaginée par l’Administration spatiale nationale chinoise. En juin 2024, la sonde est ainsi la première à se poser sur la face cachée de la Lune, dans le bassin Pôle Sud-Aitken, pour y faire des prélèvements. Quelques jours plus tard, l’étage de remontée s’arrache à la gravité lunaire avec à son bord de précieux échantillons de roches lunaires qui seront rapportés avec succès sur Terre pour être analysés.

    De nouveaux résultats viennent ainsi d’être publiés dans la revue National Science Review. Les scientifiques de l’Académie des Sciences chinoise se sont ainsi intéressés à la datation de certains échantillons de roches fondues identifiées comme étant liées à un impact. Et les résultats ont mis en lumière l’existence non pas d’un seul, mais de deux événements distincts, datés respectivement de 4,25 et de 3,87 milliards d’années.

    Un impact très précoce dans l’histoire de la Lune

    Pour les chercheurs, la formation du bassin correspondrait toutefois à la date de 4,25 milliards d’années, en raison des conditions de cristallisations identifiées dans ces échantillons. Ces résultats issus d’analyses d’échantillons prélevés directement dans le bassin permettent donc de valider l’âge très ancien de cet impact, qui se serait ainsi produit seulement 320 millions d’années après la formation du Système solaire.

    Source: https://www.futura-sciences.com/sciences/actualites/espace-mission-chinoise-revele-lune-subi-impact-cataclysmique-il-y-425-milliards-annees-120687/

  • 2 Votes
    7 Messages
    96 Vues

    WOW put1 c’est le retour de la SpacePirateAgency! :ahah:

    Vu en Norvège il y a une quinzaine d’années:

  • Uranus est beaucoup plus chaud que nous le pensions

    1
    0 Votes
    1 Messages
    36 Vues

    dbe189a9-873f-421d-a720-7cbe45437bd3-image.png

    Deux équipes ont conclu séparément qu’Uranus dégageait plus de chaleur interne que ce qu’indiquaient les observations de Voyager 2. Au lieu de simplement réfléchir la chaleur du Soleil, elle en ajoute une partie. Les articles doivent encore être examinés par des pairs, mais, outre le fait que les équipes parviennent indépendamment à des conclusions similaires, ces résultats rapprochent Uranus de ses homologues géantes gazeuses.

    Les planètes possèdent trois sources de chaleur : l’énergie résiduelle du potentiel gravitationnel de leurs composants, la radioactivité et la chaleur du Soleil. La première rend initialement les planètes très chaudes, ce qui nous permet d’observer de jeunes planètes à des années-lumière, mais elle s’est largement dissipée après plus de 4 milliards d’années. L’équilibre entre les deux autres dépend du degré de radioactivité des isotopes qui composent la planète et de leur distance au Soleil.

    Les missions Voyager ont révélé une divergence apparente entre Uranus et les trois autres géantes gazeuses. Contrairement aux autres, Uranus ne semblait pas dégager de chaleur excédentaire au-delà de sa réflexion de la lumière solaire, suggérant une faible concentration d’isotopes radioactifs. Uranus et Neptune étant très similaires sur de nombreux points, cette différence était surprenante, et les comparaisons avec Jupiter et Saturne ont indiqué que c’était Uranus qui était l’anomalie.

    Nous ne sommes pas retournés sur Uranus depuis, mais les télescopes sur Terre et en orbite ont suffisamment progressé pour permettre un deuxième regard.

    Le professeur Patrick Irwin de l’Université d’Oxford et ses coauteurs ont utilisé des observations réalisées entre 2000 et 2009 par le télescope spatial Hubble, le télescope Gemini Nord d’Hawaï et le télescope infrarouge de la NASA. Ils ont ensuite cherché à corriger le fait qu’Uranus était proche de son équinoxe à ce moment-là, et non proche du solstice lors du passage de Voyager.

    Une équipe dirigée par Xinyue Wang, étudiant diplômé de l’Université de Houston, a utilisé des observations datant du milieu du 20e siècle et a ajouté celles provenant d’instruments plus avancés au fur et à mesure qu’elles devenaient disponibles, extrapolant ainsi à une orbite entière de 84 ans.

    Les deux équipes concluent que Voyager 2 a mal mesuré Uranus (une hypothèse presque hérétique) ou qu’elle est passée près d’Uranus à un moment inhabituel, ce qui a conduit les planétologues à une conclusion erronée. Des preuves suggèrent que cela pourrait être le cas pour d’autres caractéristiques de la planète ; il pourrait donc y avoir une explication.

    Quoi qu’il en soit, « Uranus n’est pas aussi étrange que nous le pensions », a déclaré Irwin à ScienceNews .

    Les deux équipes concluent qu’Uranus réfléchit davantage de chaleur dans l’espace que ce que Voyager a rapporté, ce qui suggère une source interne. Les équipes diffèrent légèrement quant à la quantité de chaleur excédentaire – 12,5 % pour l’une, 15 % pour l’autre –, mais les marges d’erreur se chevauchent, ce qui les rend pratiquement identiques.

    Les deux estimations de l’excès de chaleur restent bien inférieures à celles de toutes les autres planètes géantes : Neptune produit tellement de chaleur interne qu’elle rayonne plus de deux fois plus qu’elle n’en reçoit, et les deux autres sont proches. « Uranus reste une exception », a déclaré Irwin à ScienceNews.

    Les raisons de ce phénomène restent obscures, mais pourraient être liées à la collision qui aurait renversé Uranus . L’extrême inclinaison de l’axe d’Uranus accroît les variations saisonnières de la quantité de chaleur qu’elle dégage, raison pour laquelle l’équipe de Wang a choisi de réaliser des estimations sur une orbite entière.

    Wang et ses coauteurs déclarent : « La mission phare Uranus, telle que recommandée par la récente étude décennale, fournira des observations cruciales pour répondre à des questions encore non résolues et approfondir notre compréhension de cette énigmatique géante de glace », mais dans le contexte scientifique actuel aux États-Unis, les chances que cela se produise sont incertaines. Il y aura une fenêtre d’opportunité pour bénéficier d’une augmentation de la gravité de Jupiter, réduisant considérablement le coût et la durée de la mission, mais cela nécessite un lancement en 2032 ; des décisions doivent donc être prises rapidement.

    Source: https://www.iflscience.com/uranus-is-much-hotter-than-we-thought-78453

  • Coucher de soleil lunaire

    5
    1 Votes
    5 Messages
    87 Vues

    @patricelg non, creuse :mouhaha:

  • 6 Votes
    4 Messages
    125 Vues

    Si les cerveaux s’en vont, il ne restera plus que des débiles. Idiocracy n’est bientôt plus de la SF…

    Ces même cerveaux qui ont certainement du voter Trump ? :hum:

    C’est SOS Atlantique qui va les secourir ? :dent_petee: :clac:
    (désolé, humour de merde) :loool:

  • 0 Votes
    4 Messages
    67 Vues

    @Raccoon Déjà, les kinés qui s’en occuperont se frottent les mains, à eux les billets verts :lol:
    Et oui, comme tu le cites, ça va leur faire tout drôle mais ils ont du voter Trump :siffle:

  • 1 Votes
    4 Messages
    104 Vues

    2 années plus tard ^^ :

    h.png

  • 2 Votes
    1 Messages
    57 Vues

    « J’ai le pressentiment d’une Amérique qui existera à l’époque de mes enfants ou de mes petits-enfants », écrivait Sagan en 1995.

    c716787e-07ba-447c-925a-527d6b20de20-image.png

    Dans son livre de 1995, « Le monde hanté par les démons : la science comme une bougie dans l’obscurité » , Sagan expliquait comment la méthode scientifique avait contribué à éclairer les recoins les plus sombres de l’univers. Cependant, il soutenait que la quête de paix et de vérité était minée par les vieilles alliées de l’humanité : la superstition et la pseudoscience.

    Dans un passage du texte qui devient fréquemment viral, Sagan expose sa vision pessimiste de la direction que prendront les États-Unis s’ils perdent leur admiration pour la raison, la rationalité et l’ouverture d’esprit.

    On peut y lire : « J’ai le pressentiment d’une Amérique à l’époque de mes enfants ou petits-enfants, lorsque les États-Unis seront une économie de services et d’information ; lorsque presque toutes les industries manufacturières clés auront disparu au profit d’autres pays ; lorsque des pouvoirs technologiques impressionnants seront entre les mains d’un très petit nombre, et que personne représentant l’intérêt public ne pourra même saisir les enjeux ; lorsque les gens auront perdu la capacité de définir leurs propres programmes ou de remettre en question en connaissance de cause ceux qui détiennent l’autorité ; lorsque, serrant nos cristaux et consultant nerveusement nos horoscopes, nos facultés critiques en déclin, incapables de distinguer ce qui semble bon de ce qui est vrai, nous glissons, presque sans nous en rendre compte, dans la superstition et l’obscurité. »

    « Et lorsque l’abrutissement de l’Amérique est le plus évident dans la lente dégradation du contenu substantiel des médias extrêmement influents, les extraits sonores de 30 secondes sont désormais réduits à 10 secondes ou moins, les programmes au plus petit dénominateur commun, les présentations crédules sur la pseudoscience et la superstition, mais surtout une sorte de célébration de l’ignorance. »

    Source: https://www.iflscience.com/carl-sagan-made-a-worrying-prediction-of-americas-future-30-years-ago-78377

  • 1 Votes
    2 Messages
    96 Vues
    La sonde spatiale de l’ESA capture des images détaillées de Mars et de sa mystérieuse lune

    “Il y a deux ans, nous avons envoyé une sonde pour dévier un astéroïde et modifier son orbite”, a déclaré Ian Carnelli, responsable de la mission Hera, lors de l’introduction du livestream, “et maintenant nous retournons chercher toutes les données scientifiques pour transformer ce test sur un astéroïde spécifique en une technique que nous pourrons appliquer à tout autre astéroïde”.

    Pourquoi la sonde Hera est-elle près de Mars ?

    L’objectif principal du survol était de placer Hera sur la bonne trajectoire vers le système d’astéroïdes Didymos. La trajectoire de la mission ne prévoyait pas initialement le survol des deux lunes, mais elle a été modifiée par la suite afin de recueillir des images détaillées.

    Des deux lunes, Deimos est la plus petite et la plus mystérieuse.

    “Pour Deimos, nous ne disposons pas d’autant d’images que pour Phobos, c’est pourquoi toutes les occasions de voir Deimos ont une grande valeur”, a déclaré Patrick Michelle, chercheur principal de Hera, lors de la retransmission en direct qui a révélé les images pour la première fois.

    a8c19993-879a-4316-af2e-7ea4fb3ff250-image.png

    2bfb83de-53fd-4784-9641-cdf75e9fe499-image.png

    Source, vidéo et plus: https://fr.euronews.com/my-europe/2025/03/13/la-sonde-spatiale-de-lesa-capture-des-images-detaillees-de-mars-et-de-sa-mysterieuse-lune

  • 1 Votes
    1 Messages
    75 Vues

    Visitez le Musée de toutes choses, un musée virtuel presque infini généré à partir de Wikipédia !

    Vous y trouverez des expositions sur des millions de sujets, de l’architecture de Liverpool au zoroastrisme. Recherchez le sujet qui vous intéresse ou explorez-le simplement au gré de votre curiosité !

    Si vous possédez un casque compatible OpenXR, vous pouvez également visiter le MoAT en VR ! (L’Oculus Quest n’est actuellement pas pris en charge)

    Comment ça marche ?

    L’étendue du musée est rendue possible grâce au téléchargement de textes et d’images depuis Wikipédia et Wikimedia Commons . Chaque exposition du musée correspond à un article Wikipédia. Les murs de l’exposition sont couverts d’images et de textes issus de l’article, et des couloirs mènent à d’autres expositions grâce aux liens vers l’article.

    https://mayeclair.itch.io/museum-of-all-things

  • 2 Votes
    1 Messages
    34 Vues

    09ead785-6cb0-460e-9c91-050e515518d5-image.png
    “Spherex va produire une énorme carte tridimensionnelle de tout le ciel nocturne.”

    Le télescope a été lancé mardi à 20h10 heure locale (23h10 HAE) à bord d’une fusée SpaceX Falcon 9 depuis la base spatiale de Vandenberg, en Californie. Moins de 45 minutes plus tard, l’étage supérieur de la Falcon 9 a placé SPHEREx en orbite polaire à une altitude d’environ 675 kilomètres. Les contrôleurs au sol ont reçu les premiers signaux du vaisseau spatial, confirmant son bon fonctionnement après son arrivée dans l’espace.

    Dès le mois prochain, une fois que les ingénieurs auront vérifié que l’observatoire est prêt, SPHEREx entamera une mission scientifique de deux ans visant à observer le ciel en 102 couleurs invisibles à l’œil nu. Les détecteurs infrarouges de l’observatoire recueilleront des données sur la composition chimique des astéroïdes, des nuages ​​stellaires brumeux et des galaxies lointaines.

    L’acronyme de la mission SPHEREx est complexe : il signifie Spectro-Photomètre pour l’Histoire de l’Univers, Époque de la Réionisation et Explorateur des Glaces. Les scientifiques résument cette mission de 488 millions de dollars en expliquant qu’elle cherche à répondre à trois questions fondamentales :

    • Comment l’Univers a-t-il commencé ?
    • Comment les galaxies ont-elles commencé ?
    • Quelles sont les conditions de vie en dehors du système solaire ?

    Construit par BAE Systems, SPHEREx a à peu près la taille d’une voiture compacte et ne possède pas la puissance ni la résolution d’un observatoire phare comme le télescope spatial James Webb. Le miroir primaire de Webb mesure plus de 6,5 mètres de diamètre, tandis que celui de SPHEREx n’a qu’un diamètre effectif de 20 centimètres, comparable à celui d’un télescope grand public.

    « En utilisant une technique appelée spectroscopie à filtre variable linéaire, nous allons produire 102 cartes dans 102 longueurs d’onde tous les six mois, et notre mission de base est de le faire quatre fois sur une période de deux ans », a déclaré Korngut.

    e41b6732-5d8e-4a9e-8d96-ffb6c42e7082-image.png

    Le tout nouveau télescope spatial de la NASA présente quelques avantages. Alors que Webb est conçu pour scruter en profondeur de minuscules pans du ciel, le champ de vision plus large de SPHEREx permettra d’observer le ciel dans toutes les directions. Comme son nom l’indique, SPHEREx capturera une vue sphérique du cosmos. Des filtres colorés recouvrent le réseau de détecteurs de l’instrument pour séparer la lumière entrant dans le télescope en ses composantes de longueurs d’onde, un processus appelé spectroscopie. La NASA affirme que la conception unique de SPHEREx lui permet de réaliser simultanément des spectroscopies infrarouges sur des centaines de milliers d’objets, avec plus de 600 expositions par jour.

    La raison de ce curieux look

    De nombreux télescopes infrarouges antérieurs utilisaient du liquide de refroidissement cryogénique pour refroidir leurs détecteurs, mais cette ressource est limitée et s’épuise progressivement dans l’espace, limitant ainsi la durée de vie des missions. Webb utilise un pare-soleil complexe de la taille d’un court de tennis pour bloquer la chaleur et la lumière du Soleil sur ses instruments infrarouges. Les ingénieurs ont trouvé une solution plus simple pour SPHEREx.

    Trois écrans photoniques concentriques s’étendent depuis le sommet du vaisseau spatial pour isoler l’optique et les détecteurs du télescope de la lumière du Soleil et de la Terre. Cette conception ne nécessite aucune pièce mobile, ce qui renforce la fiabilité et la longévité de la mission.

    Plus près de chez nous

    Dans notre propre galaxie, SPHEREx utilisera sa sensibilité infrarouge pour étudier les origines et l’abondance de l’eau et de la glace dans les nuages ​​moléculaires, précurseurs des systèmes solaires extraterrestres où le gaz et la poussière s’effondrent pour former des étoiles et des planètes.

    « Nous pensons que la majeure partie de l’eau et de la glace de l’univers se trouve dans des endroits comme celui-ci », a déclaré Rachel Akeson, responsable du centre de données scientifiques SPHEREx à Caltech. « Il est également probable que l’eau des océans terrestres provienne du nuage moléculaire. Alors, comment SPHEREx cartographiera-t-il la glace de notre galaxie ? Alors que d’autres télescopes spatiaux ont découvert des réservoirs d’eau à des centaines d’endroits, les observations SPHEREx de notre galaxie nous fourniront plus de 9 millions de cibles, un échantillon bien plus vaste que celui dont nous disposons actuellement. »

    « Connaître la teneur en eau autour de la galaxie est un indice sur le nombre d’endroits qui pourraient potentiellement abriter la vie », a déclaré Akeson.

    Source et plus: https://arstechnica-com.translate.goog/science/2025/03/no-thats-not-a-cosmic-cone-of-shame-its-nasas-newest-space-telescope/?_x_tr_sl=auto&_x_tr_tl=fr&_x_tr_hl=fr