Aller directement au contenu

Sciences

580 Sujets 2.7k Messages
  • Un système solaire 3D dans votre navigateur

    Épinglé système solaire 3d
    4
    5 Votes
    4 Messages
    299 Vues

    C’est somptueux, un grand merci @Violence pour cette trouvaille.

    [image: 1755365623872-68a3371c-e143-467c-9c91-65e9141c6e26-10ea3ef9-b96e-4e4c-8095-3e27e4ff6134-live-long-amp-prosper.jpg] 

  • 5 Votes
    2 Messages
    178 Vues

    C’est cool ! Est-ce que vous croivez qu’avec ses anti-proton on pourra faire des processeurs plus rapides, frais et qui rechargent les batteries ?
    (pardon, c’est bientôt le weekend)

  • 5 Votes
    1 Messages
    109 Vues

    [image: image.jpg.webp]

    Depuis plusieurs années, un désaccord persistant secoue la communauté des cosmologistes : l’univers semble s’étendre plus vite que prévu. Ce paradoxe, baptisé « tension de Hubble », oppose deux mesures pourtant considérées comme fiables du taux d’expansion cosmique. Une nouvelle étude avance une explication inattendue et audacieuse : et si notre galaxie était située au cœur d’un gigantesque vide cosmique ?

    La tension de Hubble, un casse-tête cosmologique

    La constante de Hubble, qui mesure le taux d’expansion de l’univers, a été introduite en 1929 par l’astronome Edwin Hubble. Elle repose sur l’observation que les galaxies s’éloignent les unes des autres à une vitesse proportionnelle à leur distance, ce qui constitue une preuve majeure de l’expansion de l’univers depuis le Big Bang. Cependant, les valeurs obtenues aujourd’hui par deux méthodes indépendantes sont en désaccord significatif, ce qui soulève une énigme connue sous le nom de « tension de Hubble ».

    D’un côté, les données du fond diffus cosmologique, obtenues par des satellites comme Planck, donnent une valeur d’environ 67 km/s/Mpc. De l’autre, les mesures plus récentes, basées sur des supernovae et des galaxies proches, indiquent un chiffre plus élevé, autour de 73 km/s/Mpc. Cette différence ne peut plus être attribuée aux erreurs expérimentales. Elle suggère un manque dans notre compréhension fondamentale de l’univers.

    Un vide géant autour de la Terre ?

    C’est dans ce contexte qu’intervient une hypothèse intrigante : notre galaxie, la Voie Lactée, serait située à l’intérieur d’un immense vide cosmique, un espace sous-dense en matière par rapport à la moyenne de l’univers. Ce vide serait d’un rayon d’environ un milliard d’années-lumière, avec une densité environ 20 % inférieure à la norme.

    Cette idée, défendue par le Dr Indranil Banik de l’Université de Portsmouth, a été présentée lors de la réunion nationale d’astronomie 2025 de la Royal Astronomical Society, à l’université de Durham. Selon lui, un tel vide modifierait localement l’expansion apparente de l’univers. La matière située en dehors du vide exercerait une attraction gravitationnelle qui accélérerait le mouvement des galaxies vers l’extérieur, donnant l’illusion que l’espace s’étend plus vite autour de nous.

    [image: is-earth-inside-a-huge.jpg.webp]

    – Si nous nous trouvons dans une région dont la densité est inférieure à la moyenne, comme le point vert, la matière s’écoulerait en raison de la gravité plus forte des régions environnantes plus denses, comme l’indiquent les flèches rouges. Crédit : Moritz Haslbauer et Zarija Lukic

    Une solution locale à un problème global

    L’intérêt de cette théorie est qu’elle s’attaque à la tension de Hubble en proposant une explication « locale » : le désaccord entre les mesures ne reflèterait pas une erreur dans la physique cosmique universelle, mais une particularité de notre région de l’espace. Le Dr Banik insiste : la tension de Hubble est surtout visible dans l’univers proche. Or, plus loin dans le temps et l’espace, les observations concordent avec les prédictions du modèle cosmologique standard.

    Des indices viennent soutenir cette hypothèse. D’abord, le comptage des galaxies dans notre région indique une densité inférieure à celle observée dans d’autres zones plus éloignées. Ensuite, une signature indirecte renforce le scénario : les oscillations acoustiques baryoniques (BAO), des ondes sonores fossiles issues du Big Bang, fournissent une sorte de règle cosmique permettant de suivre l’évolution de l’expansion.

    Les mesures des BAO montrent une légère déformation dans leur relation au décalage vers le rouge — l’allongement des longueurs d’onde de la lumière dû à l’expansion de l’univers. Cette déformation est compatible avec les effets gravitationnels et cinématiques induits par un vide local. Selon les calculs présentés, un modèle intégrant un vide serait cent millions de fois plus probable que le modèle homogène standard pour expliquer ces données.

    Une idée controversée mais testable

    Reste que cette hypothèse n’est pas sans poser problème. Un vide aussi vaste et profond ne cadre pas bien avec le modèle cosmologique actuel, qui suppose une répartition homogène de la matière à grande échelle. L’existence d’un tel vide remettrait en question ce principe fondamental.

    Mais la théorie est testable. Les chercheurs prévoient de la confronter à d’autres approches, notamment l’utilisation de chronomètres cosmiques. En observant les galaxies qui ne forment plus d’étoiles, et en analysant leur lumière, il est possible d’estimer leur âge. En comparant cet âge avec leur décalage vers le rouge, les scientifiques peuvent reconstituer l’histoire de l’expansion de l’univers, indépendamment des BAO ou du fond diffus cosmologique.

    Une révolution à l’horizon ?

    Si cette hypothèse venait à se confirmer, elle apporterait une solution élégante à l’un des plus grands mystères de la cosmologie moderne, sans bouleverser la physique des premiers instants de l’univers. Elle impliquerait toutefois une conclusion déroutante : nous occuperions une position privilégiée dans le cosmos, un concept que les scientifiques ont toujours cherché à éviter. Mais dans un univers rempli de mystères, parfois, l’explication la plus simple est aussi la plus étrange.


    – Source :

    https://sciencepost.fr/et-si-la-terre-se-trouvait-dans-un-immense-vide-cosmique-une-theorie-audacieuse-pour-resoudre-le-mystere-de-lexpansion-de-lunivers/

  • [Vidéos] Sciences, zététique et plus encore...

    Épinglé
    10
    6 Votes
    10 Messages
    936 Vues

    @Popaul J’ai trouvé la comparaison entre le bon et le mauvais cholestérol et l’esprit critique excellente.

  • [Conseils lecture] Sciences, zététique et plus encore...

    Épinglé
    25
    4 Votes
    25 Messages
    2k Vues

    @Pollux a dit dans [Conseils lecture] Sciences, zététique et plus encore... :

    Juste un dernier petit mot avant de vous laisser tranquille
    Je serais curieux de savoir comment, dans les années 20, ont été traités les gens, parce que pense qu’il y en a eu, qui émettaient des réserves sur ce nouveau produit miracle qu’était le radium.
    Cf le post de darkCainou un peu plus haut.

    C’est pourtant évident 😉
    si on se réfère à la crise actuelle…

    La plupart des scientifiques se sont montrés prudents, avant même l’utilisation massive, ils ont pris beaucoup de risques pour les tout premiers avec leur santé, mais rapidement ils ont mis un frein à l’utilisation débridée. Même si à l’époque cette science était très neuve (celle de la matière, les atomes etc… je ne parle pas de la radioactivité)

    Ensuite les charlatans, les scientifiques rebelles, les bonimenteurs, les entreprises ont utilisés ça en masse malgré les avertissements du corps scientifique (un peu comme Raoult et la chloroquine (qui a beaucoup tué, et les gens ont suivi leur gourou aveuglement comme pour le radium)), pour finalement sous la pression beaucoup trop tardive des états (surtout le notre 20/30 ans de retard sur le radium, toujours bien lent à réagir comme pour la crise de l’hydroxychloroquine). Il faut dire qu’il n’y avait pas les mêmes gardes fous, la science dans l’histoire de l’humanité, celle basée sur les preuves c’est assez récent.

    Heureusement, le Radium était tellement cher, les stocks mondiaux se comptaient en grammes que la plupart des entreprises qui vendait la radioactivité dans leurs produits (je parle des produits de beauté, alimentation etc…) n’en mettaient en fait pas, passé une époque.

    Dans le cas présent, les processus scientifiques ne sont plus du tout les même que y’a 120 ans, l’arnm n’est pas une nouvelle technologie découverte y’a 2 ans, il y a presque 30 ans de savoir accumulés, et ça se base sur un corpus de connaissances bien plus complètes sur l’adn et l’arn.

    Si on devait comparer au radium, se serait plus comme si on utilisait le premier vaccin ARNm dans les années 60 juste après la découverte et que posant un problème des scientifiques douteux continueraient à l’utiliser.

    L’ARNm du virus quand on attrape la covid on en est envahi complètement, rien à voir avec le vaccin et la petite dose, le risque de retro transcription est beaucoup plus important alors avec le virus, de même avec les effets secondaires.

  • Quand la science a la tête dans les étoiles (1)

    7
    4 Votes
    7 Messages
    87 Vues

    @duJambon honte à moi qui l’a vu bien trois fois. undefined

  • 2 Votes
    5 Messages
    62 Vues

    Je ne ferais jamais le trajet à pied, mais à l’échelle de la galaxie, la sonde à à peine quitté le système solaire, c’est de la gnognote. 🙂

  • La lune, future guerre des étoiles ?

    149
    0 Votes
    149 Messages
    10k Vues

    Ariane décolle pour Amazon, depuis l’Amazonie.

    Moins de trois jours après le lancement d’une fusée Atlas V depuis la Floride, un autre groupe de 32 satellites Amazon Leo a été mis en orbite par une fusée européenne Ariane 6 depuis le Centre spatial guyanais, en Amérique du Sud, rapporte European Spaceflight . La fusée a décollé dans sa configuration Ariane 64, équipée de quatre propulseurs d’appoint à propergol solide. Le premier des 32 satellites s’est séparé de l’étage supérieur de la fusée un peu moins d’une heure et demie après le décollage. Le déploiement des 32 satellites s’est effectué en 12 phases de séparation, pour une durée totale d’environ 25 minutes.

    Un rythme soutenu … Arianespace a été mandatée par Amazon pour réaliser 18 missions de déploiement de sa constellation de satellites, destinée à concurrencer le réseau internet haut débit mondial Starlink de SpaceX. Arianespace prévoit de lancer jusqu’à huit fusées Ariane 6 en 2026, dont une part importante sera consacrée à l’exécution des missions en attente pour Amazon. (Soumis par EllPeaTea)

    Source: https://arstechnica.com/space/2026/05/rocket-report-falcon-heavy-is-back-russias-soyuz-5-finally-debuts/

  • 2 Votes
    2 Messages
    46 Vues

    Une autre aventure avec des animaux (comme précédemment si des francophones n’ont pas accès à l’émission, n’hésitez pas à me le dire).



    Lien vers le podcast : La Terre au carrée

    Dans son ouvrage Le Souffle de la forêt, Simonette Greggio nous raconte l’histoire intime de Simona Kossak, ingénieure forestière et défenseure de la vie sauvage.

    La scène se passe en Pologne, dans une pièce qui pourrait être un salon ou une salle à manger. Il y a un chandelier, des horloges un peu partout sur les murs et une lampe à pétrole fleurie. Une femme est assise derrière une grande table en bois massif. Et face à elle, de l’autre côté de la table, les deux pattes avant sagement posées sur le plateau - un sanglier. Une laie, pour être précis, qui s’appelle Zabka. Cette femme, c’est Simona Kossak. Biologiste, zoologue. Née en 1943 dans une grande famille d’artistes de Cracovie, morte d’un cancer en 2007, à l’âge de 64 ans. Et entre ces deux dates, une existence qui ressemble à très peu d’autres. Car Simona Kossak a vécu plus de trente ans dans une cabane abandonnée, sans eau courante, sans électricité, au cœur de la forêt primaire de Białowieża à la frontière entre la Pologne et la Biélorussie. Elle pensait y rester quelques années. Elle n’en est jamais repartie. C’est en février 1971 qu’elle arrive dans cette maison abandonnée dans la forêt de Białowieża où va se constituer une arche de Noé improbable : Zabka la laie, qui partagera sa vie pendant quinze ans ; un corbeau qui joue avec les tresses de Simona ; une femelle lynx prénommée avec laquelle elle fait la sieste au pied des arbres ; une ânesse, deux élans baptisés Pepsi et Cola, des chevreuils orphelins nourris au biberon, une cigogne noire, des chouettes, des buses, des renards, des martres et des souris… Dans ce lieu isolé du monde, Simona mène ses recherches sur la psychologie animale pour l’Institut de recherche forestière. Mais elle se bat aussi avec un tempérament que certains jugent controversé contre les pièges posés sous prétexte de comptage, contre les plans d’abattage qui menacent l’une des dernières forêts vierges du continent. Cette femme, cette vie hors norme, fait l’objet d’un livre. Et c’est son histoire que nous allons vous raconter…

    Simonetta Greggio, Le Souffle de la forêt, sur les traces de Simona Kossak, éditions Arthaud

  • Dans la jungle du home-cinéma

    dts atmos home hdr dolby
    45
    10
    10 Votes
    45 Messages
    5k Vues

    Plus de précisions sur le Dolby Vision 2 (date de sortie inconnue)

    La pub:

    Intelligence du contenu

    L’intelligence du contenu introduit de nouveaux outils pour une meilleure intégration des studios de création dans votre salon. Grâce à cette technologie, Dolby Vision 2 optimise automatiquement et de manière authentique votre téléviseur pour une image plus immersive, en fonction du contenu visionné et de votre environnement. De plus, grâce à l’intelligence artificielle, Dolby Vision 2 s’adapte intelligemment pour une présentation optimale du contenu, parfaitement adaptée à votre appareil et à votre environnement de visionnage.

    Les promesses:

    L’intelligence de contenu comprend :

    • Precision Black réduit la frustration des consommateurs face à une image « trop sombre » en la rendant d’une netteté cristalline et en améliorant la clarté dans tous les environnements de visionnage sans compromettre l’intention artistique.
    • La technologie Light Sense affine la qualité d’image grâce à une détection avancée de la lumière ambiante et à de nouvelles données d’éclairage de référence provenant de la source du contenu, afin d’optimiser votre téléviseur pour une expérience visuelle idéale.
    • L’optimisation pour les sports et les jeux vidéo introduit de nouvelles améliorations telles que des ajustements du point blanc et un contrôle du mouvement conçus spécifiquement pour répondre aux besoins uniques des événements sportifs et des jeux en direct.

    S’appuyant sur l’intelligence du contenu, Dolby Vision 2 introduit un nouveau mappage tonal tirant parti des améliorations apportées aux téléviseurs modernes. Ces derniers sont aujourd’hui plus lumineux et offrent des couleurs plus éclatantes que jamais. Grâce au mappage tonal bidirectionnel, les créateurs disposent désormais de nouveaux outils pour exploiter pleinement ces écrans améliorés. Les téléviseurs haute performance peuvent ainsi afficher une luminosité accrue, un contraste plus net et des couleurs plus saturées, tout en préservant la vision créative de l’artiste.

    Au-delà du HDR

    Dolby Vision 2 étend les capacités de Dolby Vision au-delà du HDR. Parmi ces fonctionnalités, on trouve Authentic Motion, le premier outil de contrôle de mouvement créatif au monde, qui permet de rendre les scènes plus réalistes et cinématographiques, sans saccades indésirables, plan par plan.

    Dolby Vision 2 sera disponible en deux niveaux de prix chez les fabricants de téléviseurs.

    • Dolby Vision 2 Max offre la meilleure image sur les téléviseurs les plus performants, en ajoutant des fonctionnalités premium supplémentaires conçues pour exploiter pleinement les capacités de ces écrans.

    • Dolby Vision 2 apporte une qualité d’image considérablement améliorée aux téléviseurs grand public, offrant les fonctionnalités essentielles de nouvelle génération rendues possibles par le nouveau moteur d’image Dolby et l’intelligence du contenu.

    Adoption par l’industrie :

    Hisense sera la première marque de téléviseurs à intégrer la technologie Dolby Vision 2 à sa gamme. Ces téléviseurs seront équipés du processeur MediaTek Pentonic 800 avec moteur d’image « MiraVision™ Pro », la première puce intégrant Dolby Vision 2. La date de sortie et la disponibilité seront communiquées ultérieurement.

    « Cela correspond exactement au type d’innovation que les clients Hisense attendent d’une expérience télévisuelle haut de gamme », a déclaré Sonny Ming, directeur général du marketing produit téléviseurs Hisense. « L’association de Dolby Vision 2 et de la technologie Hisense RGB-MiniLED permet non seulement d’offrir une image d’une qualité exceptionnelle, mais aussi de repousser les limites des téléviseurs grâce à une gamme de couleurs ultra-large et une luminosité ultra-élevée, des performances inédites jusqu’à présent. »

    En rejoignant Hisense, CANAL+ est le premier groupe de médias et de divertissement à s’engager à enrichir son offre – des films et des émissions de télévision aux événements sportifs en direct – en Dolby Vision, tirant parti de cette innovation pour enrichir l’expérience visuelle de ses abonnés.

    « Ce partenariat avec Dolby témoigne de l’esprit pionnier et novateur de CANAL+. Notre engagement à offrir une expérience visuelle inégalée à nos abonnés demeure inébranlable. Avec le lancement de Dolby Vision 2 – pour les films, les séries et les événements sportifs en direct – cette expérience atteint des sommets époustouflants. Dolby est un partenaire précieux depuis de nombreuses années et nous sommes fiers d’être le premier groupe de médias et de divertissement à annoncer l’intégration de cette nouvelle expérience pour notre public », a déclaré Stéphane Baumier, chef de la technologie de CANAL+.

    Source: https://news.dolby.com/en-WW/253671-dolby-unveils-dolby-vision-2-a-new-era-for-tv-picture-quality/

  • 1 Votes
    1 Messages
    29 Vues

    [image: 1776661349527-a130a387-a25d-469f-b0df-a3e61bce4493-image.jpeg]
    Une illustration d’artiste montrant la sonde spatiale Hayabusa2 s’approchant de l’astéroïde Ryugu

    Les échantillons collectés sur l’astéroïde Ryugu contiennent l’intégralité des bases azotées constituant l’ADN et l’ARN, selon une étude récente. Cette découverte renforce l’hypothèse d’une abondance de ces éléments essentiels à la vie dans notre système solaire.

    Ryugu fait partie des corps les plus primitifs du système solaire, renfermant des indices précieux sur les premières années de son histoire et sur les conditions qui régnaient à l’époque où la vie aurait pu se former sur notre planète. En 2014, la sonde japonaise Hayabusa-2 est allée à sa rencontre à quelque 300 millions de kilomètres de la Terre et en a rapporté deux échantillons de 5,4 grammes.

    Une première étude, publiée en 2023, y a révélé la présence d’uracile, une des quatre briques de base de l’ARN. Si l’ADN, avec sa double hélice, porte l’information génétique, l’ARN, constitué d’un seul ruban, est un messager permettant la mise en œuvre des instructions contenues dans l’ADN.

    De nouvelles analyses menées par une équipe japonaise et dévoilées lundi dans Nature Astronomy montrent que les échantillons contiennent en fait l’ensemble des bases azotées constituant l’ARN et l’ADN: uracile, mais aussi adénine, guanine, cytosine et thymine.
    Les astéroïdes sont-ils nos ancêtres?

    La présence de ces bases “ne signifie pas que la vie a existé sur Ryugu ou son corps parent”, l’astéroïde primitif dont il a été éjecté après une collision, explique à l’AFP Toshiki Koga, biogéochimiste à l’Agence japonaise pour les sciences et technologies marines et terrestres (Jamstec) et principal auteur de l’étude. Elle “indique plutôt que les astéroïdes primitifs pouvaient produire et conserver des molécules importantes pour la chimie liée à l’origine de la vie”, poursuit-il.

    [image: 1776661412014-407768e0-80d5-4257-a046-619cbe097415-image.jpeg]
    L’astéroïde Ryugu après que Hayabusa2 a quitté son orbite

    Sans exclure une apparition de ces molécules dans les océans primitifs ou même dans l’atmosphère de notre planète, leur présence “généralisée dans tout le système solaire”, renforce “l’hypothèse selon laquelle les astéroïdes carbonés ont contribué à l’inventaire chimique prébiotique (antérieur à l’apparition de la vie, ndlr) de la Terre primitive”, note l’étude.

    Ces résultats ne sont “ni surprenants ni nouveaux, et c’est précisément là que réside leur intérêt”, a réagi auprès de l’organisme Science Media Center César Menor Salvan, astrobiologiste à l’Université d’Alcalá (Espagne), pour qui les scientifiques ont désormais une “idée très claire des matériaux organiques pouvant se former dans des conditions prébiotiques n’importe où dans l’Univers”.
    Voie de synthèse méconnue

    Car ce n’est pas la première fois que ces briques élémentaires de la vie sont retrouvées sur des matériaux d’origine extraterrestre. L’année dernière, des études avaient déjà révélé leur présence dans des fragments de l’astéroïde Bennu, rapportés sur Terre par la Nasa. Des scientifiques en ont également retrouvé sur les météorites carbonées Orgueil et Murchison, des fragments d’astéroïdes tombés sur Terre.

    [image: 1776661457257-fef20167-a720-442f-a04c-83c34af94e05-image.jpeg]
    L’astéroïde Bennu

    M. Koga et ses collègues ont mené des études comparatives et découvert des différences importantes dans la proportion de chaque base azotée dans ces échantillons.

    Ryugu contient des quantités comparables de bases puriques (adénine et guanine) et de bases pyrimidiques (cytosine, thymine et uracile), qui s’assemblent par paires pour former l’ADN. La météorite Murchison est plus riche en bases puriques, tandis que Bennu et Orgueil le sont davantage en bases pyrimidiques. Selon les auteurs, ces résultats reflètent probablement les “histoires chimiques et évolutives distinctes” de leurs corps parents respectifs.

    “Une voie de synthèse encore méconnue”

    Les chercheurs ont également mis en évidence l’existence d’une corrélation entre le ratio bases puriques/bases pyrimidiques et la concentration d’une autre molécule azotée, l’ammoniac.

    “Aucun mécanisme de formation connu ne prédit une telle relation, ce qui pourrait indiquer une voie de synthèse encore méconnue pour la formation des bases nucléiques dans les matériaux du système solaire primitif”, souligne M. Koga auprès de l’AFP.

    Une découverte qui “a des implications majeures pour comprendre comment les molécules biologiquement importantes ont pu se former à l’origine et favoriser la genèse de la vie sur Terre”, estime Morgan Cable, maître de conférences en sciences spatiales à l’Université Victoria de Wellington (Nouvelle-Zélande), dans une réaction à l’ONG Australian science media center.

    Source:

    https://www.7sur7.be/sciences/toutes-les-bases-de-ladn-detectees-sur-un-nouvel-asteroide-des-implications-majeures-sur-lorigine-de-la-vie~ad120849/

  • Objectif Lune dans tout bientôt… 10 9 8 7 6 5 4 3 2 1 Zéro

    artemis 2
    58
    2
    1 Votes
    58 Messages
    645 Vues

    @Raccoon a dit:

    [image: 1775866769975-fcea04b5-658d-4ed8-bf1a-484882b02bcd-image-resized.jpeg]

    [image: 1775866866367-362983c8-b527-465b-b5a9-39d42626d71c-image-resized.jpeg]

    [image: 1775866975284-8084e607-a171-43e0-b654-72f421b6ef2c-image-resized.jpeg]

    [image: 1775867270444-4f60d98b-529a-4b36-a2b0-370c83f1282a-image-resized.jpeg]

    Ils ont ramené un alien en secret je crois… Comme dans Life…

  • Saga G Milgram

    89
    6 Votes
    89 Messages
    4k Vues

    @michmich Pareil, j’en avais déjà vues avant celle-là. Certaines aventures de personnalités qui pourraient se croire immunisés.
    Il est fortement probable que je me sois vu proposé cette vidéo vu mon historique.

    Entre 2 vidéos de dashcams amerloques ^^

  • 0 Votes
    3 Messages
    64 Vues

    “Sortez vos parapluies: un satellite de 600 kg retombera sur Terre”

    Celui là fera l’affaire ^^

    [image: 1773162513139-1000562118-resized.png]

  • 7 Votes
    1 Messages
    56 Vues

    [image: 1200x680]

    En 1202, un mathématicien italien introduit en Europe un simple petit rond qui va bouleverser les calculs, le commerce et la science. Stéphane Bern vous raconte comment le zéro, discret mais décisif, s’apprête à changer la façon de compter.

    Un simple ovale tracé à l’encre… et soudain, les additions deviennent plus simples. L’histoire d’un chiffre qui ne vaut rien, mais change tout.

    Passer la publicité

    Publicité

    [image: logo-ici-sad.C8Ts0-h1.svg] Revenir avant la publicité

    Le voyage du zéro jusqu’en Europe

    Au début du 13e siècle, en Europe, on compte encore en chiffres romains : V pour 5, X pour 10, L pour 50. Pratique pour graver des dates sur les monuments, beaucoup moins pour tenir des comptes précis ou effectuer des opérations complexes.

    C’est alors qu’apparaît Fibonacci, de son vrai nom Leonardo de Pise. Fils d’un marchand, il grandit en partie à Béjaïa, en Afrique du Nord, où il découvre un système de numération venu d’Inde et transmis par le monde arabe : neuf chiffres, de 1 à 9… et un signe révolutionnaire, le zéro.

    En 1202, il publie le Liber Abaci, ou « Livre du calcul ». Il y vante l’efficacité de cette méthode qui simplifie additions, soustractions et calculs commerciaux. Grâce à ces chiffres dits « arabes », tenir des comptes devient beaucoup plus rapide et fiable.

    Des résistances avant l’évidence

    Mais l’innovation ne s’impose pas immédiatement. Les habitudes sont tenaces. À Florence, l’usage de ces nouveaux chiffres, jugés obscurs et propices aux fraudes, est même interdit dans la comptabilité des marchands.

    Pendant plusieurs siècles, chiffres romains et chiffres indo-arabes cohabitent. Il faut attendre la Renaissance pour que le système défendu par Fibonacci s’impose définitivement en Europe.

    Aujourd’hui, impossible d’imaginer une facture, un relevé bancaire ou une équation sans ce petit zéro. Comme quoi, parfois, ce qui ne vaut rien peut finir par compter énormément.

    Source : francebleu.fr

  • Quelle différence entre les Go et les Gio, et d’où vient-elle ?

    1
    3 Votes
    1 Messages
    65 Vues

    [image: NextquickGoGio.webp]

    Vous savez quelle est la différence entre les Mo et les Mio, les Go et les Gio (etc.) ? Oui, c’est une histoire de base 2 et 10, mais savez-vous d’où vient l’abus de langage qui nous fait parler de Go à la place des Gio ? Comme proposé par CharlesP. dans les commentaires, l’heure est à l’explication !

    L’informatique est régie par les bits, l’unité de base qui peut valoir 0 ou 1. On les regroupe ensuite par paquets de huit pour former un octet. Un octet, ce n’est pas grand-chose, rapidement des préfixes ont été ajoutés : kilo, méga, giga, téra, péta, exa, zetta, yotta, ronna et quetta. Les deux derniers ont été ajoutés récemment.

    Binaire vs décimal : fight

    On parle, souvent par abus de langage, de ko, Mo, Go, To, Po en informatique alors qu’on devrait raisonner en base 2. Les ko, Mo, Go… sont en base décimale avec des puissances de 10, là ou les kio, Mio, Gio… sont en binaire avec des puissances de 2. Pourquoi binaire ? Car le bit informatique peut avoir deux valeurs.

    En informatique, c’est un mélange des genres, où 1 ko (kilooctet) peut valoir 1 000 octets (10³) ou 1 024 (2¹⁰) octets. Pourtant, le Bureau International des Poids et Mesures (BPIM) définit précisément les préfixes du Système international d’unités (SI) : des multiples de 10.

    [image: image-397.png]

    Minute maître Capello : : « À l’exception des symboles da (déca), h (hecto), et k (kilo), tous les symboles des préfixes des multiples sont en majuscules et tous les symboles des préfixes des sous-multiples sont en minuscules. Tous les noms de préfixes sont en minuscules, sauf en début de phrase ».

    Les préfixes SI « ne doivent pas être utilisés pour exprimer des puissances de 2 »

    Le BIPM confirme s’il en est besoin que « les préfixes SI représentent strictement des puissances de 10. Ils ne doivent pas être utilisés pour exprimer des puissances de 2 (par exemple, un kilobit représente 1000 bits et non 1024 bits) ».

    Il dresse aussi la liste des noms et symboles recommandés pour les préfixes correspondant à des puissances de 2. On retrouve Ki avec un K majuscule pour kibi (contrairement au ko avec k minuscule, vous suivez ?). Viennent ensuite les mébi, gibi, tébi, pébi, exbi, zébi, yobi, robi et quebi. Ces préfixes ont été présentés par l’International Electrotechnical Commission (IEC) en 1998, soit il y a presque 30 ans ! Ils ne font par contre pas partie du SI.

    [image: image-398.png]

    Le kilo c’était la facilité pour se faire comprendre de tous

    Le NIST donne du contexte :

    « Autrefois, les informaticiens ont remarqué que 2¹⁰ était très proche de 1 000 et ont commencé à utiliser le préfixe SI “kilo” pour désigner 1024. Cela a suffisamment bien fonctionné pendant une décennie ou deux, car tous ceux qui parlaient de kilo-octets savaient que ce terme impliquait 1024 octets. Mais, presque du jour au lendemain, un public beaucoup plus nombreux – presque tout le monde – s’est mis à acheter des ordinateurs. Le secteur de l’informatique a alors eu besoin de s’adresser aussi bien aux physiciens et aux ingénieurs, qu’aux gens ordinaires, dont la plupart savent qu’un kilomètre équivaut à 1 000 mètres et qu’un kilogramme équivaut à 1 000 grammes ».

    C’était donc pratique, mais « le résultat est qu’aujourd’hui, “tout le monde” ne “sait” pas ce qu’est un mégaoctet ».

    Le NIST continue son analyse : « Quand on parle de mémoire en informatique, la plupart des fabricants utilisent le mégaoctet pour désigner 2²⁰= 1 048 576 octets, mais les fabricants de périphériques de stockage utilisent généralement ce terme pour désigner 1 000 000 octets. Et si deux définitions du mégaoctet ne suffisaient pas, voici un troisième mégaoctet de 1 024 000 octets », utilisé avec les disquettes de 3,5".

    Petit aparté : les disquettes avaient une capacité de 1 474 560 octets, soit 1 440 Kio, qui se sont transformés en 1,44 Mo, avec un « mégaoctet » hybride qui n’est ni un Mo ni un Mio.

    Nous avons ainsi :

    • 1 méga : 1 000 000 (SI)
    • 1 méga : 1 048 576 (2²⁰)
    • 1 méga : 1 024 000 (1 024 kilo ou 1 000 x 2¹⁰)

    Un disque dur de 500 Go devrait donc correspondre à 500 000 000 000 octets sur la base du SI, mais en base binaire ce n’est plus la même chose : 500 000 000 000 / 1 073 741 824 (2³⁰)= 465,7 Gio.

    La confusion est partout. Déjà, elle arrange les vendeurs de périphériques de stockage, puisque c’est toujours plus intéressant d’afficher 500 Go que 465 Go, ou bien 1 To à la place 931 Go, etc. Windows affiche des Go alors que ce sont en réalité des Gio.

    Un exemple avec cette clé USB de « 16 Go ». Selon Windows, la capacité totale est de 15 523 115 008 octets ou 14,4 Go. Si on parle de Go, la réalité devrait être 15,52 Go. Si on parle de Gio alors on a bien 14,45. La clé est vendue pour 16 Go, elle fait 15,52 Go et Windows affiche 14,4 Go.

    IBM propose un tableau de comparaison entre la valeur décimale (ko, Mo, Go…) et l’équivalent en binaire (Kio, Mio, Gio…). Un exemple pour comprendre le fonctionnement avec 100 exaoctets. En système décimal (exa), on est à 100 x 10¹⁸. Pour passer en exbioctets, on divise par 2⁶⁰ pour arriver à 86,7 Eio.

    [image: image-400.png]

    [image: image-401.png]

    Source : next.ink

  • Mars, était chaude et humide, et non froide et glacée

    1
    1
    0 Votes
    1 Messages
    38 Vues

    Une étude récente suggère que Mars était chaude et humide durant l’époque noachienne (il y a environ 4,1 à 3,7 milliards d’années), remettant en question l’hypothèse dominante d’un climat principalement froid et glacé. Cette période correspond au Grand Bombardement Tardif, marqué par d’immenses impacts météoritiques, dont les bassins d’Hellas Planitia et d’Argyre Planitia.

    Malgré ces conditions violentes, de nombreuses traces géologiques (vallées, deltas, anciens lacs) indiquent une présence abondante d’eau liquide, suggérant que Mars aurait pu être habitable.

    Le débat scientifique oppose deux scénarios :

    un climat froid avec fonte ponctuelle des glaces due aux impacts et au volcanisme ;

    un climat chaud et humide, nécessitant une atmosphère dense riche en CO₂ pour compenser un Soleil alors 30 % moins lumineux.

    Les nouvelles données proviennent du rover Perseverance, qui explore le cratère Cratère Jezero, ancien lac martien. L’analyse de galets d’argile riches en kaolinite révèle une forte altération chimique compatible avec des pluies abondantes et durables à températures modérées, plutôt qu’avec un environnement froid ponctuellement réchauffé par des événements extrêmes.

    La composition chimique de ces argiles ressemble à celle de formations terrestres issues de climats chauds et humides. Les chercheurs estiment que ces conditions auraient pu durer de milliers à millions d’années, représentant potentiellement les périodes les plus habitables de l’histoire martienne.

    [image: 1771308075560-7203d0c0-fa29-4647-809c-525ef8f8b9a6-image-resized.png]
    Image en fausses couleurs du delta fluvial asséché du cratère Jezero, actuellement exploré par le rover Perseverance

    Le rover a également collecté des échantillons contenant de possibles biosignatures. Cependant, leur analyse approfondie dépend d’une mission de retour d’échantillons vers la Terre, récemment annulée par la NASA, retardant toute confirmation. L’évaluation future reposera notamment sur le « critère de Knoll », qui exige qu’une preuve de vie ne puisse être expliquée autrement que par la biologie.

    En somme, ces résultats renforcent l’idée qu’une Mars ancienne chaude, humide et potentiellement habitable a pu exister, transformant notre vision de son passé.

    Source: https://arstechnica.com/science/2026/02/ancient-mars-was-warm-and-wet-not-cold-and-icy/

  • Pourquoi Elon Musk passerait-il soudainement de Mars à la Lune ?

    13
    3 Votes
    13 Messages
    211 Vues

    @Raccoon a dit dans Pourquoi Elon Musk passerait-il soudainement de Mars à la Lune ? :

    au lieu d’aller en pourrir d’autres

    Je me fais pas trop de soucis pour la planète Mars, je pense que c’est elle qui risque de pourrir les humains qui tenteront tant bien que mal de s’y maintenir. undefined

  • Ce trou noir « rote » avec l'énergie de l'Étoile de la Mort

    1
    1
    3 Votes
    1 Messages
    54 Vues

    [image: 1770644164248-c39bc1e5-f315-4581-b74e-b351205881ed-image-resized.png]
    Surnommé « Jetty McJetface », ce phénomène de perturbation des marées voit son intensité croître sans cesse et devrait atteindre son apogée en 2027.

    En 2022, les astronomes étaient perplexes face à un événement de rupture par effet de marée (TDE), baptisé AT2018hyz , qui s’était estompé lors de sa première observation trois ans auparavant, avant de se réactiver soudainement et d’émettre des ondes radio extrêmement puissantes. L’astrophysicienne Yvette Cendes, de l’Université de l’Oregon, co-auteure de l’article de 2022, a surnommé le trou noir « Jetty McJetface » (en référence au concours britannique en ligne de 2016 visant à nommer un navire de recherche Boaty McBoatface ).

    Depuis, les astronomes continuent de le surveiller. Loin de s’estomper à nouveau, l’événement de rupture par effet de marée (TDE) a vu sa luminosité multipliée par 50 et continue de croître. Selon un article récemment publié dans l’Astrophysical Journal, l’émission d’énergie du trou noir pourrait n’atteindre son maximum qu’en 2027.

    Comme nous l’avons déjà évoqué , l’idée que les trous noirs se comportent comme des aspirateurs cosmiques , aspirant voracement toute matière environnante, est une idée reçue. En réalité, seule la matière qui franchit l’horizon des événements — y compris la lumière — est engloutie et ne peut s’échapper, même si les trous noirs sont aussi des « mangeurs » : une partie de la matière d’un objet est éjectée sous forme d’un puissant jet.

    Lors d’une rupture par effet de marée (TDE), une étoile est déchirée (ou « spaghettifiée ») par les puissantes forces gravitationnelles d’un trou noir situé au-delà de l’horizon des événements, et une partie de sa masse initiale est violemment éjectée. Ceci peut former un anneau de matière en rotation (ou disque d’accrétion ) autour du trou noir, qui émet de puissants rayons X et de la lumière visible. Ces jets sont l’un des moyens utilisés par les astronomes pour déduire indirectement la présence d’un trou noir. Ces émissions de matière se produisent généralement peu après la TDE.

    Lors de la découverte d’AT2018hyz, alias « Jetty », les radiotélescopes n’ont détecté aucune émission de matière pendant les premiers mois. Selon Cendes, c’est le cas pour environ 80 % des éjections de masse coronale (TDE), si bien que les astronomes se sont tournés vers d’autres objets, préférant consacrer leur temps d’observation précieux à des objets potentiellement plus intéressants. Quelques années plus tard, les données radio du Very Large Array (VLA) ont révélé que Jetty illuminait à nouveau le ciel, éjectant de la matière à une vitesse impressionnante de 1,4 millijansky à 5 GHz.

    Depuis, sa luminosité n’a cessé d’augmenter. À quel point ? On a estimé l’énergie émise par l’Étoile de la Mort dans la saga Star Wars , et les émissions de Jetty McJetface sont mille milliards de fois supérieures, peut-être même cent mille milliards de fois plus. Quant à savoir pourquoi Jetty a d’abord échappé à la détection, il semblerait qu’un seul jet émette un rayonnement dans une direction qui n’était probablement pas dirigée vers la Terre. Les astronomes devraient pouvoir le confirmer une fois que l’énergie aura atteint son maximum.

    Cendes et son équipe scrutent désormais le ciel à la recherche de comportements similaires lors d’événements de rupture par effet de marée (TDE) de haute énergie, car l’existence de Jetty suggère que les écoulements différés sont plus fréquents que les astronomes ne le pensaient. Il s’agit d’un phénomène tellement inédit que les astronomes ne l’avaient jamais vraiment recherché auparavant. Après tout, « si une explosion se produit, pourquoi s’attendre à observer quelque chose des années après, alors qu’on n’a rien vu auparavant ? » a déclaré Cendes .

    DOI : Astrophysical Journal, 2026. 10.3847/1538-4357/ae286d ( À propos des DOI ).

    Source: https://arstechnica.com/science/2026/02/this-black-hole-burps-with-death-star-energy/

  • Un mars et ça repart

    1
    0 Votes
    1 Messages
    52 Vues

    Un débat crucial est en cours à la NASA concernant le choix du prochain vaisseau spatial à envoyer vers Mars, un projet qui pourrait influencer les futures missions d’exploration de la planète rouge. La NASA a besoin d’un nouvel orbiteur pour relayer les communications entre Mars et la Terre, après la perte de la sonde MAVEN. Le Congrès a alloué 700 millions de dollars pour la création d’un “orbiteur de télécommunications martien”, mais cette décision soulève des questions, notamment sur le favoritisme envers certaines entreprises, comme Rocket Lab, et sur la somme allouée, jugée excessive par certains experts.

    Le nouvel administrateur de la NASA, Jared Isaacman, doit prendre des décisions rapidement, car le financement pour ce projet doit être engagé avant la fin de l’exercice 2026, avec un lancement prévu pour 2028. Le débat interne à la NASA porte également sur l’ajout ou non d’instruments scientifiques sur l’orbiteur, ce qui pourrait améliorer la mission tout en augmentant les coûts.

    La situation est complexe : certains pensent que des instruments scientifiques, comme une caméra haute résolution ou un spectromètre, ajouteraient de la valeur à la mission, tandis que d’autres estiment que cela compliquerait l’appel d’offres. De plus, des entreprises comme Lockheed Martin, SpaceX et Rocket Lab se disputent le contrat, avec des perspectives différentes sur le coût et les technologies à développer.

    En résumé, la NASA se trouve face à un dilemme concernant la conception de la mission, les finances et les acteurs industriels impliqués, avec des décisions importantes à prendre dans les mois à venir.

    Source: https://arstechnica.com/space/2026/01/nasa-faces-a-crucial-choice-on-a-mars-spacecraft-and-it-must-decide-soon/

    J’imagine qu’Elon Musk compte aussi sur la Nasa pour prendre en charge un maximum d’aspects de son projet de colonisation de Mars.