Sciences

498 Sujets 2.2k Messages
  • 1 Votes
    1 Messages
    36 Vues

    L’Inde a fait décoller samedi la dernière mission de son ambitieux programme spatial pour un voyage vers le centre du système solaire.

    3190da23-432d-4ba3-8fcc-1299fb68e6ac-image.png
    La sonde Aditya-L1 a été lancée depuis le Satish Dhawan Space Centre à Sriharikota, le 2 septembre 2023. AFP

    L’Inde a fait décoller samedi la dernière mission de son ambitieux programme spatial pour un voyage vers le centre du système solaire, une semaine après avoir réussi à poser un véhicule sans équipage près du pôle sud de la Lune. La sonde Aditya-L1, «Soleil» en hindi, a été lancée à 11h50 (8h20 en Suisse), et une retransmission télévisée en direct a montré des centaines de spectateurs applaudissant à tout rompre dans le bruit assourdissant de l’ascension de la fusée.

    «Le lancement a réussi, tout est normal», a annoncé un responsable de l’Organisation indienne pour la recherche spatiale (ISRO) depuis le centre de contrôle de la mission, pendant que le vaisseau se dirigeait vers les hautes sphères de l’atmosphère terrestre. La mission transporte des instruments scientifiques pour observer les couches extérieures du Soleil au cours d’un voyage de quatre mois.

    Les États-Unis et l’Agence spatiale européenne (ESA) ont déjà placé sur orbite des engins pour étudier le Soleil, à commencer par le programme Pioneer de la NASA dans les années 1960, mais il s’agira d’une première pour l’Inde. Le Japon et la Chine ont tous deux lancé leurs propres missions d’observation solaire en orbite terrestre. Si elle réussit, la dernière mission de l’ISRO sera cependant la première à être placée en orbite autour du Soleil par une nation asiatique.
    Système d’alerte

    «Il s’agit d’une mission ambitieuse pour l’Inde», a déclaré l’astrophysicien Somak Raychaudhury à la chaîne de télévision NDTV vendredi. Il a indiqué que la sonde étudierait les éjections de masse coronale, un phénomène périodique qui se traduit par d’énormes décharges de plasma et d’énergie magnétique provenant de l’atmosphère du Soleil. Elles sont si puissantes qu’elles peuvent atteindre la Terre et potentiellement perturber le fonctionnement des satellites.

    Aditya aidera à prévoir ces phénomènes «et à alerter tout le monde pour que les satellites puissent couper leur alimentation», a ajouté l’astrophysicien. Selon lui, «cela nous aidera également à comprendre comment ces choses se produisent et, à l’avenir, nous n’aurons peut-être pas besoin d’un système d’alerte.»

    Aditya parcourra 1,5 million de kilomètres pour atteindre sa destination, ce qui ne représente encore qu’un pour cent de l’immense distance entre la Terre et le soleil. À ce moment-là, les forces gravitationnelles des deux corps célestes s’annulent, ce qui permet à la mission de rester sur une orbite stable autour de notre étoile la plus proche.

    Le satellite d’étude est transporté par la fusée PSLV XL de 320 tonnes, conçue par l’ISRO, qui est l’un des piliers du programme spatial indien et a déjà effectué des lancements vers la Lune et Mars. La mission vise également à mettre en lumière la dynamique de plusieurs autres phénomènes solaires par l’imagerie et la mesure des particules dans la haute atmosphère du Soleil.

    Budget modeste

    L’Inde n’a cessé d’égaler les réalisations des puissances spatiales établies pour une fraction de leur coût. Le programme aérospatial indien est doté d’un budget relativement modeste mais qui a été considérablement augmenté depuis sa première tentative de placer une sonde en orbite autour de la Lune en 2008.

    Selon les experts du secteur, l’Inde parvient à maintenir des coûts bas en reproduisant et en adaptant la technologie spatiale existante à ses propres fins, notamment grâce au nombre important d’ingénieurs hautement qualifiés bien moins payés que leurs confrères étrangers. L’alunissage réussi le mois dernier – un exploit réalisé auparavant uniquement par la Russie, les États-Unis et la Chine – a coûté moins de 75 millions de dollars.

    Il a été largement célébré par le public, avec des rituels de prière pour souhaiter le succès de la mission et des écoliers qui ont suivi la descente finale grâce à des retransmissions en direct dans les salles de classe. En 2014, l’Inde a été la première nation asiatique à avoir placé un engin en orbite autour de Mars. Elle prévoit de lancer une mission habitée de trois jours autour de la Terre d’ici l’année prochaine. Une mission conjointe avec le Japon doit permettre d’envoyer une sonde sur la Lune d’ici 2025 ainsi qu’une mission vers Vénus d’ici deux ans.

    Source: https://www.20min.ch/fr/story/espace-apres-la-lune-linde-lance-une-mission-vers-le-soleil-924681995907

    Des prières, bon, et après ? Une vache sacrée comme premier cosmonaute ? 🙂

  • 6 Votes
    11 Messages
    294 Vues


    Ca a dû ressembler à ça, la chute de Luna-25… ans le son :mouhaha:

  • Intrication Quantique

    9
    2 Votes
    9 Messages
    272 Vues
    [Science-friction] Au risque de lasser, Google crie encore au loup (et à l’avantage quantique)

    Début juillet, Google a annoncé avoir réalisé en à peine six secondes un calcul qui aurait occupé le supercalculateur le plus puissant du monde pendant près d’un demi-siècle. Présentée comme la démonstration de la supériorité du calcul quantique, cette comparaison reste discutable à plusieurs titres.

    Comme à son habitude, Google fait grand bruit autour de ses progrès en calcul quantique. Début juillet, l’équipe du géant américain a publié de nouveaux travaux sur l’archive ouverte Arxiv. Son calculateur, désormais doté de 70 qubits, aurait réalisé en quelques secondes un calcul que le supercalculateur le plus puissant du monde, Frontier, aurait pris 47 ans à résoudre. Selon les chercheurs, leur expérience «dépasse les capacités des supercalculateurs existants». Une démonstration discutable de la tant convoitée supériorité du calcul quantique sur les technologies établies… qui reste encore très loin d’un quelconque usage concret de la technologie.

    Source: https://www.usinenouvelle.com/editorial/science-friction-au-risque-de-lasser-google-crie-encore-au-loup-et-a-l-avantage-quantique.N2158267

  • 2 Votes
    1 Messages
    55 Vues

    Imaginons : nous sommes aux commandes d’une des sondes Voyagers et on voudrait se déplacer dans le système solaire. Combien de temps cela nous prendrait d’aller voir Proxima du Centaure ou notre centre galactique à la vitesse actuelle ? Et si on veut passer faire coucou aux galaxies proches de nous ?

    Il y a quelques jours, nous expliquions comment les sondes Voyager de la NASA font pour communiquer avec la Terre alors qu’elles se trouvent à 20 milliards de km. Un exploit pour des vaisseaux lancés dans les années 70 avec une antenne de 3,66 mètres seulement et une alimentation de quelques centaines de watts. Pour autant, cela fonctionne, et même plutôt bien.

    | Comment les sondes Voyager communiquent avec la Terre à 20 milliards de km Les km c’est so-terrestre, voici les années-lumière

    Mais 20 milliards de km, cela représente quoi exactement ? Difficile de se rendre compte avec des nombres aussi grands. On peut comparer cette distance à la circonférence de la Terre, environ 40 000 km : cela fait donc 500 000 fois le tour de notre planète… mais ce n’est pas forcément plus parlant.

    On pourrait également utiliser une autre unité de distance, l’année-lumière ou al (avec la vitesse de la lumière à 300 000 km/s environ dans le vide). On multiplie donc une vitesse par une durée, ce qui donne bien une distance. Elle est d’un peu moins de 10 000 milliards de km pour une année-lumière. On va commencer avec des sous-multiples que sont les heures-lumière (environ 1,1 milliard de km) et jours-lumière (environ 26 milliards de km).

    Entre les sondes de la NASA et la Terre, la lumière met une vingtaine d’heures. Oui, ce n’est pas très précis – 18 h 30 avec Voyager 2 et 22 h 15 pour Voyager 1 –  mais cela permet de planter le décor et on verra par la suite qu’on n’est pas à quelques heures-lumière près, très (très) loin de là même.

    À titre de comparaison, entre la Terre et le Soleil, la lumière ne met que huit minutes à faire le trajet. On dépasse l’heure avec Saturne et on arrive à 5,5 heures pour Pluton, la planète déchue de notre système Solaire.

    Voyager : près de 30 000 ans pour sortir du nuage de Oort

    Pour un peu mieux se rendre compte des distances et du temps, revenons au lancement des sondes Voyager, en 1977. Elles survolent ensuite Jupiter et Saturne, mais on n’est seulement alors qu’en 1981. Il faudra attendre 1986 et 1989 pour que Voyager 2 passe à proximité d’Uranus et de Neptune. Et depuis ? Rien… les sondes n’ont pas croisé le chemin d’un objet stellaire depuis plus de 30 ans, et elles ne risquent pas d’en voir un de sitôt, sauf surprise.

    Les derniers faits marquants remontent à respectivement 2013 et 2018 lorsque la NASA annonce que Voyager 1 et 2 ont dépassées l’héliopause pour entrer « dans l’espace interstellaire ». Quand sera le prochain rendez-vous ? Dans très longtemps…

    Voyager Héliopause

    Dans notre dossier sur le Système solaire, nous avons expliqué que le nuage de Oort se trouve aux confins et forme en quelque sorte une « coquille ». Les sondes Voyager en sont encore très loin.

    | À la découverte du Système solaire : le Soleil, élément central et « catalyseur » de la vie | À la découverte du nuage de Oort, aux confins du Système solaire

    Le bord intérieur du nuage d’Oort est, selon la NASA, « estimé entre 2 000 et 5 000 ua [unité astronomique correspondant à la distance Terre-Soleil] du Soleil. Le bord extérieur pourrait être à 10 000 ou même 100 000 ua du Soleil », soit entre une dizaine et une trentaine de jours-lumière, alors que, pour rappel, les sondes sont à moins d’une journée-lumière de la Terre pour le moment. Quant au bord extérieur du nuage, il se trouve entre une soixantaine de jours-lumière et 1,5 année-lumière.

    À la vitesse actuelle de la sonde – environ 60 000 km/h, soit une quinzaine de km… par seconde tout de même – il faudrait environ 28 000 ans aux sondes pour sortir du nuage de Oort (en prenant environ 100 000 ua comme limite). Dans 28 000 ans, les sondes ne seront donc qu’aux portes de notre système Solaire. Elles seront alors à 15 000 000 000 000 km, contre 20 000 000 000 km actuellement (50 ans après leur lancement).

    Dans l’espace, c’est le vide qui règne en maitre. Les sondes ne sont donc pas ralenties comme cela aurait été le cas sur Terre à cause de l’air. Sauf surprise très surprenante, elles vont ainsi continuer à avancer en gardant leur cap et leur vitesse pendant encore très très longtemps.

    Ceinture Kuiper nuage oort

    Crédits : CNES

    75 000 ans pour atteindre l’étoile Proxima

    En imaginant que les sondes soient dans la bonne direction pour rendre visite à l’étoile la plus proche de nous – Proxima du système triple Alpha Centauri –, elles devraient parcourir 4,2 années-lumière. C’est presque trois fois plus que pour atteindre la limite extérieure du nuage de Oort, ce qui nous amène à 75 000 ans environ.

    | Balade dans la Voie lactée : à la découverte du système triple Alpha Centauri

    Rappelons qu’il existe un projet un peu fou de « nano-vaisseaux » (pesant un gramme seulement) propulsés grâce à des rayons laser venant frapper de petites « voiles ». De 75 000 ans, on passerait ainsi à 20 ans seulement. Reste un problème : la latence des transmissions entre la sonde et la Terre. À la vitesse de la lumière (ce qu’il y a de plus rapide dans l’Univers), cela prendrait 4,2 années aller et autant pour le retour.

    De son côté, Trappist-1 qui faisait les gros titres en 2017 se trouve 10 fois plus loin que Proxima, à environ 40 années-lumière. On s’approcherait du million d’années pour qu’une sonde comme Voyager s’y rende.

    | Trappist-1 : sept exoplanètes, trois en zone habitable, une découverte majeure !

    Voie lactéeNous sommes ici au niveau du petit point marqué « Soleil ». Crédits : ESA

    500 millions d’années pour le centre de notre galaxie

    Et si on voulait pousser le voyage un peu plus loin en nous rendant simplement au centre galactique, c’est-à-dire au milieu de la Voie lactée (notre Galaxie) ? Il faudrait parcourir 28 000 années-lumière, soit 500 millions d’années, excusez du peu. Avec des approximations d’approximations certes, mais l’idée générale est là. On n’est de toute façon plus à quelques dizaines de millions d’années à ce stade.

    Et nous ne serions qu’au centre de notre galaxie. Pour rejoindre notre plus proche voisine, la galaxie naine du Sagittaire découverte en 1994, il faudrait parcourir 75 000 années-lumière, soit 2,7 fois plus que notre centre galactique. On passerait alors à 1,3 milliard d’années de temps de trajet. Cela en se basant sur les distances actuelles, qui changent forcément sur une aussi longue période.

    Vous voulez vous rendre dans une galaxie proche de la nôtre avec une sonde Voyager ? Andromède vous tend les bras à 2 500 000 d’années-lumière, ce qui nous donnerait plus de 40 milliards d’années pour nous y rendre, soit bien plus que l’age de l’Univers qui a 13,8 milliards d’années environ.

    Et on ne parle ici que de galaxies à quelques millions d’années-lumière de la nôtre, imaginez pour des galaxies à des milliards d’années-lumière de la Terre, et c’est sans prendre en compte l’expansion de l’Univers.

    Source : nextinpact.com

  • 4 Votes
    3 Messages
    94 Vues

    @Hadès a dit dans De l’animal-machine à l’animal-sujet :

    Et pour le dessin du chimpanzé il est aussi doué que moi

    Perso c’est encore pire…:lolilol:
    text alternatif

  • 0 Votes
    4 Messages
    104 Vues

    @Raccoon a dit dans Le niveau des élèves a baissé: la Suède range les tablettes et ressort les manuels scolaires :

    Mais je ne suis pas sûr que le tout numérique soit la cause profonde de sa méconnaissance.

    En effet, je suis d’accord, cela y participe mais ce n’est pas la seule cause.

    Si on pouvait faire cela chez nous ce serait cool, j’aurais moins de boulot 😉

    Quand je vois certains professeurs qui ne jure que par la tablette en élémentaire, ça m’agace fortement, surtout quand ça se plaint ensuite au collège que les élèves ne savent pas utiliser un ordinateur. (Bon pour cela, il faudrait déjà que le prof lui même l’utilise correctement)

  • 1 Votes
    1 Messages
    33 Vues

    En 2026, l’Agence Spatiale Européenne (ESA) prévoit de lancer la mission ClearSpace-1. L’objectif de celle-ci est de tester une méthode pour retirer un objet de l’orbite terrestre et le faire rentrer dans l’atmosphère. La cible de la mission est déjà connue, mais récemment, l’U.S. Space Force a détecté de nouvelles pièces de débris autour d’elle. Les premières analyses suggèrent qu’il s’agit de débris provenant de l’impact d’un petit objet se déplaçant à une très grande vitesse.

    La cible de la mission ClearSpace-1 est un adaptateur de forme conique qui a été laissé par une fusée Vega lancée en 2013, et qui pèse environ 113 kg. Les morceaux de débris spatiaux ont été détectés par les systèmes de suivi, et selon les responsables, on pourrait ne jamais savoir si le « projectile » était naturel ou artificiel. L’objet n’est pas apparu sur les écrans des systèmes de suivi.

    780dc5f1-804e-4734-945d-23369b429fe3-image.png

    D’après un communiqué publié le 22 août dernier par les responsables de l’ESA, cet événement de fragmentation souligne la pertinence de la mission ClearSpace-1. On peut aussi lire que la menace la plus importante que représentent les gros débris spatiaux est qu’ils se fragmentent en nuages d’objets plus petits. Ces morceaux de débris peuvent causer des dommages importants à des satellites en activité.

    La mission ClearSpace-1

    La mission ClearSpace-1 a comme objectif de s’approcher de l’adaptateur, de le capturer, puis de le faire rentrer dans l’atmosphère terrestre où il va se désintégrer. Pour ce faire, un engin développé par l’entreprise suisse ClearSpace va être utilisé. Cet engin sera lancé par une fusée Vega-C d’Arianespace, et il va se servir de « bras » robotisés pour capturer la cible.

    D’après les premières observations après l’impact, il semble que seul un petit morceau de l’adaptateur ait été arraché. Toutefois, la mission a été conçue pour désorbiter un objet totalement intact. Ainsi, les responsables sont actuellement en train d’évaluer la situation pour savoir ce qu’il faudra faire pour la suite. Il est prévu que les analyses durent plusieurs semaines.

    Gare aux débris

    Pour le moment, il reste encore trois ans avant le lancement de la mission. Les responsables auront du temps pour trouver les points à changer ou à adapter. Cependant, cet événement montre que le problème des débris spatiaux devient de plus en plus grave. Les stations au sol ne peuvent surveiller qu’une petite portion de l’orbite terrestre, et les plus petits débris ne sont pas détectables.

    En ce qui concerne la cible de la mission ClearSpace-1, les suivis effectués par l’U.S. Space Force et d’autres stations en Allemagne et en Pologne ont montré que l’objet principal est resté intact, et il n’y a eu aucune altération significative de son orbite. Les risques pour que les nouveaux débris entrent en collision avec d’autres objets sont également négligeables.

    Sources: https://www.fredzone.org/cible-clearspace-1-touchee-par-un-debris-spatial-ard267
    Et: https://www.space.com/space-debris-cleanup-mission-target-hit

  • 0 Votes
    1 Messages
    39 Vues

    L’élément prisé du monde médical et de la recherche fait défaut, en partie à cause de la guerre en Ukraine. Le CERN, son plus gros utilisateur en Suisse, a renouvelé son contrat de livraison à temps

    C’est une pénurie méconnue, mais plus durable et elle n’est de loin pas seulement due à la guerre en Ukraine. L’hélium manque, c’est presque devenu une tradition dans le secteur. Cet élément était jadis utilisé pour gonfler des ballons, car il est plus léger que l’air. Il amusait aussi, car notre voix émet un son aigu si on l’inhale. Mais seuls les plus âgés d’entre nous s’en souviennent, car l’hélium a disparu des fêtes foraines il y a longtemps. Son approvisionnement est compliqué depuis une bonne vingtaine d’années, un peu partout dans le monde, malgré une demande en hausse.

    Source pour abonnés: https://www.letemps.ch/economie/la-penurie-globale-d-helium-met-les-scientifiques-sous-tension

    Pauvres gamins qui ne sont pas près de voir échapper de leurs mimines, des ballons dressés vers le ciel…

    L’hélium liquide (-273 degrés) est utilisé au Cern pour rendre les bobinages d’aimant supraconducteurs, ce qui permet d’obtenir des champs magnétiques intenses à des tailles et des portées inusitées et à faible consommation électrique. On rêve d’un élément supraconducteur à moins basse température ou mieux, à température ambiante.

  • Étonnantes cultures animales

    7
    +0
    5 Votes
    7 Messages
    156 Vues

    @Pollux , je plussoie, car combien d’expériences de rapidité et de mémorisation faites avec des singes, des dauphins et d’autres espèces sont hallucinantes, aucun humain ne serait capable d’arriver au même résultat. Nous n’utilisons sûrement pas la même partie de notre cerveau, en tout cas pour nous, pas la bonne.
    L’apologie de la barbarie a eu pour conséquence la “suprématie” de notre espèce, voilà d’où nous vient notre prétendue supériorité. Et on n’en est pas sortis, l’illusion d’un monde en paix est une chimère qu’il faudra tôt ou tard oublier. Une civilisation qui n’est pas issue de la barbarie n’existe pas, sauf quelques tribus si petites et si minoritaires qu’on se fait un plaisir de détruire dès que découvertes.
    Je remarque que des intervenants sont vraiment concernés… Raccoon, Rapace… 🙂
    Merci à l’auteur en tout cas.

  • 0 Votes
    12 Messages
    258 Vues

    @michmich qu’est ce que ça faisait fantasmer ce truc, surtout à l’époque des premières branlettes lol

  • 4 Votes
    7 Messages
    127 Vues

    avec ça, ils sont infoutu de nous sortir une voiture sans bug électronique 😞

  • 0 Votes
    10 Messages
    170 Vues

    avec le nain de jardin il n’aurait peut etre pas eu ce blem

  • 2 Votes
    1 Messages
    53 Vues

    Vivons-nous vraiment dans l’Anthropocène, la période géologique marquée par l’impact global de l’activité humaine ? Et si oui, quand a-t-elle commencé et où sur Terre peut-on le mieux comprendre ses débuts ?

    Telles sont les questions auxquelles tente de répondre le Groupe de travail sur l’Anthropocène (AWG), créé en 2009 par la Sous-commission sur la stratigraphie du Quaternaire pour proposer une définition de ce concept et estimer son potentiel en tant qu’unité de temps géologique.

    Le 11 juillet 2023, le groupe a annoncé que le lac Crawford, en Ontario, avait été choisi comme le site où se trouve l’enregistrement sédimentaire qui servira à définir le début de l’Anthropocène.

    Mais qu’est-ce que ce lac a de si particulier pour être ainsi proclamé comme une sorte de ligne de démarcation entre différentes époques géologiques ?

    L’empreinte de la Grande accélération

    Depuis sa création, le groupe de travail sur l’Anthropocène a évalué divers types de preuves physiques, chimiques et biologiques préservées dans les sédiments et les roches, et a publié de nombreux articles scientifiques explorant leur nature et leur pertinence.

    Ces études ont conclu que l’Anthropocène est significatif à l’échelle géologique en raison de la rapidité et de l’ampleur des impacts récents de l’humain sur les processus opérant à la surface de la Terre. Nombre de ces perturbations ont généré des changements irréversibles qui surpassent ceux, plus modestes, survenus durant l’Holocène — la dernière phase climatique interglaciaire — qui a débuté il y a 11 700 ans.

    Dans les strates géologiques, l’AWG a identifié un ensemble important d’indicateurs qui coïncident avec ce que l’on appelle la « Grande accélération » du milieu du XX<sup>e</sup> siècle. Elle désigne la période qui a suivi la Seconde Guerre mondiale, marquée par une augmentation sans précédent de la population humaine, de la consommation d’énergie, de l’industrialisation et de la mondialisation. Ces indicateurs sont les suivants :

    Les radio-isotopes provenant des armes thermonucléaires dans l’atmosphère (tel le plutonium).

    Les particules carbonées originant de la combustion à hautes températures d’énergies fossiles.

    Les microplastiques.

    Les changements dans la biodiversité, notamment l’extinction, le déplacement d’espèces hors de leur aire de répartition naturelle et la forte expansion des organismes domestiqués.

    Vue partielle du dépôt géologique à la plage Tunelboca (Getxo, Espagne), un dépôt formé de résidus de fer, de briques réfractaires, de plastiques et d’autres technofossiles de l’Anthropocène. Roberto Martínez, Author provided Qu’est-ce qu’un « clou d’or » ?

    Au fil des ans, le groupe de travail sur l’Anthropocène a largement convenu que l’Anthropocène est géologiquement réel et qu’il devrait être formellement considéré comme une unité indépendante au sein de l’échelle internationale des temps géologiques. Son début se situerait au milieu du XX<sup>e</sup> siècle, dans les années 1950, d’après les signaux simultanés et globaux enregistrés dans les sédiments depuis lors.

    Le groupe de travail sur l’Anthropocène a établi qu’il était nécessaire de déterminer son lieu de référence au moyen d’une limite matérielle et temporelle appelée « point stratotypique mondial » (GSSP) — communément appelée « clou d’or ». Il s’agit de la méthode la plus largement acceptée pour formaliser les unités géologiques des 540 derniers millions d’années.

    Les critères de sélection

    Depuis 2019, un projet de collaboration entre le groupe de travail sur l’Anthropocène et de nombreux laboratoires de recherche est en cours dans le cadre d’une initiative internationale appelée Anthropocene Curriculum, promue par la Maison des cultures du monde (Haus der Kulturen der Welt) et l’Institut Max Planck pour l’Histoire de la science (Max Planck Institute for the History of Science), tous deux en Allemagne.

    Douze propositions détaillées ont été initialement soumises pour différentes sections géologiques susceptibles d’accueillir ce GSSP, situées sur cinq continents et dans huit environnements géologiques différents. Toutes ces propositions ont été publiées en 2023 dans la revue scientifique Anthropocene Review. Ces articles ont constitué la principale source d’information pour les membres votants du groupe de travail sur l’Anthropocène au cours du processus de sélection.

    Après en avoir éliminé plusieurs, le groupe de travail sur l’Anthropocène a finalement examiné en détail neuf sites. Les candidats appropriés étaient ceux qui contenaient de fines couches de sédiments pouvant être analysées d’année en année et dont l’âge pouvait également être corroboré par la présence d’éléments radioactifs afin de garantir un enregistrement sédimentaire complet.

    Les procédures stratigraphiques établies pour décider d’un GSSP sont déjà normalisées en géologie et sont communes pour la définition de tout temps géologique. Ainsi, un « clou d’or » nécessite la présence locale d’un marqueur physique visible à l’œil nu et d’au moins un signal indicateur, tel qu’un changement géochimique, que l’on retrouve dans les sédiments et les roches du même âge et sur l’ensemble du globe.

    La plupart des propositions ont identifié le plutonium comme l’indicateur principal et ont proposé le début de l’Anthropocène à partir d’une augmentation du signal de cet élément radioactif.

    Et le gagnant est…

    Une première discussion sur les forces et les faiblesses de chaque site a débuté en octobre 2022, et la liste a été réduite à trois à la fin de l’année.

    D’après les résultats, les sections géologiques les plus pertinentes étaient situées dans la baie de Beppu (Japon), au lac Sihailongwan (Chine) et au lac Crawford (Canada). Après une analyse détaillée de la nature de leur signal plutonium et un nouveau vote, les sites des lacs chinois et canadien ont été retenus comme finalistes.

    Finalement, le lac Crawford a reçu 61 % des votes et a donc été choisi comme site pour accueillir la proposition GSSP pour l’époque de l’Anthropocène.

    Localisation du lac Crawford. Francine MG McCarthy et ses collègues. Sage Journal, 2023, CC BY

    Les couches de sédiments du lit du lac, à l’ouest de Toronto, ont été étudiées à l’origine pour démontrer l’occupation sporadique de la région par les peuples autochtones et la colonisation subséquente par les Européens. La nouvelle étude géologique a permis d’augmenter le nombre d’indicateurs préservés dans les différentes couches annuelles, formées d’une alternance de calcite pâle, déposée en été, et de lamines organiques foncées, accumulées en hiver.

    Photo de la carotte ou de l’échantillon CL-2011 avec des détails sur la profondeur et l’âge des différentes couches annuelles, indiquant la position de la limite proposée en 1950. Francine MG McCarthy et ses collègues. Sage Journal, 2023, CC BY

    La couche proposée comme marqueur visuel pour le GSSP a une profondeur de 6,1 pouces (15,6 centimètres) à la base d’une couche de calcite déposée au cours de l’été 1950. Elle a été choisie en raison de l’augmentation rapide du plutonium par la suite. Ce signal coïncide également avec une augmentation des particules carbonées et un changement majeur de l’écosystème identifié par une diminution du pollen d’orme et un remplacement des espèces de diatomées, un type d’algues.

    On dit « adieu » à l’Holocène

    Il est très important de ne pas confondre le début de l’activité humaine et l’Anthropocène. L’Anthropocène ne comprend pas l’impact initial de l’humain, qui était régional et s’est accru avec le temps, mais il est défini comme une conséquence de la réponse planétaire à l’énorme impact de la Grande accélération.

    L’Anthropocène s’inscrit dans les temps géologiques et, malgré sa courte durée, bénéficiera d’une éventuelle formalisation qui en déterminera précisément le sens et l’usage dans toutes les sciences et autres disciplines académiques. La fin d’une époque relativement stable de l’histoire de la Terre, l’Holocène, sera ainsi reconnue.

    Source : theconversation.com

  • 1 Votes
    26 Messages
    412 Vues

    Et dire que quand on regarde les vidéos de l’ina on voie des gamins de 10 piges mieux parler que nous même adultes

  • 1 Votes
    1 Messages
    49 Vues

    Ce projet de recherche et développement porte sur les batteries à électrolyte solide, alias BES. Cette technologie « utilise l’électrolyte solide au lieu de l’électrolyte liquide pour développer des batteries à plus haute densité énergétique et qui sont plus sûres pour les consommateurs que les batteries lithium-ion classiques », explique la Commission.

    La France a notifié la Commission européenne de son plan visant à apporter une subvention directe de 1,5 milliard d’euros afin de mener des recherches jusqu’en 2029. La Commission a de son côté donné son feu vert, estimant entre autres que « la mesure prévoit des garde-fous suffisants pour garantir que les distorsions indues de la concurrence sont limitées ».

    Il est notamment question de développer des BES de première génération « pour surmonter les limites des batteries lithium-ion actuelles », puis d’améliorer le processus avec une seconde génération. Le projet prévoit aussi de « développer des techniques de recyclage des BES et des stratégies de recyclage pour divers composants des batteries ».

    De son côté, « ProLogium s’est engagée à partager activement le savoir-faire technique acquis dans le cadre du projet avec l’industrie et le monde universitaire ».

    Source : nextinpact.com

  • Fiabilité de la reconnaissance faciale

    1
    0 Votes
    1 Messages
    28 Vues

    Une femme enceinte innocente emprisonnée au milieu d’une tendance à la reconnaissance faciale défectueuse.

    Les services de police américains continuent d’utiliser la technologie malgré une faible précision et des inadéquations évidentes.

    b4ddc111-438e-4415-a902-60831ca21611-GettyImages-1136827567-640x387.jpg
    Des études ont montré que la technologie de reconnaissance faciale existante est plus susceptible de générer des faux positifs avec des visages noirs.

    L’utilisation d’un logiciel de reconnaissance faciale a conduit la police de Detroit à arrêter à tort Porcha Woodruff, 32 ans, pour vol et détournement de voiture, rapporte le New York Times. Enceinte de huit mois, elle a été détenue pendant 11 heures, interrogée et s’est fait saisir son iPhone comme preuve avant d’être libérée. Il s’agit de la dernière d’une série de fausses arrestations dues à l’utilisation de la technologie de reconnaissance faciale, qui, selon de nombreux critiques, n’est pas fiable.

    L’erreur semble particulièrement notable car les images de surveillance utilisées pour identifier à tort Woodruff ne montraient pas de femme enceinte, et Woodruff était très visiblement enceinte au moment de son arrestation.

    L’incident a commencé par une recherche automatisée de reconnaissance faciale par le département de police de Detroit. Un homme victime d’un vol a signalé le crime et la police a utilisé DataWorks Plus pour exécuter des séquences vidéo de surveillance sur une base de données de photos d’identité criminelles. La photo d’identité de Woodruff en 2015 lors d’une précédente arrestation sans rapport a été identifiée comme une correspondance. Après cela, la victime a confirmé à tort son identité à partir d’une série de photos, ce qui a conduit à son arrestation.

    Woodruff a été accusé devant le tribunal de vol qualifié et de détournement de voiture avant d’être libéré moyennant une caution personnelle de 100 000 $. Un mois plus tard, les accusations portées contre elle ont été rejetées par le procureur du comté de Wayne. Woodruff a intenté une action en justice pour arrestation injustifiée contre la ville de Detroit, et le chef de la police de Detroit, James E. White, a déclaré que les allégations étaient préoccupantes et que l’affaire était prise au sérieux.

    Selon le New York Times, cet incident est le sixième cas récemment signalé où un individu a été faussement accusé à la suite de la technologie de reconnaissance faciale utilisée par la police, et le troisième à avoir lieu à Detroit. Les six personnes faussement accusées étaient noires . Le département de police de Detroit effectue en moyenne 125 recherches de reconnaissance faciale par an, presque exclusivement sur des hommes noirs, selon les données examinées par le Times.

    La ville de Détroit fait actuellement face à trois procès liés à des arrestations injustifiées basées sur l’utilisation de la technologie de reconnaissance faciale. Des groupes de défense, dont l’American Civil Liberties Union du Michigan, appellent à davantage de preuves dans les cas impliquant des fouilles faciales automatisées, ainsi qu’à la fin des pratiques qui ont conduit à de fausses arrestations.

    L’arrestation de Woodruff et la tendance récente des fausses arrestations ont déclenché un nouveau cycle dans un débat en cours sur la fiabilité de la technologie de reconnaissance faciale dans les enquêtes criminelles. Les critiques disent que la tendance met en évidence les faiblesses de la technologie de reconnaissance faciale et les risques qu’elle pose aux personnes innocentes.

    C’est particulièrement risqué pour les personnes à la peau foncée. Un article de 2020 sur le site Web de l’Université de Harvard par Alex Najibi détaille la discrimination raciale omniprésente dans la technologie de reconnaissance faciale, mettant en évidence des recherches qui démontrent des problèmes importants avec l’identification précise des individus noirs.

    Un rapport de 2022 de Georgetown Law sur l’utilisation de la reconnaissance faciale dans les forces de l’ordre a révélé que “malgré 20 ans de recours à la reconnaissance faciale comme technique d’enquête médico-légale, la fiabilité de la reconnaissance faciale telle qu’elle est généralement utilisée dans les enquêtes criminelles n’a pas encore été établie”.

    En outre, une déclaration de Georgetown sur son rapport de 2022 a déclaré qu’en tant qu’outil d’enquête biométrique, la reconnaissance faciale “peut être particulièrement sujette aux erreurs résultant d’un jugement humain subjectif, de biais cognitifs, de preuves de mauvaise qualité ou manipulées et d’une technologie sous-performante” et qu’il “ne fonctionne pas assez bien pour servir de manière fiable les objectifs pour lesquels les forces de l’ordre elles-mêmes veulent l’utiliser”.

    La faible précision de la technologie de reconnaissance faciale provient de plusieurs sources, notamment des algorithmes non éprouvés, des biais dans les ensembles de données de formation, des angles de photo différents et des images de mauvaise qualité utilisées pour identifier les suspects. De plus, la structure faciale n’est pas un identifiant aussi unique que les gens le pensent, en particulier lorsqu’elle est combinée à d’autres facteurs, comme des données de mauvaise qualité.

    Ce faible taux de précision semble encore plus gênant lorsqu’il est associé à un phénomène appelé biais d’automatisation , qui est la tendance à faire confiance aux décisions des machines, malgré les preuves potentielles du contraire.

    Ces problèmes ont conduit certaines villes à interdire son utilisation , notamment San Francisco, Oakland et Boston. Reuters a rapporté en 2022, cependant, que certaines villes commençaient à repenser les interdictions de reconnaissance faciale en tant qu’outil de lutte contre la criminalité au milieu “d’une augmentation de la criminalité et d’un lobbying accru de la part des développeurs”.

    Quant à Woodruff, son expérience l’a laissée hospitalisée pour déshydratation et profondément traumatisée. Son avocat, Ivan L. Land, a souligné au Times la nécessité pour la police de mener une enquête plus approfondie après un coup de reconnaissance faciale, plutôt que de se fier uniquement à la technologie. “C’est effrayant. Je suis inquiet”, a-t-il dit. “Quelqu’un ressemble toujours à quelqu’un d’autre.”

    Source: https://arstechnica.com/information-technology/2023/08/innocent-pregnant-woman-jailed-amid-faulty-facial-recognition-trend/

  • 1 Votes
    52 Messages
    2k Vues

    Encore 3/4 décennies et se sera bon 🙂

  • 1 Votes
    11 Messages
    174 Vues

    c’est rien laisse le temps faire avec un peu de chance personne ne remontra plus le topic :smile:

  • 0 Votes
    5 Messages
    125 Vues

    @Memorex91 ça expliquerait cet équilibre précaire. :ahah:

  • 5 Votes
    9 Messages
    178 Vues
    Grâce à un “cri interstellaire”, communications rétablies avec la sonde Voyager 2

    C’est la fin d’une grosse frayeur: la Nasa a annoncé vendredi avoir entièrement rétabli les communications avec sa mythique sonde Voyager 2, après les avoir interrompues par inadvertance fin juillet.

    La sonde, lancée dans l’espace en 1977 et actuellement située à 19,9 milliards de kilomètres de la Terre, “opère normalement” et est bien restée “sur sa trajectoire attendue”, a déclaré la Nasa dans un communiqué.

    Cette semaine, la Nasa avait confirmé avoir réussi à détecter le signal de Voyager 2 grâce au “deep space network”, un réseau international d’antennes, indiquant qu’elle était en “bonne santé”. Puis l’”équivalent d’un cri interstellaire” a été envoyé, “ordonnant à la sonde de se réorienter et de retourner son antenne vers la Terre”, a expliqué la Nasa vendredi.

    Les scientifiques avaient expliqué que cette technique avait peu de chances de fonctionner, mais elle s’est finalement révélée payante. Compte tenu de la distance à laquelle se trouve Voyager 2, la commande a mis un peu plus de 18 heures à l’atteindre, et il a fallu attendre la même durée avant de pouvoir s’assurer du résultat, a expliqué la Nasa. L’agence spatiale américaine reçoit désormais de nouveau les données scientifiques et de télémétrie (mesure de distance) de la sonde, a-t-elle confirmé.

    Si cette méthode n’avait pas fonctionné, la Nasa espérait qu’une manœuvre de réorientation automatique réglerait le problème, mais celle-ci n’était attendue qu’à une date lointaine, en octobre.

    Voyager 2 a quitté en 2018 la bulle protectrice du Soleil, appelée l’héliosphère, pour entrer dans l’espace interstellaire. Avant de quitter le système solaire, elle est devenue la seule sonde à avoir réalisé un survol d’Uranus et de Neptune.

    Sa jumelle Voyager 1, également lancée en 1977, était devenu le premier vaisseau à entrer dans l’espace interstellaire, en 2012, et se trouve actuellement à environ 24 milliards de kilomètres de la Terre.

    Les deux sondes, missions mythiques de la Nasa, emportent chacune des enregistrements de sons et d’images de la Terre sur des plaques en or et en cuivre.

    Source: https://www.7sur7.be/monde/grace-a-un-cri-interstellaire-communications-retablies-avec-la-sonde-voyager-2~ad0a0b60/