Sciences

418 Sujets 1.9k Messages
  • 5 Votes
    9 Messages
    181 Vues

    @Pluton9 a dit dans La clé pour lutter contre la pseudoscience n’est pas la moquerie, c’est l’empathie :

    Paul M. Sutter est un crétin arrogant dans la pure tradition américaine qui prône que seuls ceux qui ont fait des études, peuvent être scientifiques et que seules leurs méthodes sont reconnaissables

    On en a un comme ça aussi chez nous 😁

  • 4 Votes
    11 Messages
    306 Vues

    Comment « faire vos propres recherches » peut vous conduire à des informations douteuses et à des théories du complot

    C’est pourtant simple : ne pas tout éponger au premier degré les égouts des réseaux “dits sociaux”, toujours rester maître de son libre-arbitre et de ses facultés de discernement sans céder aux chants des influenceurs quels qu’ils soient (idéologiques, politiques, marchands et publicitaires).

    Les plus perméables psychologiquement en attente et/ou en perte de repères ne le comprendront peut-être pas à leurs dépens. Mais ça viendra plus tard… ou pas.

  • Conseils aux planteurs de graines de doute

    Épinglé Déplacé
    1
    2 Votes
    1 Messages
    75 Vues

    J’ai un doute, mais je me soigne:

    Source: https://jaiundoute.com/

  • [Vidéos] Sciences, zététique et plus encore...

    Épinglé
    8
    6 Votes
    8 Messages
    285 Vues

    David Louapre, lauréat de la Médaille de la médiation scientifique 2023 du CNRS

    Chaque mois, une nouvelle vidéo vient expliquer un concept scientifique issu de la biologie, de l’astronomie, de la physique quantique… David Louapre s’occupe ainsi de la chaîne YouTube Science Étonnante, qui compte plus de 1,3 million d’abonnés pour 110 millions de vidéos vues.
    “Je suis animé par la volonté de transmettre à la société ce que j’ai eu la chance d’apprendre pendant mes études et mes recherches”, raconte ce docteur en physique théorique diplômé de l’ENS Lyon.

    Alors qu’il travaillait dans la recherche privée chez Saint-Gobain, David Louapre a ouvert un blog, qu’il a transformé en chaîne YouTube en 2015. Il y aborde les sujets scientifiques qui le passionnent, rencontrant un vif succès en ligne. Il a ensuite publié plusieurs ouvrages de vulgarisation, dont “Mais qui a attrapé le bison de Higgs ?”. David Louapre est également directeur scientifique chez Ubisoft, où il adapte des simulations et les modèles scientifiques au monde du jeu vidéo.

  • [Conseils lecture] Sciences, zététique et plus encore...

    Épinglé
    25
    4 Votes
    25 Messages
    508 Vues

    @Pollux a dit dans [Conseils lecture] Sciences, zététique et plus encore... :

    Juste un dernier petit mot avant de vous laisser tranquille
    Je serais curieux de savoir comment, dans les années 20, ont été traités les gens, parce que pense qu’il y en a eu, qui émettaient des réserves sur ce nouveau produit miracle qu’était le radium.
    Cf le post de darkCainou un peu plus haut.

    C’est pourtant évident 😉
    si on se réfère à la crise actuelle…

    La plupart des scientifiques se sont montrés prudents, avant même l’utilisation massive, ils ont pris beaucoup de risques pour les tout premiers avec leur santé, mais rapidement ils ont mis un frein à l’utilisation débridée. Même si à l’époque cette science était très neuve (celle de la matière, les atomes etc… je ne parle pas de la radioactivité)

    Ensuite les charlatans, les scientifiques rebelles, les bonimenteurs, les entreprises ont utilisés ça en masse malgré les avertissements du corps scientifique (un peu comme Raoult et la chloroquine (qui a beaucoup tué, et les gens ont suivi leur gourou aveuglement comme pour le radium)), pour finalement sous la pression beaucoup trop tardive des états (surtout le notre 20/30 ans de retard sur le radium, toujours bien lent à réagir comme pour la crise de l’hydroxychloroquine). Il faut dire qu’il n’y avait pas les mêmes gardes fous, la science dans l’histoire de l’humanité, celle basée sur les preuves c’est assez récent.

    Heureusement, le Radium était tellement cher, les stocks mondiaux se comptaient en grammes que la plupart des entreprises qui vendait la radioactivité dans leurs produits (je parle des produits de beauté, alimentation etc…) n’en mettaient en fait pas, passé une époque.

    Dans le cas présent, les processus scientifiques ne sont plus du tout les même que y’a 120 ans, l’arnm n’est pas une nouvelle technologie découverte y’a 2 ans, il y a presque 30 ans de savoir accumulés, et ça se base sur un corpus de connaissances bien plus complètes sur l’adn et l’arn.

    Si on devait comparer au radium, se serait plus comme si on utilisait le premier vaccin ARNm dans les années 60 juste après la découverte et que posant un problème des scientifiques douteux continueraient à l’utiliser.

    L’ARNm du virus quand on attrape la covid on en est envahi complètement, rien à voir avec le vaccin et la petite dose, le risque de retro transcription est beaucoup plus important alors avec le virus, de même avec les effets secondaires.

  • 2 Votes
    1 Messages
    26 Vues

    Des nodules au fond de l’océan fabriquent de l’oxygène sans photosynthèse (par électrolyse). Et s’ils étaient à l’origine de l’apparition de la vie?

    870a5388-e327-48c9-9562-1037e08dc87f-image.png
    À la surface des nodules, il y a une ension électrique presque aussi élevée que dans une pile AA

    Dans les abysses de l’océan Pacifique et l’obscurité la plus totale, des scientifiques ont découvert avec stupeur de l’oxygène provenant non pas d’organismes vivants, mais de sortes de galets contenant des métaux, ce qui questionne la théorie sur les origines de la vie sur Terre.

    Cet étrange «oxygène noir» a été détecté à plus de 4 kilomètres de profondeur, dans la plaine abyssale de la zone de fracture géologique de Clarion-Clipperton, dans le centre du Pacifique, selon une étude parue lundi.

    Une cible de choix pour l’exploitation minière sous-marine en raison de la présence de nodules polymétalliques, des concrétions minérales riches en métaux (manganèse, nickel, cobalt…) nécessaires notamment à la fabrication des batteries pour véhicules électriques, éoliennes, panneaux photovoltaïques et téléphones portables.

    C’est dans cette zone qu’un navire de l’Association écossaise pour les sciences marines (SAMS) a effectué des prélèvements, financés par les sociétés The Metals Compagny et UK Seabed Resources qui convoitent ces précieux nodules.

    Ils ont cru à une erreur

    Objectif des recherches: évaluer l’impact d’une telle prospection sur un écosystème où l’absence de lumière empêche la photosynthèse et donc la présence de plantes, mais qui regorge d’espèces animales uniques. «On essayait de mesurer la consommation d’oxygène» du plancher océanique, en mettant ses sédiments sous des cloches appelées chambres benthiques, explique à l’AFP Andrew Sweetman, premier auteur des travaux parus dans «Nature Geoscience».

    En toute logique, l’eau de mer ainsi emprisonnée aurait dû voir sa concentration en oxygène diminuer, à mesure que ce dernier était consommé par les organismes vivants à ces profondeurs. C’est pourtant l’inverse qui a été observé: «le taux d’oxygène augmentait dans l’eau au-dessus des sédiments, dans le noir complet et donc sans photosynthèse», développe le Pr Sweetman, responsable du groupe de recherche sur l’écologie et la biogéochimie des fonds marins de l’association SAMS.

    La surprise a été telle que les chercheurs ont d’abord pensé que leurs capteurs sous-marins s’étaient trompés. Ils ont mené des expériences à bord de leur navire pour voir si la même chose se produisait en surface, en faisant incuber, dans le noir, ces mêmes sédiments et les nodules qu’ils contenaient. Et constaté une nouvelle fois que le taux d’oxygène croissait.

    Tension comme dans une pile

    «À la surface des nodules, nous avons détecté une tension électrique presque aussi élevée que dans une pile AA», décrit le Pr Sweetman, en comparant ces nodules à des «batteries dans la roche». Ces étonnantes propriétés pourraient être à l’origine d’un processus d’électrolyse de l’eau, qui sépare ses molécules en hydrogène et en oxygène à l’aide d’un courant électrique. Cette réaction chimique intervient à partir de 1,5 volt (la tension d’une pile) que les nodules pourraient atteindre quand ils sont regroupés, selon un communiqué de l’association SAMS joint à l’étude.

    «La découverte de production d’oxygène par un processus autre que la photosynthèse nous incite à repenser la manière dont est apparue la vie sur Terre», liée à l’apparition de l’oxygène, commente le Pr Nicholas Owens, directeur de SAMS.

    La vision «conventionnelle» étant que l’oxygène «a été fabriqué pour la première fois il y a environ 3 milliards d’années par des cyanobactéries qui ont mené au développement d’organismes plus complexes», développe le scientifique.

    «La vie aurait pu commencer ailleurs que sur la terre ferme et près de la surface de l’océan», avance le Pr. Sweetman. «Puisque ce processus existe sur notre planète, il pourrait générer des habitats oxygénés dans d’autres mondes océaniques comme Encelade ou Europe (des lunes de Saturne et de Jupiter)» et y créer les conditions d’apparition d’une vie extra-terrestre.

    Il espère que ses conclusions permettront de «mieux réguler» l’exploitation minière en eaux profondes, sur la base d’informations environnementales plus précises.

    Source: https://www.lematin.ch/story/science-decouverte-d-oxygene-qui-n-est-pas-produit-par-des-etres-vivants-103153854

  • 2 Votes
    3 Messages
    44 Vues

    @Mister158 Bonnes vacances et profite en bien. Tu auras assez de temps pour te faire du soucis plus tard 🙂

  • 4 Votes
    1 Messages
    28 Vues

    1a1b7a9f-9b1a-48cb-895b-e27a68a4a43b-image.png
    Un modèle de Lunik 1 exposé à Moscou. (Crédit image : Keystone/Getty Images)

    La course à l’espace entre les États-Unis et l’ex-Union soviétique s’est accélérée à la fin des années 1950, pour se répercuter dans les années 1960. Cette compétition entre deux pays a donné un élan supplémentaire à la détermination de la NASA de respecter la proclamation de l’homme sur la lune du président John Kennedy.

    Les relations entre les États-Unis et l’Union soviétique étaient incontestablement tendues, une rivalité de superpuissances alimentée par des différences d’idéologie politique et d’objectifs économiques, les deux nations s’efforçant d’influencer le monde en mettant en valeur leurs prouesses technologiques et militaires.

    L’Union Soviétique avait l’intention d’écraser un engin sur la Lune - et en même temps de donner un coup de poing politique en lançant des fanions métalliques avec les armoiries de l’URSS sur la surface lunaire. Le 13 septembre 1959, l’Union soviétique atteignit cet objectif avec Luna 2 .

    85005448-e4fa-4b2f-b004-1e233aed6f9e-image.png
    Modèle Luna 1 - 2 de l’Union soviétique. (Crédit image : NASA/NSSDCA/domaine public)

    Pour mieux comprendre comment l’Union soviétique a construit des engins destinés à la lune, la Central Intelligence Agency (CIA) américaine a mené un travail d’espionnage secret sur une exposition soviétique en 1959.

    Une équipe d’action de la CIA a démantelé une exposition “Lunik 2” pour documenter les techniques et technologies utilisées par l’Union soviétique.

    Des années plus tard, cet acte secret a été détaillé par la CIA et présenté comme une opération d’espionnage furtive menée à l’insu de l’Union soviétique.

    L’opération inhabituelle du jour au lendemain de la CIA impliquait du matériel spatial soviétique de l’étage supérieur qui était transporté dans le cadre d’une exposition visant à promouvoir les réalisations industrielles et économiques soviétiques.

    883a4ebf-cd9e-454c-9f42-8c226f8bf1c5-image.png
    Un modèle de Lunik 1 exposé à Moscou. (Crédit image : Don Mitchell/Paysage mental)

    Selon un article publié sur le site « salle de lecture électronique » de la CIA :

    “Une équipe d’officiers de la CIA a obtenu un accès illimité pendant 24 heures, de ce qui s’est avéré être, non pas une réplique, mais un système pleinement opérationnel comparable au Lunik 2.”

    L’équipe a démonté le véhicule, ajoute le message, “a photographié toutes les pièces sans les retirer de sa caisse avant de tout remettre à sa place, obtenant ainsi des informations inestimables sur sa conception et ses capacités”.

    L’article conclut : “Et les Soviétiques n’en étaient pas plus sages. Si cela ressemble à quelque chose d’un scénario de film, c’est vraiment arrivé.”

    Version aseptisée

    “L’enlèvement de Lunik” a été documenté dans une revue historique “aseptisée” de la CIA qui a été déclassifiée et publiée publiquement en 1995. Elle a été écrite par Sydney W. “Wes” Finer de la CIA et publiée dans l’édition de l’hiver 1967 de l’agence de " Études en renseignement.

    C’est l’historien de l’espace aux yeux d’aigle, Dwayne Day, qui a publié pour la première fois, au milieu des années 1990, un article sur la mission impossible de la CIA dans Quest, l’informatif History of Spaceflight Quarterly.

    “C’est moi qui ai trouvé le document déclassifié aux Archives nationales. Il était sous forme papier. [Le] document n’a été mis en ligne qu’une décennie ou plus plus tard”, a déclaré Day à Space.com. “Notez que ‘Lunik’ n’est pas un mot russe. C’était un terme d’argot américain désignant les missions lunaires russes, pas le nom que les Russes leur donnaient.”

    b2841a4a-d94f-4b24-9bb3-e95bf657532e-image.png
    Aménagement interne du véhicule Lunik. (Crédit image : CIA)

    Plus récemment, en juin 2020, John Greenewald, fondateur de Black Vault , une archive de plus de deux millions de pages obtenue du gouvernement par le Freedom of Information Act (FOIA), a publié le document sous une forme non aseptisée qui note, comme un sous-titre : “Obtenir les marquages ​​d’usine depuis l’intérieur d’un véhicule spatial soviétique de l’étage supérieur.”

    Ces marquages ​​ont ensuite été analysés et détaillés dans un “Markings Center Brief” qui a révélé l’identification probable du producteur de la scène Lunik et le fait qu’il s’agissait de la cinquième réalisée. L’identification de trois producteurs d’électricité qui ont fourni des composants, y compris le système de numérotation des pièces, éventuellement utilisé pour d’autres matériels spatiaux soviétiques, a également été approfondie.

    Humpty Dumpty

    601b6af7-3518-4940-918c-e75647183e28-image.png
    Rivaux de la course spatiale. Le président John F. Kennedy et le président de l’Union soviétique, Nikita Khrouchtchev, se rencontrent le 3 juin 1961 à l’ambassade américaine à Vienne, en Autriche. (Crédit image : Bibliothèque et musée présidentiels John F. Kennedy, Boston)

    Les magouilles de Lunik de la CIA n’étaient pas dénuées de circonstances à valeur comique.

    Comme Humpty Dumpty, essayer de remettre les choses en place, puis de fermer la caisse était l’un des nombreux résultats à fort enjeu, mais assez comiques.

    “Le premier travail, remettre l’orbe dans son panier, s’est avéré être la partie la plus délicate et la plus longue de toute la nuit de travail”, note le document. En effet, la façon dont le nez et les compartiments moteur étaient conçus empêchait le guidage visuel pour remonter facilement le matériel spatial.

    “Nous avons passé près d’une heure là-dessus, un homme dans la section du nez exigu essayant de placer l’orbe précisément dans la bonne position et un autre dans le compartiment moteur essayant d’engager les filetages à l’extrémité d’une tige qu’il ne pouvait pas voir.” souligne le document. “Après de nombreuses tentatives vaines et de nombreux moments d’anxiété, la connexion a finalement été établie et nous avons tous soupiré de soulagement.”

    Quant à la mission accomplie, l’enlèvement du Lunik était un “exemple d’une excellente coopération dans un travail entre des opérateurs secrets et des collectionneurs essentiellement déclarés”, indique le document obtenu par la FOIA.

    Source: https://www.space.com/how-the-cia-kidnapped-a-soviet-moon-probe-during-the-space-race

  • 0 Votes
    1 Messages
    38 Vues

    aec8854d-ac42-4de6-a013-cdfba41a4393-image.png
    Réagir

    Le Japon déploie des robots géants pour faire de la maintenance ferroviaire
    © West Japan Railway
    Selon l’entreprise Jinki qui a développé le robot, les contrôleurs peuvent synchroniser leurs mouvements avec le robot, pour s’assurer d’une certaine précision.

    Go, go, Power Rangers ! Voici ce qu’évoque le nouveau robot que déploie la compagnie ferroviaire West Japan Railway sur son réseau à partir de juillet 2024. S’il ressemble énormément aux robots géants que l’on peut voir dans la série, sa fonction ne sera pas de combattre les méchants… mais d’effectuer des travaux de maintenance.
    Géant à tout faire

    Ce robot, développé par les entreprises Jinki Ittai Co et Nippon Signal Co, est monté sur un camion et «peut atteindre une hauteur de 12 mètres, possède la capacité de porter jusqu’à 40 kg de charges et tenir une brosse pour peindre ou utiliser une tronçonneuse», selon le Guardian.

    Il est contrôlé par une personne assise dans le cockpit du camion (presque comme les Power Rangers) qui voit ce que le robot fait à travers des lunettes spéciales connectées aux «yeux» du géant. Parmi les fonctions attendues : enlèvement des arbres et autres obstacles, la peinture d’équipements d’infrastructure ou leur remplacement.

    Selon West Japan Railway, le robot pourra servir à compenser des pénuries de travailleurs, fréquentes dans un Japon vieillissant, et leur évitera des accidents du travail comme des chutes ou le danger électrique. Une autre manière de combattre les méchants ?

    Source: https://www.usinenouvelle.com/article/le-japon-deploie-des-robots-geants-pour-faire-de-la-maintenance-ferroviaire.N2215575

  • 2 Votes
    1 Messages
    34 Vues

    La date de lancement de la mission Europa Clipper visant à étudier l’intrigante lune en orbite autour de Jupiter, qui se classe aux côtés du vaisseau spatial Cassini vers Saturne comme la mission scientifique planétaire la plus coûteuse et la plus ambitieuse de la NASA, est désormais incertaine.

    Le vaisseau spatial de 4,25 milliards de dollars devait être lancé en octobre sur une fusée Falcon Heavy depuis le Kennedy Space Center en Floride. Cependant, la NASA a révélé que les transistors MOSFET à bord du vaisseau spatial pourraient ne pas être aussi résistants aux radiations qu’on le pensait.

    “Le problème des transistors est apparu en mai lorsque l’équipe de la mission a été informée que des pièces similaires tombaient en panne à des doses de rayonnement inférieures à celles prévues”, a écrit l’agence spatiale dans un article de blog jeudi après-midi. "En juin 2024, une alerte de l’industrie a été envoyée pour informer les utilisateurs de ce problème. Le fabricant travaille avec l’équipe de mission pour soutenir les efforts de test et d’analyse des radiations en cours afin de mieux comprendre le risque lié à l’utilisation de ces pièces sur le vaisseau spatial Europa Clipper. ".

    Les lunes en orbite autour de Jupiter, une planète géante gazeuse massive, existent dans l’un des environnements de rayonnement les plus sévères du système solaire. Les premiers tests de la NASA indiquent que certains des transistors qui régulent le flux d’énergie à travers le vaisseau spatial pourraient tomber en panne dans cet environnement. La NASA évalue actuellement la possibilité de maximiser la durée de vie des transistors sur Jupiter et prévoit de terminer une analyse préliminaire fin juillet.

    Retarder ou ne pas retarder

    La mise à jour de la NASA ne dit pas si le vaisseau spatial pourrait encore effectuer sa fenêtre de lancement d’environ trois semaines cette année, ce qui amènerait Clipper au système Jovian en 2030.

    La mission Clipper a des opportunités de lancement en 2025 et 2026, mais celles-ci pourraient entraîner des retards supplémentaires. Cela est dû à la nécessité de plusieurs assistances gravitationnelles. Le lancement de 2024 suit une trajectoire « MEGA », comprenant un survol de Mars en 2025 et un survol de la Terre fin 2026 – assistance gravitationnelle Mars-Terre. Si Clipper était lancé avec un an de retard, cela nécessiterait un deuxième survol de la Terre. Un lancement en 2026 reviendrait à une trajectoire MEGA. Ars a demandé à la NASA le calendrier des lancements en 2025 et 2026 et mettra à jour si elle fournit ces informations.

    Un autre résultat négatif des retards serait les coûts, car maintenir la mission au sol pendant encore un an entraînerait probablement quelques centaines de millions de dollars de dépenses supplémentaires pour la NASA, ce qui ferait un trou dans son budget scientifique planétaire.

    Le billet de blog de la NASA publié cette semaine n’est pas la première fois que l’agence spatiale mentionne publiquement ces problèmes liés au transistor à effet de champ métal-oxyde-semi-conducteur, ou MOSFET. Lors d’une réunion du Space Studies Board début juin, Jordan Evans, chef de projet pour la mission Europa Clipper, a déclaré qu’il s’agissait de sa préoccupation numéro un avant le lancement.

    “Ce qui m’empêche de dormir la nuit”

    “La chose la plus difficile à laquelle nous sommes confrontés à l’heure actuelle est un problème lié à ces transistors, les MOSFET, qui sont utilisés comme commutateurs dans le vaisseau spatial”, a-t-il déclaré. "Il y a cinq semaines aujourd’hui, j’ai reçu un e-mail m’informant qu’un client non-NASA avait effectué des tests sur ces pièces résistantes aux radiations et découvert qu’elles fonctionnaient avant (les spécifications), à des niveaux de rayonnement nettement inférieurs à ceux que nous avions qualifiés de ". nous avons effectué nos achats de pièces, et d’autres acteurs de l’industrie l’ont également fait.

    À l’époque, Evans avait déclaré que les choses « allaient dans la bonne direction » en ce qui concerne l’analyse de la question par l’agence. Il semble peu probable que la NASA aurait publié un article de blog cinq semaines plus tard si le problème progressait toujours régulièrement vers une résolution.

    “Ce qui me tient éveillé en ce moment, c’est l’incertitude associée aux MOSFET et le risque résiduel que nous prendrons avec cela”, a déclaré Evans en juin. “Il est difficile de réaliser ce genre de tests à faible débit de dose dans les délais dont nous disposons avant le lancement. Nous collectons donc autant de données que possible, y compris celles provenant de missions comme Juno, pour mieux comprendre avec quel risque résiduel nous pourrions lancer.” ".

    C’est précisément le genre de problèmes que les scientifiques et les ingénieurs ne veulent pas découvrir dans les derniers mois précédant le lancement d’une mission aussi conséquente. Les enjeux sont incroyablement élevés : imaginez que vous appeliez au lancement de Clipper et que le vaisseau spatial tombe en panne six ans plus tard, à son arrivée sur Jupiter.

    Source: https://arstechnica.com/space/2024/07/nasas-flagship-mission-to-europa-has-a-problem-vulnerability-to-radiation/

  • Ariane 6, ça décolle enfin !

    7
    5 Votes
    7 Messages
    68 Vues

    affiche-retro-ariane-6-etoile-montante-cnes_BD-2024.jpg

  • 3 Votes
    5 Messages
    98 Vues

    @patricelg Hello, dans Europa Report l’eau n’est pas en surface mais sous une couche de glace donc on ne peut pas parler de planète Océan.

    b67db467-7036-420c-a7d8-c2e1379df444-Live Long & Prosper.jpg 

  • Planète 9, y es-tu ?

    1
    3 Votes
    1 Messages
    43 Vues

    Depuis près de dix ans, des astronomes tentent de prouver l’existence d’un objet massif qui évoluerait aux confins du Système solaire. Alors que la théorie est largement débattue, une récente étude affirme que l’absence d’un tel astre serait statistiquement impossible…

    paragraphe centré

    Depuis l’éviction de Pluton de la famille des planètes du Système solaire, ce dernier n’en compte plus que huit. Vraiment ? Et si une neuvième planète échappait à notre regard, cachée bien au-delà de la ceinture de Kuiper ? C’est ce que croient de nombreux astronomes, parmi lesquels Konstantin Batygin, du California Institute of Technology (Caltech, États-Unis) qui, en 2016, avec son collègue Michael Brown, annonce avoir découvert le signe de l’influence gravitationnelle de cette « Planète 9 » sur les orbites d’objets transneptuniens (objets dont l’orbite croise ou se trouve au-delà de celle de Neptune, Ndlr). Mais ces résultats sont fortement débattus : ces objets sont trop peu nombreux et les effets de sélection qui accompagnent les découvertes des relevés astronomiques n’auraient pas été correctement prises en compte. Dans une étude (1) parue en avril dernier, les chercheurs et leurs collaborateurs ont donc tourné leur attention vers une classe d’objets a priori moins sujets aux biais observationnels. Et leur conclusion ne change pas : leurs orbites ne peuvent s’expliquer que si une planète encore inconnue les influence.

    Une distribution non aléatoire

    Les objets transneptuniens extrêmes sont des corps du Système solaire dont le périhélie, c’est-à-dire le point de leur orbite le plus proche du Soleil, est situé à au moins 50 fois la distance Terre-Soleil, et qui ont une trajectoire très elliptique. Leur périhélie est donc si éloigné qu’ils se rapprochent très peu de Neptune et sont donc très peu soumis à l’influence gravitationnelle des planètes géantes. De façon surprenante, des relevés astronomiques effectués sur plusieurs décennies, au cours du XXe et au début du XXIe siècle, révèlent que pour une dizaine de ces objets, leurs orbites semblent alignées. « Elles ont toutes la même orientation dans le ciel, leur distribution n’est pas aléatoire », précise Sean Raymond, au laboratoire d’astrophysique de Bordeaux (2).

    paragraphe centré

    Pourtant, les lois de la mécanique céleste portent à croire que ce ne devrait pas être le cas. En effet, non seulement un objet tourne autour du Soleil, mais l’axe de son orbite oscille également autour de notre étoile. C’est ce que l’on appelle la précession. « Donc même s’il y a plus de 4 milliards d’années, un certain nombre d’objets avaient été expulsés dans la même direction à cause de perturbations dans le Système solaire primitif, en raison de ces précessions leurs orbites auraient dû se disperser depuis lors », pose Alessandro Morbidelli, astronome et planétologue au Laboratoire Lagrange (3) et professeur au Collège de France. Que l’alignement des orbites ait été conservé au cours de toutes ces années est le signe que « quelque chose » force ces orbites à ne pas se comporter comme on pourrait s’y attendre. « Puisque les objets sont loin de Neptune, ce n’est pas l’influence gravitationnelle de cette dernière qui force les orbites à rester groupées. Pour expliquer cette anomalie, il doit exister une autre planète », appuie l’astronome.

    Se départir des biais

    L’hypothèse d’une planète cachée dans le Système solaire était née, et une publication (4) de 2016 en dessine les contours : elle devrait avoir une masse comprise entre 5 et 7 fois celle de la Terre, et se déplacer sur une orbite elliptique, éloignée et inclinée. Mais cette conclusion a rapidement amené son lot de discussions, et surtout de scepticisme. En effet, est-on sûr qu’il y a réellement un alignement orbital ? Finalement, puisque ces alignements orbitaux ne peuvent s’appliquer que sur des objets qui ont des orbites très elliptiques et qui ne s’approchent pas beaucoup de Neptune, alors leur nombre est limité. Une dizaine d’objets n’est peut-être pas suffisante pour établir une statistique fiable. De plus, ces objets ont été découverts grâce à une multitude de relevés astronomiques et de personnes. Comment s’assurer que tous les biais observationnels sous-jacents à ces détections ont été correctement modélisés ?

    « Il est très difficile de détecter des objets lointains dans certaines régions du ciel, comme dans le plan galactique par exemple, où il y a beaucoup d’étoiles. Si on n’observe pas d’objets transneptuniens qui passent dans ce plan, et qu’on ne tire des conclusions que par rapport aux objets qu’on a observés, alors cela introduit des biais, développe Sean Raymond. L’équipe de Batygin est convaincue que l’alignement qu’elle observe est intrinsèque à la population des objets qu’elle a pris en compte, mais ce n’est pas universellement accepté dans la communauté. »

    paragraphe centré

    Jean-Marc Petit, astronome à l’Institut Univers, Théorie, Interfaces, Nanostructures, Atmosphère et environnement, Molécules (5) (Utinam) a d’ailleurs pris le temps d’étudier les biais observationnels associés aux objets pris en compte dans la publication de 2016 et la manière dont ils y ont été traités. S’il pense également qu’il n’est pas impossible qu’il y ait réellement un groupement d’orbites, il trouve aussi que la probabilité que ce soit le cas est bien inférieure à ce qu’avancent Batygin et ses collaborateurs. « On ne dit pas qu’il n’y a pas de Planète 9, clarifie Jean-Marc Petit, mais que l’argument qu’ils mettent en avant n’est pas assez fort. » « Et c’est une position tout à fait légitime », convient Alessandro Morbidelli.

    Une absence impossible

    Dans un nouvel article, Konstantin Batygin, Alessandro Morbidelli, Michael Brown et David Nesvorný (planétologue à la Southwest Research Institute) tentent donc une nouvelle approche. Au lieu de se concentrer sur des objets distants qui ont des orbites très elliptiques, qui n’approchent jamais de Neptune, et qui sont par conséquent très difficiles à observer, ils jettent cette fois leur dévolu sur des objets toujours transneptuniens, mais qui croisent l’orbite de Neptune. « Ces objets viennent relativement près de nous et sont brillants, ils sont donc plus faciles à observer, décrit Alessandro Morbidelli. On en connaît plusieurs et leurs biais observationnels sont plus simples à modéliser. »

    De plus, ces objets sont très instables. En traversant l’orbite des planètes géantes, elles les dispersent et changent leurs orbites. Leur espérance de vie n’est ainsi que de quelques dizaines de millions d’années. Ils sont donc continuellement réalimentés par la population véritablement transneptunienne. « On a comparé un système avec une Planète 9 et un système sans, pour voir à quel taux on peut renouveler cette population d’objets qui croisent l’orbite de Neptune. Et on a trouvé que sans Planète 9, ce taux est trop faible, trop peu d’objets croisent l’orbite de Neptune. Avec la Planète 9, en revanche, nos modèles reproduisent beaucoup mieux les observations. » En d’autres termes, cette nouvelle étude a priori moins biaisée que les précédentes, conclut également fortement à l’existence d’une planète cachée. « C’est une très jolie idée, et leur résultat est assez clair », salue Sean Raymond. « C’est du très beau travail et je pense qu’ils tiennent quelque chose », félicite également Jean-Marc Petit.

    paragraphe centré

    Alors la présence d’une neuvième planète est-elle actée ? « Ce n’est pas si simple, tempère Sean Raymond. En principe, dans cette étude, il y a moins de biais observationnels, mais c’est vraiment difficile de dégager tous les biais. Rien ne dit qu’il n’en reste pas qui sont cachés. » Des biais cachés, Jean-Marc Petit en liste plusieurs : « Par exemple, les relevés qu’ils utilisent ne sont pas dédiés aux objets transneptuniens. De plus, la taille des objets, dont ils ne tiennent pas compte, peut avoir son importance. » Toute observation s’accompagne d’erreurs et d’approximations qu’il peut être difficile de prendre en considération. « C’est pourquoi, même si on a de bonnes raisons de penser que la Planète 9 est là, on ne devrait jamais croire que quelque chose existe avant de l’avoir trouvé, rapporte Sean Raymond. On doit la chercher avec l’esprit ouvert. »

    Et pour partir en quête de la Planète 9, les astronomes seront bientôt épaulés par un observatoire d’envergure : le télescope Vera-Rubin, en cours de construction au Chili, qui devrait être mis en fonction au premier trimestre 2025. « L’avantage du Vera-Rubin est qu’il regarde plus de la moitié du ciel tous les deux ou trois jours, avec une profondeur sûrement aussi bonne que l’observatoire spatial Hubble, révèle Sean Raymond. Il est vraiment conçu pour trouver des objets sombres et qui bougent dans le ciel, comme la Planète 9. Ce n’est pas sûr à 100 % qu’il la trouvera même si elle existe, mais s’il ne la trouve pas, ça sera difficile de continuer à croire qu’elle est bien là. »

    Et si ce n’était pas une planète ?

    L’alignement des orbites de certains objets a donné de la suite dans les idées de quelques chercheurs. Pour eux, cette anomalie pourrait être le fruit soit d’un immense disque de corps célestes situés loin dans le Système solaire, soit d’un mini trou noir. « Ce sont des idées loufoques, plaisante Alessandro Morbidelli. J’aimerais bien qu’on m’explique comment on forme un trou noir de 5 masses terrestres. » Idem pour le disque très excentrique : s’il est constitué de multiples corps célestes, certains d’entre eux auraient déjà dû être observés par occultation, en passant devant les étoiles. Mais on n’a jamais rien vu de tel. « En revanche, qu’il existe une planète sur l’orbite que l’on pense être celle de la Planète 9 est assez naturel dans le processus de formation des planètes géantes : quand elles grandissent, elles expulsent au loin des planètes de quelques masses terrestres, et ces planètes peuvent rester piégées sur une orbite excentrique distante. » Si la Planète 9 existe, c’est donc très certainement… une planète.

    (1) https://arxiv.org/abs/2404.11594 (2) Unité CNRS/Université de Bordeaux. (3) Unité CNRS/Observatoire de la Côte d’Azur/Université Côte d’Azur. (4) https://iopscience.iop.org/article/10.3847/0004-6256/151/2/22 (5) Unité CNRS/Université de Franche-Comté.

    Source: https://lejournal.cnrs.fr/articles/planete-9-y-es-tu

    Mais qui a osé me piquer ma place !! :blase:

  • 3 Votes
    2 Messages
    54 Vues

    Passionnant

  • 1 Votes
    1 Messages
    17 Vues

    La géométrie utilisée fait allusion au calcul 1 500 ans avant les Européens.

    51a9893e-a394-483a-887e-81ee95533454-image.png

    Même lorsqu’une culture laisse derrière elle de nombreuses traces écrites, il peut être difficile de comprendre sa connaissance de la technologie et du monde naturel. Les documents écrits sont souvent partiels et les auteurs peuvent ignorer certaines technologies ou les considérer simplement comme banales. C’est pourquoi le monde antique peut encore offrir des surprises comme le mécanisme d’Anticythère, un ancien ordinateur mécanique qui mettait en valeur les connaissances des Grecs en mathématiques, en astronomie et en technologie mécanique nécessaire pour les relier.

    Il a fallu plusieurs années après la découverte pour comprendre la véritable nature du mécanisme d’Anticythère. Et maintenant, quelque chose de similaire s’est produit pour les Babyloniens. Des tablettes d’argile, conservées au British Museum depuis des décennies, montrent que cette culture était capable d’utiliser une géométrie sophistiquée pour suivre l’orbite de Jupiter, en s’appuyant sur des méthodes qui, d’une certaine manière, préfigurent le développement du calcul des siècles plus tard.

    Nous savions déjà que les Babyloniens suivaient les orbites de divers corps. Il existe environ 450 tablettes écrites décrivant les méthodes et les calculs que nous connaissons, et elles datent de 400 à 50 avant notre ère. La plupart de ceux qui décrivent comment calculer le mouvement orbital, selon les mots de Mathieu Ossendrijver de l’Université Humboldt, “peuvent être représentés sous forme d’organigrammes”. Selon la situation, ils décrivent une série d’additions, de soustractions et de multiplications qui pourraient vous indiquer où se trouverait un corps donné.

    (Pour compliquer les choses, l’astronomie babylonienne fonctionnait en base 60, ce qui conduit à une notation très étrangère.)

    Les Babyloniens avaient une compréhension des concepts géométriques – Ossendrijver les qualifie de « très courants dans le corpus mathématique babylonien » – mais aucun d’entre eux n’apparaissait dans leurs calculs astronomiques connus.

    Au British Museum, cependant, il a trouvé une tablette qui n’avait pas été formellement décrite et qui contenait des parties de la procédure de suivi de Jupiter. Combiné avec d’autres tablettes, il commence avec le premier lever matinal de Jupiter, le suit à travers son apparent mouvement rétrograde et se termine par son dernier coucher visible au crépuscule. Encore une fois, c’est une question de procédure. Différentes sections sont utilisées pour prédire l’apparence de la planète sur différents segments de son orbite.

    Ossendrijver a repris la procédure de calcul des 120 premiers jours et a montré que le calcul de son déplacement quotidien dans le temps produit un trapèze. Dans ce cas, la forme était en grande partie un rectangle mais avec sa face supérieure inclinée vers le bas au fil du temps en deux segments distincts. Une série d’autres tablettes traitaient explicitement les calculs comme produisant un trapèze.

    f47a51a6-ae71-466c-9d54-5346dc0e3704-image.png
    Le trapèze utilisé pour calculer les 120 premiers jours de l’orbite de Jupiter. La ligne rouge divise la première forme en deux zones égales.

    Les choses deviennent intéressantes dans la procédure suivante, qui est utilisée pour calculer le moment où Jupiter atteint le point médian dans la première moitié de cette étape de son mouvement. Cette procédure consistait à prendre la moitié gauche du trapèze et à la diviser en deux morceaux de surface égale. L’emplacement de la ligne de démarcation (étiquetée vc ci -dessus) produit alors la réponse. Comme le décrit Ossendrijver, “Ils ont calculé le moment où Jupiter parcourait la moitié de cette distance en divisant le trapèze en deux plus petits, de surface idéalement égale.”

    Comprendre cela nécessitait évidemment une géométrie sophistiquée. Les érudits européens n’ont développé des méthodes similaires qu’au 14e siècle, lorsqu’elles ont été utilisées à Oxford. Les Grecs utilisaient la géométrie pour certains travaux astronomiques, mais cela impliquait des calculs de l’espace réel. Les Babyloniens travaillent ici dans un espace temps-vitesse abstrait.

    Il est également frappant de constater que cette approche générale est similaire à certains aspects du calcul. Là, l’aire sous une courbe est calculée en créant mathématiquement un nombre infini de petites figures géométriques et en additionnant leurs aires. Rien n’indique que les Babyloniens étaient sur le point de faire ce saut intellectuel étant donné qu’ils n’ont divisé cette forme qu’à quelques reprises. Mais cela montre qu’ils ont reconnu la valeur de l’approche générale.

    Source: https://arstechnica.com/science/2016/01/babylonians-tracked-jupiter-with-sophisticated-geometrical-math/?itm_source=parsely-api

  • 3 Votes
    1 Messages
    24 Vues

    Les scientifiques ont du mal à définir la conscience, l’IA ou autre.

    07e45532-b56f-4c6d-9b68-34c9e823d88a-image.png

    Les progrès de l’intelligence artificielle rendent de plus en plus difficile la distinction entre les comportements uniquement humains et ceux qui peuvent être reproduits par des machines. Si l’intelligence artificielle générale (AGI) arrivait en force – une intelligence artificielle qui surpasse l’intelligence humaine – la frontière entre les capacités humaines et informatiques diminuerait entièrement.

    Ces derniers mois, une part importante de la bande passante journalistique a été consacrée à ce sujet potentiellement dystopique. Si les machines AGI développent la capacité d’expérimenter consciemment la vie, les considérations morales et juridiques que nous devrons leur accorder deviendront rapidement lourdes. Ils auront des sentiments à prendre en compte, des pensées à partager, des désirs intrinsèques et peut-être des droits fondamentaux en tant qu’êtres nouvellement créés. D’un autre côté, si l’IA ne développe pas la conscience – mais simplement la capacité de nous surpasser dans toutes les situations imaginables – nous pourrions nous retrouver soumis à une entité largement supérieure mais sociopathe.

    Aucun des deux futurs potentiels ne semble si confortable, et tous deux nécessitent une réponse à des questions exceptionnellement hallucinantes : qu’est-ce que la conscience exactement ? Et cela restera-t-il un trait biologique, ou pourrait-il finalement être partagé par les dispositifs AGI que nous avons créés ?

    La conscience dans les ordinateurs de Von Neumann

    Pour qu’un ordinateur puisse expérimenter le vaste répertoire d’états internes accessible aux êtres humains, son matériel doit probablement fonctionner un peu comme un cerveau humain. Les cerveaux humains sont des « appareils » analogiques extrêmement économes en énergie, capables de niveaux élevés de traitement parallèle.

    Les ordinateurs modernes, basés sur l’architecture Von Neumann , ne sont rien de tout cela : ce sont des machines numériques énergivores et composées principalement de circuits en série.

    Les puces informatiques de Von Neumann séparent physiquement la mémoire du traitement, ce qui nécessite que les informations soient récupérées de la mémoire avant que les calculs puissent être effectués. « Les ordinateurs classiques de Von Neumann ont une séparation entre la mémoire et le traitement. Les instructions et les données sont stockées dans la mémoire et le processeur les récupère autant qu’il le peut en parallèle, puis calcule les chiffres et remet les données en mémoire », explique Stephen Deiss, un ingénieur neuromorphique à la retraite de l’UC. San Diego.

    Cette restriction sur la quantité d’informations pouvant être transférée dans un laps de temps spécifique (et la limite qu’elle impose à la vitesse de traitement) est appelée le goulot d’étranglement de Von Neumann . Le goulot d’étranglement de Von Neumann empêche nos ordinateurs actuels d’égaler, voire de s’approcher, la capacité de traitement d’un cerveau humain. Pour cette raison, de nombreux experts pensent que la conscience dans les ordinateurs modernes est très improbable.

    La conscience dans les ordinateurs neuromorphiques

    Les informaticiens développent activement des puces informatiques neuromorphiques qui échappent aux restrictions de traitement des ordinateurs de Von Neumann en se rapprochant de l’architecture des neurones. Certains d’entre eux combinent des unités de stockage mémoire et de traitement sur une seule puce. D’autres utilisent des éléments de traitement spécialisés de faible puissance, tels que des memristors, un type de transistor qui « se souvient » des états de tension passés, pour augmenter l’efficacité. Les puces neuromorphiques imitent le câblage parallèle du cerveau et ses faibles besoins en énergie.

    “Un dispositif de calcul en mémoire, qui inclut des éléments tels que des ordinateurs neuromorphiques, utilise la physique réelle du matériel pour effectuer le calcul”, explique Deiss, faisant référence aux memristors. “Les éléments de traitement sont les éléments de mémoire.”

    Si la technologie neuromorphique peut être développée au niveau nécessaire pour reproduire l’activité neuronale, les ordinateurs neuromorphiques pourraient avoir un plus grand potentiel pour expérimenter la vie consciemment plutôt que de simplement calculer intelligemment. "Si jamais nous atteignons le niveau de complexité de traitement qu’un cerveau humain peut atteindre, alors nous pourrons pointer du doigt [les ordinateurs neuromorphiques] et dire : “Cela fonctionne exactement comme un cerveau - peut-être qu’il ressent les choses comme nous ressentons les choses”. », dit Deiss.

    Pourtant, même dans un avenir rempli de matériel informatique de type cérébral et de décors propices à la conscience artificielle, une grande question demeure : comment saurons-nous si nos systèmes AGI éprouvent ou non de la tristesse, de l’espoir et le sentiment exquis de tomber dans l’oubli ? l’amour ou s’ils ont juste l’air de vivre ces choses ?

    Comment saurons-nous un jour ce qui se passe dans l’esprit d’une machine ?

    Une corne d’abondance de théories de la conscience

    Il n’y a qu’une seule façon de le savoir : en identifiant empiriquement comment la conscience fonctionne dans les formes de vie organiques et en développant une méthode par laquelle nous pouvons la reconnaître de manière cohérente. Nous devons comprendre la conscience en nous-mêmes avant d’avoir le moindre espoir de reconnaître sa présence dans des systèmes artificiels. Ainsi, avant de plonger profondément dans les conséquences complexes du silicium sensible et d’envisager un avenir rempli d’ordinateurs conscients, nous devons résoudre une question ancienne : qu’est-ce que la conscience et qui la possède ?

    Au cours des dernières décennies, les neuroscientifiques ont arraché cette question millénaire à l’emprise des philosophes, reconnaissant que le lien entre l’activité neuronale et l’expérience consciente est incontestable. Il existe des dizaines de théories neuroscientifiques de la conscience (TdC), si nombreuses en fait qu’un effort concerté est en cours pour réduire la liste à un petit nombre gérable. Nous n’en discuterons que trois ici : la théorie de l’information intégrée, la théorie de l’espace de travail neuronal global et la théorie des schémas d’attention.

    Selon la théorie de l’information intégrée (IIT), une ToC développée par Giulio Toloni , directeur du Wisconsin Institute of Sleep and Consciousness à l’UW Madison, la clé de la conscience réside dans la quantité d’informations intégrées d’un système, c’est-à-dire dans la manière dont ses composants communiquent entre eux. via des réseaux de neurones ou de transistors. Un système avec un niveau élevé d’informations intégrées est conscient ; un système avec peu d’informations intégrées ne l’est pas.

    Christof Koch , chercheur émérite à l’Allen Institute for Brain Science à Seattle, Washington, et partisan de l’IIT, explique que le cerveau humain possède un niveau élevé d’informations intégrées en raison du câblage parallèle étendu de ses réseaux neuronaux. Les informations peuvent voyager simultanément par plusieurs voies neuronales, ce qui augmente la capacité de traitement du cerveau. Les ordinateurs modernes, soumis au goulot d’étranglement de Von Neumann, sont principalement composés de circuits en série, de sorte qu’un niveau comparable de traitement de l’information est impossible à obtenir.

    La théorie des schémas d’attention (AST) , développée par Michael Graziano, professeur de psychologie et de neurosciences à Princeton, propose un point de vue différent : notre cerveau crée un modèle de ce à quoi nous prêtons attention, appelé « schéma d’attention ». Ce modèle, comme une maquette d’avion, est une représentation. Un modèle réduit d’avion ne comprend pas de cabine entièrement équipée ni de cockpit fonctionnel. De même, le schéma d’attention de notre propre conscience est une approximation : un modèle mental de ce à quoi notre esprit prête attention et de la manière dont nous le vivons.

    AST propose que, malgré ses limites, notre schéma d’attention est si convaincant que nous avons tendance à en déduire à tort que la conscience est quelque chose de mystique, quelque chose de « plus que » la matière. En réalité, nous n’avons accès qu’à cette représentation de notre esprit – et non à notre esprit lui-même – et nous ne pouvons donc pas comprendre directement comment notre esprit fonctionne, tout comme un modèle réduit d’avion ne peut pas reproduire l’expérience de voler.

    La théorie globale de l’espace de travail neuronal (GNWT), fondée par Bernard Baars , chercheur affilié en neurobiologie théorique à l’Institut des neurosciences de l’UC San Diego, propose que les informations que notre cerveau détermine comme suffisamment importantes soient placées de manière sélective et temporaire dans un espace de travail central au sein de notre cerveau (analogue à une salle de cinéma) pour que nous puissions y prêter attention. Les informations auxquelles nous n’avons pas besoin de prêter attention consciemment sont stockées dans des zones connectées mais séparées (analogues aux coulisses).

    « L’idée de base [du GTNO] est assez simple. À un moment donné, seul un sous-ensemble d’informations inconscientes est sélectionné par les réseaux attentionnels, et cette sélection sert à connecter les modules de traitement inconscients à un « espace de travail global ». Quel que soit le contenu présent dans l’espace de travail, il est vécu consciemment à ce moment-là », explique Michael Pitts, professeur de psychologie au Reed College dans l’Oregon.

    Malgré des approches disparates, l’IIT, le GTNO et l’AST partagent un objectif commun : élucider empiriquement la relation complexe entre le tissu cérébral et l’expérience de la vie. Une fois que les neuroscientifiques auront compris comment les réseaux neuronaux produisent la conscience, ces connaissances pourront être utilisées pour comprendre les expériences conscientes – ou leur absence – dans les réseaux inorganiques.

    La conscience informatique n’est-elle qu’un rêve éveillé futuriste ?

    Selon l’IIT, la conscience dans nos ordinateurs actuels est carrément impossible. Le battage médiatique autour de la conscience artificielle ne sert à rien. Le matériel est le matériel. Peu importe à quel point une machine est brillante pour jouer aux échecs, au Go, au Texas hold’em ou à Scotland Yard , en fin de compte, elle ne sait pas qu’elle a gagné une partie et elle n’a pas non plus ressenti les montagnes russes émotionnelles de la compétition. Selon les mots de Koch, « il n’a absolument rien vécu ».

    “Il ne suffit pas d’observer un système d’IA de l’extérieur et de se demander s’il est conscient en fonction de son comportement”, explique Koch. « Il faut regarder sous le capot. Une machine de Turing qui semble penser n’est pas consciente. »

    Selon l’IIT, l’incapacité d’une machine à « être quelque chose » qui s’éprouve elle-même en relation avec le monde extérieur réside clairement dans son pouvoir causal limité. Le pouvoir causal est défini comme la capacité d’un système à utiliser son état passé pour influencer son état présent et à utiliser son état présent pour influencer son état futur. Plus un système peut s’influencer lui-même, plus il possède un pouvoir causal. Les neuroscientifiques utilisent la variable « phi » pour représenter la quantité de puissance causale au sein d’un système, et elle est mesurée en analysant les connexions auto-influencées entre les composants du circuit.

    Les processeurs informatiques modernes ne disposent tout simplement pas du nombre requis de connexions internes auto-influencées pour atteindre la valeur seuil d’informations intégrées requise pour que l’expérience se produise. Contrairement au cerveau humain, qui contient environ 86 milliards de neurones et 100 000 milliards de connexions entre eux, un ordinateur contient beaucoup moins de connexions en boucle ou auto-influencées. Un ordinateur peut se comporter avec une intelligence extraordinaire – même une intelligence qui dépasse celle des humains – mais cela n’équivaut pas à une capacité à exercer un effet sur lui-même : être conscient.

    « Une manière populaire de résumer l’IIT est de proposer qu’un système est conscient lorsque l’ensemble (l’intégration de l’information) est plus que la somme de ses parties », explique Pitts. « L’IIT se concentre davantage sur la façon dont un système est organisé et sur la façon dont il s’affecte lui-même que sur ce qu’il fait. Selon l’IIT, deux systèmes peuvent avoir le même comportement d’entrée-sortie, mais selon la manière dont le système est organisé, l’un peut être conscient tandis que l’autre ne l’est pas.

    Contrairement à la grande majorité des TdC, qui sont des théories fonctionnalistes computationnelles qui supposent que la conscience peut être réduite aux composants physiques qui la produisent, « l’IIT commence par la conscience et remonte jusqu’au substrat physique de la conscience. L’IIT ne commence pas avec un système physique, comme un cerveau ou une machine, et ne suppose pas qu’il peut être suffisamment réduit pour nous conduire à la source de la conscience », explique Koch.

    En raison de cette prémisse, l’IIT ne s’inscrit parfaitement dans aucune des théories philosophiques traditionnelles de l’esprit, telles que le matérialisme, le dualisme, l’idéalisme ou le panpsychisme. « C’est le défi lorsque vous rencontrez deux mille ans d’«ismes». Elles sont enseignées dans toutes les écoles de philosophie et dans tous les livres, et elles sont très bien établies, mais elles relèvent toutes de la philosophie. L’IIT ne correspond à aucune [philosophie de l’esprit] », dit Koch.

    Malgré le cadre théorique convaincant de l’IIT, certains neuroscientifiques remettent en question la structure de la théorie. L’IIT est fondé sur cinq axiomes considérés comme infailliblement vrais par les partisans de la théorie. Pitts explique : « Certaines personnes ont un problème avec la façon dont l’IIT démarre parce qu’il s’agit d’une théorie ambitieuse qui fait des affirmations audacieuses. Au lieu de prendre des données et d’élaborer une théorie, cela part des premiers principes. Il présente cinq axiomes qui doivent être vrais pour toute expérience consciente. Ensuite, il utilise ces axiomes pour dériver des postulats pouvant conduire à des prédictions.

    « L’une des critiques que certains chercheurs font à l’égard de l’IIT », ajoute Pitts, « est qu’il est impossible d’obtenir un résultat expérimental qui remette en question le cœur de la théorie, car les axiomes sont conçus pour être un point de départ universellement vrai. C’est trop flexible ; ce n’est pas falsifiable, diraient certains.

    Même si l’IIT prédit que les ordinateurs artificiellement intelligents ne possèdent pas le « quelque chose » supplémentaire requis pour la conscience (à savoir le pouvoir causal), il n’écarte pas la perspective d’approcher rapidement des machines hautement intelligentes – des systèmes AGI qui surpasseront les humains dans leurs capacités de calcul. Il s’agit d’une distinction cruciale que nous ne devons pas oublier de faire, prévient Koch, alors que nous évaluons la meilleure façon d’inaugurer un avenir rempli de robots AGI : « Il y a une différence entre l’intelligence et la conscience. »

    La conscience informatique est-elle une réalité inévitable ?

    De l’autre côté de la médaille de la conscience neuroscientifique se trouvent les théories fonctionnalistes computationnelles, telles que la théorie des schémas d’attention et la théorie de l’espace de travail neuronal global. Les deux ToC considèrent la conscience artificielle comme inévitable. En fait, AST suggère que nous sommes nous-mêmes des machines qui croient à tort que nous sommes conscients. La conscience est simplement le résultat de calculs ; la source de ces calculs (cerveau ou machine) n’a pas d’importance tant qu’ils se produisent d’une manière spécifiée.

    La conscience machine semble suffisamment inévitable à certains chercheurs pour décider de vérifier si elle existe déjà. En août 2023, Patrick Butlin , chercheur à l’Université d’Oxford, et Robert Long , associé de recherche au Center of AI Safety de San Francisco, ont publié un article préimprimé sur arXiv.org intitulé « Consciousness in Artificial Intelligence : Insights from la science de la conscience . » Butlin, Long et 18 collaborateurs ont évalué six des théories fonctionnalistes computationnelles les plus importantes de la conscience et ont dressé une liste de propriétés d’indicateurs de conscience, propriétés nécessaires à l’apparition de la conscience chez les humains. Ils ont ensuite recherché des preuves de ces propriétés d’indicateurs dans les systèmes d’IA.

    Butlin, Long et leurs collaborateurs sont arrivés à la conclusion suivante : « Notre analyse suggère qu’aucun système d’IA actuel n’est conscient, mais suggère également qu’il n’y a pas d’obstacles techniques évidents à la construction de systèmes d’IA qui satisfont à ces indicateurs. »

    Les partisans de l’AST et du GTNO sont à l’aise avec la conclusion de Butlin et Long. Graziano explique que « l’AST repose sur l’hypothèse que les gens sont des machines biologiques. Tout ce qu’un cerveau sait de lui-même découle nécessairement des informations contenues dans ce cerveau. Nous pensons avoir la conscience – nous en sommes certains – parce que le cerveau construit des modèles de soi, ou des ensembles d’informations, qui se décrivent de cette manière. Si le cerveau ne construisait pas ces modèles, nous ne saurions rien de la conscience. Construisez un système artificiel avec les mêmes structures d’information en lui-même, et il aura les mêmes croyances et certitudes. Il devrait être possible (et beaucoup y travaillent) de construire une IA qui se pense également consciente et pense que les autres sont conscients.

    La confiance de Graziano dans l’éventualité d’une conscience de l’IA provient des deux principes fondamentaux de l’AST. Premièrement, « les informations qui sortent d’un cerveau doivent se trouver dans ce cerveau », et deuxièmement, « les modèles du cerveau ne sont jamais précis ». En utilisant ces deux principes comme point de départ, Graziano écrit qu’il n’y a pas de « marge de manœuvre » : la seule explication logique et méthodique de la conscience est qu’elle prend naissance dans le cerveau et qu’elle est, comme tout ce qui prend naissance dans le cerveau, une approximation de la conscience. réalité.

    Koch n’est pas d’accord. Selon l’IIT, l’expérience subjective de la dégustation d’une pomme ne peut pas être reproduite par un ordinateur en raison de sa capacité limitée à exercer une influence sur lui-même : « l’effet » de conscience ne peut pas se produire. “Ce n’est pas parce que quelque chose est une réplique parfaite d’un cerveau humain que la conscience en émergera”, explique Koch. “Il y a une différence entre la simulation d’une chose et la chose elle-même.” Même si les ordinateurs du futur deviennent aussi complexes que les cerveaux (en termes de circuits internes auto-influençant), la conscience ne sera pas automatiquement produite. Le niveau d’informations intégrées dans un cerveau simulé ne correspondra pas nécessairement à celui d’informations intégrées dans un cerveau réel.

    AST réfute cet argument en affirmant que l’expérience subjective évoquée par l’IIT (et d’autres théories de la conscience) n’est rien de plus qu’un schéma mental – une illusion convaincante. En réalité, nous ne ressentons rien subjectivement lorsque nous mangeons une pomme ; notre cerveau nous convainc que nous le faisons. De la même manière, l’intelligence artificielle pourra bientôt se convaincre, grâce à une représentation interne d’une pomme en train de manger, qu’elle a goûté un Honeycrisp rouge vif, croquant et juteux.

    “La conscience est une propriété que nous attribuons aux autres et à nous-mêmes, et nous le faisons parce qu’elle constitue un moyen utile de prédire le comportement”, explique Graziano. « AST propose que le cerveau construise un modèle, ou une représentation simplifiée, d’un état attentionnel. Nous donnons un sens à cet état d’attention en lui attribuant une conscience. En conséquence, nous acquérons une meilleure capacité à prédire nous-mêmes ou les autres.

    Parce que l’AST et le GTNO affirment qu’il n’y a rien de « spécial » dans la conscience – c’est juste le résultat final d’une séquence de calculs – tous deux soutiennent que les ordinateurs sont tout aussi susceptibles de faire l’expérience de la vie que nous.
    Butlin fait écho à ce point de vue en déclarant : « Je pense qu’il est probable que des systèmes d’IA seront bientôt construits avec de nombreuses propriétés d’indicateur et que ces systèmes seront des candidats beaucoup plus sérieux à la conscience que tous ceux qui existent actuellement. Ces systèmes ne seront probablement toujours pas conscients, mais ils rendront très urgentes les questions difficiles concernant la conscience.

    Est-il possible d’unifier les théories de la conscience ?

    Il existe une surabondance de ToC au sein de la communauté des neurosciences. Tant que ce groupe complexe de théories disparates ne sera pas unifié de manière cohérente ou réduit à une seule théorie correspondant aux résultats expérimentaux, nous n’aurons pas de moyen précis d’identifier la conscience machine. Pour lancer le processus de réduction, la Templeton World Charity Foundation (TWCF) finance une série de collaborations contradictoires destinées à accroître la communication entre les chercheurs en conscience et à réduire les écarts entre les ToC. Ce travail est impératif et urgent si nous voulons comprendre la conscience humaine avant que les ordinateurs ne soient suffisamment complexes pour potentiellement l’acquérir eux-mêmes.

    Michael Pitts rappelle l’attention médiatique entourant la conférence de l’Association pour l’étude scientifique de la conscience à New York en juin 2023. Pitts et ses collègues, Liad Mudrik de l’Université de Tel Aviv et Lucia Melloni de l’Institut Max Planck, ont présenté les premiers résultats de l’étude. première collaboration contradictoire qu’ils ont conçue pour tester rigoureusement deux théories neuroscientifiques de la conscience de premier plan : la théorie de l’information intégrée et la théorie de l’espace de travail neuronal global.

    « Nous avons présenté nos premiers résultats lors d’une conférence à New York l’été dernier, et la presse a eu une mauvaise impression. Leur idée était « c’est une théorie contre une autre », ou « l’un va gagner et l’autre va perdre », mais ce n’est pas ainsi que cela fonctionne », a déclaré Pitts. L’accent mis par les médias sur la nature conflictuelle des collaborations alimente la perception selon laquelle la recherche sur la conscience est décousue et incohérente.

    Pitts et ses collègues en sont aux premiers stades de réflexion sur un concept appelé Unification sélective, dans l’espoir que des théories disparates de la conscience pourront finalement être combinées en une seule ToC empiriquement solide : « L’idée de l’Unification sélective est que nous pouvons sélectionner soigneusement certains aspects des théories. qui sont étayés par des données et les unifient en une seule théorie », explique Pitts.

    En utilisant les résultats des collaborations contradictoires actuelles et futures, il espère éliminer les parties des ToC qui ne correspondent pas aux données expérimentales. Des éléments spécifiques des théories qui survivent au billot, théorise-t-il, peuvent ensuite être combinés dans une nouvelle ToC avec des prédictions qui s’alignent sur les preuves expérimentales. Pitts déclare : « Nous ne voulons pas combiner les théories à la manière de Frankenstein, mais d’une manière où nous conservons des éléments cohérents et abandonnons les éléments qui sont contestés expérimentalement. »

    Koch, bien que tout aussi déterminé à tester les ToC, ne croit pas qu’il soit possible de combiner certains éléments de plusieurs théories de la conscience. Il dit : « Ce sont simplement des animaux fondamentalement différents. Vous ne pouvez pas les écraser ensemble. Ils pourraient tous deux avoir tort, mais ils ne peuvent pas tous les deux avoir raison.

    Se préparer à l’AGI, conscient ou non

    Les débats sur la nature de la conscience et sur la question de savoir si l’AGI connaîtra finalement la vie comme nous ne seront probablement pas résolus de sitôt. Pourtant, les progrès technologiques nous propulsent à une vitesse vertigineuse vers un avenir rempli de machines qui, à tous égards et à toutes fins, se comporteront comme nous. Comment s’y préparer ?

    Koch propose que nous fassions un effort pour accroître l’intelligence humaine afin de compenser l’écart imminent entre les cerveaux organiques et artificiels. Conscientes ou inconscientes, les futures IA seront bien plus intelligentes que nous. Pourquoi ne pas consacrer certaines ressources technologiques à l’augmentation de l’intelligence humaine aux côtés de l’intelligence artificielle ?

    Graziano suggère que nous nous préparions à une IA consciente en considérant de manière préventive la sociopathie de l’IA . La généralisation de l’AGI entraînera une influence et une puissance accrues de l’ordinateur. Si l’IA développe une intelligence extrême sans apprendre simultanément à naviguer dans les complexités des normes sociales humaines, nous pourrions avoir sous la main des machines sociopathes qui choisiront de nous tuer au lieu de travailler avec nous.

    « La plupart des gens se concentrent sur la conscience comme une affaire privée et interne. Mais cela joue également un rôle central dans l’interaction sociale humaine », explique Graziano. « Nous nous reconnaissons comme des êtres conscients, et cela nous permet de nous traiter d’une certaine manière. Lorsque cette capacité commence à faiblir, un comportement antisocial apparaît. C’est à ce moment-là que les gens commencent à s’entre-tuer.

    « Si nous voulons que l’IA soit prosociale, nous pourrions lui donner les mécanismes qui rendent les gens prosociaux », suggère Graziano.

    Koch propose une dernière suggestion : plutôt que de se démener pour faire face à l’inévitable supériorité de l’AGI et aux ambiguïtés qui en résultent en termes de conscience informatique potentielle, il conseille de réglementer l’IA dès maintenant. « Nous devrions mettre des garde-fous à l’IA, comme c’est le cas dans l’UE – c’est la seule chose que nous pouvons faire. AGI arrivera très bientôt. Nous verrons comment nous nous en sortirons, pour le meilleur ou pour le pire.

    Lindsey Laughlin est une écrivaine scientifique et journaliste indépendante qui vit à Portland, dans l’Oregon, avec son mari et ses quatre enfants. Elle a obtenu sa licence à l’UC Davis avec une spécialisation en physique, neurosciences et philosophie.

    Source: https://arstechnica.com/science/2024/07/could-ais-become-conscious-right-now-we-have-no-way-to-tell/

    Edit: Le titre à été changé dans l’article d’origine

  • Premier vol privé avec sortie dans l'espace

    1
    4 Votes
    1 Messages
    29 Vues

    Polaris Dawn sera lancé plus tard ce mois-ci. La mission Polaris Dawn, un vol spatial entièrement privé qui comprendra la première sortie commerciale dans l’espace, devrait être lancée au plus tôt le 31 juillet depuis la Space Coast de Floride, a annoncé le groupe à l’origine de la mission le X . C’est quelques semaines plus tard que la date cible précédente du lancement de la mission, le 12 juillet, mais les responsables n’ont pas expliqué ce retard. Jared Isaacman, un homme d’affaires milliardaire et pilote qui a déjà volé dans l’espace, commandera la mission Polaris Dawn. L’ancien pilote de chasse de l’US Air Force, Scott Poteet, et deux ingénieurs de SpaceX, Sarah Gillis et Anna Menon, voleront également à bord de Polaris Dawn.

    0ca530d7-76d5-46e7-9793-8cdd11562dda-image.png

    Aller plus haut … Le quatuor d’astronautes commerciaux s’envolera à bord d’une fusée SpaceX Falcon 9 et d’un vaisseau spatial Crew Dragon, atteignant une altitude de 870 miles (1 400 kilomètres), plus haute que quiconque n’a volé depuis la dernière mission Apollo en 1972. Ils dépressuriseront le vaisseau spatial Dragon et Isaacman et Gillis sortiront de la capsule pour une brève sortie dans l’espace, la première sans la participation d’une agence spatiale gouvernementale. La mission durera environ cinq jours.

    Source: https://polarisprogram.com/dawn/

  • Espace: Le domaine privé Italien, s'y met aussi

    1
    0 Votes
    1 Messages
    20 Vues

    Une start-up italienne teste une petite fusée. Le constructeur de fusées italien Sidereus Space Dynamics a achevé le premier test du système intégré de sa fusée EOS, rapporte European Spaceflight . Ce test a eu lieu dimanche et a abouti à un tir du moteur principal kérosène/oxygène liquide MR-5 de la fusée pendant environ 11 secondes. La fusée EOS est une conception nouvelle, utilisant une architecture à un seul étage en orbite, le propulseur réutilisable revenant sur Terre depuis l’orbite pour être récupéré sous un parafoil. La fusée mesure moins de 4,2 mètres de haut et sera capable de transporter environ 29 livres (13 kilogrammes) de charge utile en orbite terrestre basse.

    931cc5dd-22bd-4f2f-9f46-aaf9dfee3890-image.png

    Une opération Lean … Après avoir terminé les tests intégrés au sol, la société effectuera les premiers vols d’essai EOS à basse altitude. Fondée en 2019, Sidereus a levé 6,6 millions d’euros (7,1 millions de dollars) pour financer le développement de la fusée EOS. Bien que cela ne représente qu’une fraction du financement que d’autres startups européennes comme Isar Aerospace, MaiaSpace et Orbex ont attiré, le PDG de Sidereus, Mattia Barbarossa, a déjà déclaré que la société avait l’intention de « remodeler les vols spatiaux en une fraction du temps et avec un coût limité ». ressources." (soumis par EllPeaTea et Ken the Bin)

    Source: https://europeanspaceflight.com/sidereus-space-dynamics-complete-integrated-static-fire-test/

  • 0 Votes
    4 Messages
    79 Vues

    @duJambon OK ça marche

  • 1 Votes
    18 Messages
    188 Vues

    @Popaul a dit dans Selon une étude japonaise, le fromage serait bon pour la santé mentale :

    je ne me suis jamais habitué au gout des chèvres…

    Ça dépend de ce que tu fais avec elles… 😉