Sciences

446 Sujets 2.0k Messages
  • 2 Votes
    3 Messages
    49 Vues

    @Mister158 Bonnes vacances et profite en bien. Tu auras assez de temps pour te faire du soucis plus tard 🙂

  • 4 Votes
    1 Messages
    31 Vues

    1a1b7a9f-9b1a-48cb-895b-e27a68a4a43b-image.png
    Un modèle de Lunik 1 exposé à Moscou. (Crédit image : Keystone/Getty Images)

    La course à l’espace entre les États-Unis et l’ex-Union soviétique s’est accélérée à la fin des années 1950, pour se répercuter dans les années 1960. Cette compétition entre deux pays a donné un élan supplémentaire à la détermination de la NASA de respecter la proclamation de l’homme sur la lune du président John Kennedy.

    Les relations entre les États-Unis et l’Union soviétique étaient incontestablement tendues, une rivalité de superpuissances alimentée par des différences d’idéologie politique et d’objectifs économiques, les deux nations s’efforçant d’influencer le monde en mettant en valeur leurs prouesses technologiques et militaires.

    L’Union Soviétique avait l’intention d’écraser un engin sur la Lune - et en même temps de donner un coup de poing politique en lançant des fanions métalliques avec les armoiries de l’URSS sur la surface lunaire. Le 13 septembre 1959, l’Union soviétique atteignit cet objectif avec Luna 2 .

    85005448-e4fa-4b2f-b004-1e233aed6f9e-image.png
    Modèle Luna 1 - 2 de l’Union soviétique. (Crédit image : NASA/NSSDCA/domaine public)

    Pour mieux comprendre comment l’Union soviétique a construit des engins destinés à la lune, la Central Intelligence Agency (CIA) américaine a mené un travail d’espionnage secret sur une exposition soviétique en 1959.

    Une équipe d’action de la CIA a démantelé une exposition “Lunik 2” pour documenter les techniques et technologies utilisées par l’Union soviétique.

    Des années plus tard, cet acte secret a été détaillé par la CIA et présenté comme une opération d’espionnage furtive menée à l’insu de l’Union soviétique.

    L’opération inhabituelle du jour au lendemain de la CIA impliquait du matériel spatial soviétique de l’étage supérieur qui était transporté dans le cadre d’une exposition visant à promouvoir les réalisations industrielles et économiques soviétiques.

    883a4ebf-cd9e-454c-9f42-8c226f8bf1c5-image.png
    Un modèle de Lunik 1 exposé à Moscou. (Crédit image : Don Mitchell/Paysage mental)

    Selon un article publié sur le site « salle de lecture électronique » de la CIA :

    “Une équipe d’officiers de la CIA a obtenu un accès illimité pendant 24 heures, de ce qui s’est avéré être, non pas une réplique, mais un système pleinement opérationnel comparable au Lunik 2.”

    L’équipe a démonté le véhicule, ajoute le message, “a photographié toutes les pièces sans les retirer de sa caisse avant de tout remettre à sa place, obtenant ainsi des informations inestimables sur sa conception et ses capacités”.

    L’article conclut : “Et les Soviétiques n’en étaient pas plus sages. Si cela ressemble à quelque chose d’un scénario de film, c’est vraiment arrivé.”

    Version aseptisée

    “L’enlèvement de Lunik” a été documenté dans une revue historique “aseptisée” de la CIA qui a été déclassifiée et publiée publiquement en 1995. Elle a été écrite par Sydney W. “Wes” Finer de la CIA et publiée dans l’édition de l’hiver 1967 de l’agence de " Études en renseignement.

    C’est l’historien de l’espace aux yeux d’aigle, Dwayne Day, qui a publié pour la première fois, au milieu des années 1990, un article sur la mission impossible de la CIA dans Quest, l’informatif History of Spaceflight Quarterly.

    “C’est moi qui ai trouvé le document déclassifié aux Archives nationales. Il était sous forme papier. [Le] document n’a été mis en ligne qu’une décennie ou plus plus tard”, a déclaré Day à Space.com. “Notez que ‘Lunik’ n’est pas un mot russe. C’était un terme d’argot américain désignant les missions lunaires russes, pas le nom que les Russes leur donnaient.”

    b2841a4a-d94f-4b24-9bb3-e95bf657532e-image.png
    Aménagement interne du véhicule Lunik. (Crédit image : CIA)

    Plus récemment, en juin 2020, John Greenewald, fondateur de Black Vault , une archive de plus de deux millions de pages obtenue du gouvernement par le Freedom of Information Act (FOIA), a publié le document sous une forme non aseptisée qui note, comme un sous-titre : “Obtenir les marquages ​​d’usine depuis l’intérieur d’un véhicule spatial soviétique de l’étage supérieur.”

    Ces marquages ​​ont ensuite été analysés et détaillés dans un “Markings Center Brief” qui a révélé l’identification probable du producteur de la scène Lunik et le fait qu’il s’agissait de la cinquième réalisée. L’identification de trois producteurs d’électricité qui ont fourni des composants, y compris le système de numérotation des pièces, éventuellement utilisé pour d’autres matériels spatiaux soviétiques, a également été approfondie.

    Humpty Dumpty

    601b6af7-3518-4940-918c-e75647183e28-image.png
    Rivaux de la course spatiale. Le président John F. Kennedy et le président de l’Union soviétique, Nikita Khrouchtchev, se rencontrent le 3 juin 1961 à l’ambassade américaine à Vienne, en Autriche. (Crédit image : Bibliothèque et musée présidentiels John F. Kennedy, Boston)

    Les magouilles de Lunik de la CIA n’étaient pas dénuées de circonstances à valeur comique.

    Comme Humpty Dumpty, essayer de remettre les choses en place, puis de fermer la caisse était l’un des nombreux résultats à fort enjeu, mais assez comiques.

    “Le premier travail, remettre l’orbe dans son panier, s’est avéré être la partie la plus délicate et la plus longue de toute la nuit de travail”, note le document. En effet, la façon dont le nez et les compartiments moteur étaient conçus empêchait le guidage visuel pour remonter facilement le matériel spatial.

    “Nous avons passé près d’une heure là-dessus, un homme dans la section du nez exigu essayant de placer l’orbe précisément dans la bonne position et un autre dans le compartiment moteur essayant d’engager les filetages à l’extrémité d’une tige qu’il ne pouvait pas voir.” souligne le document. “Après de nombreuses tentatives vaines et de nombreux moments d’anxiété, la connexion a finalement été établie et nous avons tous soupiré de soulagement.”

    Quant à la mission accomplie, l’enlèvement du Lunik était un “exemple d’une excellente coopération dans un travail entre des opérateurs secrets et des collectionneurs essentiellement déclarés”, indique le document obtenu par la FOIA.

    Source: https://www.space.com/how-the-cia-kidnapped-a-soviet-moon-probe-during-the-space-race

  • 0 Votes
    1 Messages
    41 Vues

    aec8854d-ac42-4de6-a013-cdfba41a4393-image.png
    Réagir

    Le Japon déploie des robots géants pour faire de la maintenance ferroviaire
    © West Japan Railway
    Selon l’entreprise Jinki qui a développé le robot, les contrôleurs peuvent synchroniser leurs mouvements avec le robot, pour s’assurer d’une certaine précision.

    Go, go, Power Rangers ! Voici ce qu’évoque le nouveau robot que déploie la compagnie ferroviaire West Japan Railway sur son réseau à partir de juillet 2024. S’il ressemble énormément aux robots géants que l’on peut voir dans la série, sa fonction ne sera pas de combattre les méchants… mais d’effectuer des travaux de maintenance.
    Géant à tout faire

    Ce robot, développé par les entreprises Jinki Ittai Co et Nippon Signal Co, est monté sur un camion et «peut atteindre une hauteur de 12 mètres, possède la capacité de porter jusqu’à 40 kg de charges et tenir une brosse pour peindre ou utiliser une tronçonneuse», selon le Guardian.

    Il est contrôlé par une personne assise dans le cockpit du camion (presque comme les Power Rangers) qui voit ce que le robot fait à travers des lunettes spéciales connectées aux «yeux» du géant. Parmi les fonctions attendues : enlèvement des arbres et autres obstacles, la peinture d’équipements d’infrastructure ou leur remplacement.

    Selon West Japan Railway, le robot pourra servir à compenser des pénuries de travailleurs, fréquentes dans un Japon vieillissant, et leur évitera des accidents du travail comme des chutes ou le danger électrique. Une autre manière de combattre les méchants ?

    Source: https://www.usinenouvelle.com/article/le-japon-deploie-des-robots-geants-pour-faire-de-la-maintenance-ferroviaire.N2215575

  • 2 Votes
    1 Messages
    37 Vues

    La date de lancement de la mission Europa Clipper visant à étudier l’intrigante lune en orbite autour de Jupiter, qui se classe aux côtés du vaisseau spatial Cassini vers Saturne comme la mission scientifique planétaire la plus coûteuse et la plus ambitieuse de la NASA, est désormais incertaine.

    Le vaisseau spatial de 4,25 milliards de dollars devait être lancé en octobre sur une fusée Falcon Heavy depuis le Kennedy Space Center en Floride. Cependant, la NASA a révélé que les transistors MOSFET à bord du vaisseau spatial pourraient ne pas être aussi résistants aux radiations qu’on le pensait.

    “Le problème des transistors est apparu en mai lorsque l’équipe de la mission a été informée que des pièces similaires tombaient en panne à des doses de rayonnement inférieures à celles prévues”, a écrit l’agence spatiale dans un article de blog jeudi après-midi. "En juin 2024, une alerte de l’industrie a été envoyée pour informer les utilisateurs de ce problème. Le fabricant travaille avec l’équipe de mission pour soutenir les efforts de test et d’analyse des radiations en cours afin de mieux comprendre le risque lié à l’utilisation de ces pièces sur le vaisseau spatial Europa Clipper. ".

    Les lunes en orbite autour de Jupiter, une planète géante gazeuse massive, existent dans l’un des environnements de rayonnement les plus sévères du système solaire. Les premiers tests de la NASA indiquent que certains des transistors qui régulent le flux d’énergie à travers le vaisseau spatial pourraient tomber en panne dans cet environnement. La NASA évalue actuellement la possibilité de maximiser la durée de vie des transistors sur Jupiter et prévoit de terminer une analyse préliminaire fin juillet.

    Retarder ou ne pas retarder

    La mise à jour de la NASA ne dit pas si le vaisseau spatial pourrait encore effectuer sa fenêtre de lancement d’environ trois semaines cette année, ce qui amènerait Clipper au système Jovian en 2030.

    La mission Clipper a des opportunités de lancement en 2025 et 2026, mais celles-ci pourraient entraîner des retards supplémentaires. Cela est dû à la nécessité de plusieurs assistances gravitationnelles. Le lancement de 2024 suit une trajectoire « MEGA », comprenant un survol de Mars en 2025 et un survol de la Terre fin 2026 – assistance gravitationnelle Mars-Terre. Si Clipper était lancé avec un an de retard, cela nécessiterait un deuxième survol de la Terre. Un lancement en 2026 reviendrait à une trajectoire MEGA. Ars a demandé à la NASA le calendrier des lancements en 2025 et 2026 et mettra à jour si elle fournit ces informations.

    Un autre résultat négatif des retards serait les coûts, car maintenir la mission au sol pendant encore un an entraînerait probablement quelques centaines de millions de dollars de dépenses supplémentaires pour la NASA, ce qui ferait un trou dans son budget scientifique planétaire.

    Le billet de blog de la NASA publié cette semaine n’est pas la première fois que l’agence spatiale mentionne publiquement ces problèmes liés au transistor à effet de champ métal-oxyde-semi-conducteur, ou MOSFET. Lors d’une réunion du Space Studies Board début juin, Jordan Evans, chef de projet pour la mission Europa Clipper, a déclaré qu’il s’agissait de sa préoccupation numéro un avant le lancement.

    “Ce qui m’empêche de dormir la nuit”

    “La chose la plus difficile à laquelle nous sommes confrontés à l’heure actuelle est un problème lié à ces transistors, les MOSFET, qui sont utilisés comme commutateurs dans le vaisseau spatial”, a-t-il déclaré. "Il y a cinq semaines aujourd’hui, j’ai reçu un e-mail m’informant qu’un client non-NASA avait effectué des tests sur ces pièces résistantes aux radiations et découvert qu’elles fonctionnaient avant (les spécifications), à des niveaux de rayonnement nettement inférieurs à ceux que nous avions qualifiés de ". nous avons effectué nos achats de pièces, et d’autres acteurs de l’industrie l’ont également fait.

    À l’époque, Evans avait déclaré que les choses « allaient dans la bonne direction » en ce qui concerne l’analyse de la question par l’agence. Il semble peu probable que la NASA aurait publié un article de blog cinq semaines plus tard si le problème progressait toujours régulièrement vers une résolution.

    “Ce qui me tient éveillé en ce moment, c’est l’incertitude associée aux MOSFET et le risque résiduel que nous prendrons avec cela”, a déclaré Evans en juin. “Il est difficile de réaliser ce genre de tests à faible débit de dose dans les délais dont nous disposons avant le lancement. Nous collectons donc autant de données que possible, y compris celles provenant de missions comme Juno, pour mieux comprendre avec quel risque résiduel nous pourrions lancer.” ".

    C’est précisément le genre de problèmes que les scientifiques et les ingénieurs ne veulent pas découvrir dans les derniers mois précédant le lancement d’une mission aussi conséquente. Les enjeux sont incroyablement élevés : imaginez que vous appeliez au lancement de Clipper et que le vaisseau spatial tombe en panne six ans plus tard, à son arrivée sur Jupiter.

    Source: https://arstechnica.com/space/2024/07/nasas-flagship-mission-to-europa-has-a-problem-vulnerability-to-radiation/

  • Ariane 6, ça décolle enfin !

    7
    5 Votes
    7 Messages
    82 Vues

    affiche-retro-ariane-6-etoile-montante-cnes_BD-2024.jpg

  • 3 Votes
    5 Messages
    105 Vues

    @patricelg Hello, dans Europa Report l’eau n’est pas en surface mais sous une couche de glace donc on ne peut pas parler de planète Océan.

    b67db467-7036-420c-a7d8-c2e1379df444-Live Long & Prosper.jpg 

  • Planète 9, y es-tu ?

    1
    3 Votes
    1 Messages
    47 Vues

    Depuis près de dix ans, des astronomes tentent de prouver l’existence d’un objet massif qui évoluerait aux confins du Système solaire. Alors que la théorie est largement débattue, une récente étude affirme que l’absence d’un tel astre serait statistiquement impossible…

    paragraphe centré

    Depuis l’éviction de Pluton de la famille des planètes du Système solaire, ce dernier n’en compte plus que huit. Vraiment ? Et si une neuvième planète échappait à notre regard, cachée bien au-delà de la ceinture de Kuiper ? C’est ce que croient de nombreux astronomes, parmi lesquels Konstantin Batygin, du California Institute of Technology (Caltech, États-Unis) qui, en 2016, avec son collègue Michael Brown, annonce avoir découvert le signe de l’influence gravitationnelle de cette « Planète 9 » sur les orbites d’objets transneptuniens (objets dont l’orbite croise ou se trouve au-delà de celle de Neptune, Ndlr). Mais ces résultats sont fortement débattus : ces objets sont trop peu nombreux et les effets de sélection qui accompagnent les découvertes des relevés astronomiques n’auraient pas été correctement prises en compte. Dans une étude (1) parue en avril dernier, les chercheurs et leurs collaborateurs ont donc tourné leur attention vers une classe d’objets a priori moins sujets aux biais observationnels. Et leur conclusion ne change pas : leurs orbites ne peuvent s’expliquer que si une planète encore inconnue les influence.

    Une distribution non aléatoire

    Les objets transneptuniens extrêmes sont des corps du Système solaire dont le périhélie, c’est-à-dire le point de leur orbite le plus proche du Soleil, est situé à au moins 50 fois la distance Terre-Soleil, et qui ont une trajectoire très elliptique. Leur périhélie est donc si éloigné qu’ils se rapprochent très peu de Neptune et sont donc très peu soumis à l’influence gravitationnelle des planètes géantes. De façon surprenante, des relevés astronomiques effectués sur plusieurs décennies, au cours du XXe et au début du XXIe siècle, révèlent que pour une dizaine de ces objets, leurs orbites semblent alignées. « Elles ont toutes la même orientation dans le ciel, leur distribution n’est pas aléatoire », précise Sean Raymond, au laboratoire d’astrophysique de Bordeaux (2).

    paragraphe centré

    Pourtant, les lois de la mécanique céleste portent à croire que ce ne devrait pas être le cas. En effet, non seulement un objet tourne autour du Soleil, mais l’axe de son orbite oscille également autour de notre étoile. C’est ce que l’on appelle la précession. « Donc même s’il y a plus de 4 milliards d’années, un certain nombre d’objets avaient été expulsés dans la même direction à cause de perturbations dans le Système solaire primitif, en raison de ces précessions leurs orbites auraient dû se disperser depuis lors », pose Alessandro Morbidelli, astronome et planétologue au Laboratoire Lagrange (3) et professeur au Collège de France. Que l’alignement des orbites ait été conservé au cours de toutes ces années est le signe que « quelque chose » force ces orbites à ne pas se comporter comme on pourrait s’y attendre. « Puisque les objets sont loin de Neptune, ce n’est pas l’influence gravitationnelle de cette dernière qui force les orbites à rester groupées. Pour expliquer cette anomalie, il doit exister une autre planète », appuie l’astronome.

    Se départir des biais

    L’hypothèse d’une planète cachée dans le Système solaire était née, et une publication (4) de 2016 en dessine les contours : elle devrait avoir une masse comprise entre 5 et 7 fois celle de la Terre, et se déplacer sur une orbite elliptique, éloignée et inclinée. Mais cette conclusion a rapidement amené son lot de discussions, et surtout de scepticisme. En effet, est-on sûr qu’il y a réellement un alignement orbital ? Finalement, puisque ces alignements orbitaux ne peuvent s’appliquer que sur des objets qui ont des orbites très elliptiques et qui ne s’approchent pas beaucoup de Neptune, alors leur nombre est limité. Une dizaine d’objets n’est peut-être pas suffisante pour établir une statistique fiable. De plus, ces objets ont été découverts grâce à une multitude de relevés astronomiques et de personnes. Comment s’assurer que tous les biais observationnels sous-jacents à ces détections ont été correctement modélisés ?

    « Il est très difficile de détecter des objets lointains dans certaines régions du ciel, comme dans le plan galactique par exemple, où il y a beaucoup d’étoiles. Si on n’observe pas d’objets transneptuniens qui passent dans ce plan, et qu’on ne tire des conclusions que par rapport aux objets qu’on a observés, alors cela introduit des biais, développe Sean Raymond. L’équipe de Batygin est convaincue que l’alignement qu’elle observe est intrinsèque à la population des objets qu’elle a pris en compte, mais ce n’est pas universellement accepté dans la communauté. »

    paragraphe centré

    Jean-Marc Petit, astronome à l’Institut Univers, Théorie, Interfaces, Nanostructures, Atmosphère et environnement, Molécules (5) (Utinam) a d’ailleurs pris le temps d’étudier les biais observationnels associés aux objets pris en compte dans la publication de 2016 et la manière dont ils y ont été traités. S’il pense également qu’il n’est pas impossible qu’il y ait réellement un groupement d’orbites, il trouve aussi que la probabilité que ce soit le cas est bien inférieure à ce qu’avancent Batygin et ses collaborateurs. « On ne dit pas qu’il n’y a pas de Planète 9, clarifie Jean-Marc Petit, mais que l’argument qu’ils mettent en avant n’est pas assez fort. » « Et c’est une position tout à fait légitime », convient Alessandro Morbidelli.

    Une absence impossible

    Dans un nouvel article, Konstantin Batygin, Alessandro Morbidelli, Michael Brown et David Nesvorný (planétologue à la Southwest Research Institute) tentent donc une nouvelle approche. Au lieu de se concentrer sur des objets distants qui ont des orbites très elliptiques, qui n’approchent jamais de Neptune, et qui sont par conséquent très difficiles à observer, ils jettent cette fois leur dévolu sur des objets toujours transneptuniens, mais qui croisent l’orbite de Neptune. « Ces objets viennent relativement près de nous et sont brillants, ils sont donc plus faciles à observer, décrit Alessandro Morbidelli. On en connaît plusieurs et leurs biais observationnels sont plus simples à modéliser. »

    De plus, ces objets sont très instables. En traversant l’orbite des planètes géantes, elles les dispersent et changent leurs orbites. Leur espérance de vie n’est ainsi que de quelques dizaines de millions d’années. Ils sont donc continuellement réalimentés par la population véritablement transneptunienne. « On a comparé un système avec une Planète 9 et un système sans, pour voir à quel taux on peut renouveler cette population d’objets qui croisent l’orbite de Neptune. Et on a trouvé que sans Planète 9, ce taux est trop faible, trop peu d’objets croisent l’orbite de Neptune. Avec la Planète 9, en revanche, nos modèles reproduisent beaucoup mieux les observations. » En d’autres termes, cette nouvelle étude a priori moins biaisée que les précédentes, conclut également fortement à l’existence d’une planète cachée. « C’est une très jolie idée, et leur résultat est assez clair », salue Sean Raymond. « C’est du très beau travail et je pense qu’ils tiennent quelque chose », félicite également Jean-Marc Petit.

    paragraphe centré

    Alors la présence d’une neuvième planète est-elle actée ? « Ce n’est pas si simple, tempère Sean Raymond. En principe, dans cette étude, il y a moins de biais observationnels, mais c’est vraiment difficile de dégager tous les biais. Rien ne dit qu’il n’en reste pas qui sont cachés. » Des biais cachés, Jean-Marc Petit en liste plusieurs : « Par exemple, les relevés qu’ils utilisent ne sont pas dédiés aux objets transneptuniens. De plus, la taille des objets, dont ils ne tiennent pas compte, peut avoir son importance. » Toute observation s’accompagne d’erreurs et d’approximations qu’il peut être difficile de prendre en considération. « C’est pourquoi, même si on a de bonnes raisons de penser que la Planète 9 est là, on ne devrait jamais croire que quelque chose existe avant de l’avoir trouvé, rapporte Sean Raymond. On doit la chercher avec l’esprit ouvert. »

    Et pour partir en quête de la Planète 9, les astronomes seront bientôt épaulés par un observatoire d’envergure : le télescope Vera-Rubin, en cours de construction au Chili, qui devrait être mis en fonction au premier trimestre 2025. « L’avantage du Vera-Rubin est qu’il regarde plus de la moitié du ciel tous les deux ou trois jours, avec une profondeur sûrement aussi bonne que l’observatoire spatial Hubble, révèle Sean Raymond. Il est vraiment conçu pour trouver des objets sombres et qui bougent dans le ciel, comme la Planète 9. Ce n’est pas sûr à 100 % qu’il la trouvera même si elle existe, mais s’il ne la trouve pas, ça sera difficile de continuer à croire qu’elle est bien là. »

    Et si ce n’était pas une planète ?

    L’alignement des orbites de certains objets a donné de la suite dans les idées de quelques chercheurs. Pour eux, cette anomalie pourrait être le fruit soit d’un immense disque de corps célestes situés loin dans le Système solaire, soit d’un mini trou noir. « Ce sont des idées loufoques, plaisante Alessandro Morbidelli. J’aimerais bien qu’on m’explique comment on forme un trou noir de 5 masses terrestres. » Idem pour le disque très excentrique : s’il est constitué de multiples corps célestes, certains d’entre eux auraient déjà dû être observés par occultation, en passant devant les étoiles. Mais on n’a jamais rien vu de tel. « En revanche, qu’il existe une planète sur l’orbite que l’on pense être celle de la Planète 9 est assez naturel dans le processus de formation des planètes géantes : quand elles grandissent, elles expulsent au loin des planètes de quelques masses terrestres, et ces planètes peuvent rester piégées sur une orbite excentrique distante. » Si la Planète 9 existe, c’est donc très certainement… une planète.

    (1) https://arxiv.org/abs/2404.11594 (2) Unité CNRS/Université de Bordeaux. (3) Unité CNRS/Observatoire de la Côte d’Azur/Université Côte d’Azur. (4) https://iopscience.iop.org/article/10.3847/0004-6256/151/2/22 (5) Unité CNRS/Université de Franche-Comté.

    Source: https://lejournal.cnrs.fr/articles/planete-9-y-es-tu

    Mais qui a osé me piquer ma place !! :blase:

  • 3 Votes
    2 Messages
    56 Vues

    Passionnant

  • 1 Votes
    1 Messages
    19 Vues

    La géométrie utilisée fait allusion au calcul 1 500 ans avant les Européens.

    51a9893e-a394-483a-887e-81ee95533454-image.png

    Même lorsqu’une culture laisse derrière elle de nombreuses traces écrites, il peut être difficile de comprendre sa connaissance de la technologie et du monde naturel. Les documents écrits sont souvent partiels et les auteurs peuvent ignorer certaines technologies ou les considérer simplement comme banales. C’est pourquoi le monde antique peut encore offrir des surprises comme le mécanisme d’Anticythère, un ancien ordinateur mécanique qui mettait en valeur les connaissances des Grecs en mathématiques, en astronomie et en technologie mécanique nécessaire pour les relier.

    Il a fallu plusieurs années après la découverte pour comprendre la véritable nature du mécanisme d’Anticythère. Et maintenant, quelque chose de similaire s’est produit pour les Babyloniens. Des tablettes d’argile, conservées au British Museum depuis des décennies, montrent que cette culture était capable d’utiliser une géométrie sophistiquée pour suivre l’orbite de Jupiter, en s’appuyant sur des méthodes qui, d’une certaine manière, préfigurent le développement du calcul des siècles plus tard.

    Nous savions déjà que les Babyloniens suivaient les orbites de divers corps. Il existe environ 450 tablettes écrites décrivant les méthodes et les calculs que nous connaissons, et elles datent de 400 à 50 avant notre ère. La plupart de ceux qui décrivent comment calculer le mouvement orbital, selon les mots de Mathieu Ossendrijver de l’Université Humboldt, “peuvent être représentés sous forme d’organigrammes”. Selon la situation, ils décrivent une série d’additions, de soustractions et de multiplications qui pourraient vous indiquer où se trouverait un corps donné.

    (Pour compliquer les choses, l’astronomie babylonienne fonctionnait en base 60, ce qui conduit à une notation très étrangère.)

    Les Babyloniens avaient une compréhension des concepts géométriques – Ossendrijver les qualifie de « très courants dans le corpus mathématique babylonien » – mais aucun d’entre eux n’apparaissait dans leurs calculs astronomiques connus.

    Au British Museum, cependant, il a trouvé une tablette qui n’avait pas été formellement décrite et qui contenait des parties de la procédure de suivi de Jupiter. Combiné avec d’autres tablettes, il commence avec le premier lever matinal de Jupiter, le suit à travers son apparent mouvement rétrograde et se termine par son dernier coucher visible au crépuscule. Encore une fois, c’est une question de procédure. Différentes sections sont utilisées pour prédire l’apparence de la planète sur différents segments de son orbite.

    Ossendrijver a repris la procédure de calcul des 120 premiers jours et a montré que le calcul de son déplacement quotidien dans le temps produit un trapèze. Dans ce cas, la forme était en grande partie un rectangle mais avec sa face supérieure inclinée vers le bas au fil du temps en deux segments distincts. Une série d’autres tablettes traitaient explicitement les calculs comme produisant un trapèze.

    f47a51a6-ae71-466c-9d54-5346dc0e3704-image.png
    Le trapèze utilisé pour calculer les 120 premiers jours de l’orbite de Jupiter. La ligne rouge divise la première forme en deux zones égales.

    Les choses deviennent intéressantes dans la procédure suivante, qui est utilisée pour calculer le moment où Jupiter atteint le point médian dans la première moitié de cette étape de son mouvement. Cette procédure consistait à prendre la moitié gauche du trapèze et à la diviser en deux morceaux de surface égale. L’emplacement de la ligne de démarcation (étiquetée vc ci -dessus) produit alors la réponse. Comme le décrit Ossendrijver, “Ils ont calculé le moment où Jupiter parcourait la moitié de cette distance en divisant le trapèze en deux plus petits, de surface idéalement égale.”

    Comprendre cela nécessitait évidemment une géométrie sophistiquée. Les érudits européens n’ont développé des méthodes similaires qu’au 14e siècle, lorsqu’elles ont été utilisées à Oxford. Les Grecs utilisaient la géométrie pour certains travaux astronomiques, mais cela impliquait des calculs de l’espace réel. Les Babyloniens travaillent ici dans un espace temps-vitesse abstrait.

    Il est également frappant de constater que cette approche générale est similaire à certains aspects du calcul. Là, l’aire sous une courbe est calculée en créant mathématiquement un nombre infini de petites figures géométriques et en additionnant leurs aires. Rien n’indique que les Babyloniens étaient sur le point de faire ce saut intellectuel étant donné qu’ils n’ont divisé cette forme qu’à quelques reprises. Mais cela montre qu’ils ont reconnu la valeur de l’approche générale.

    Source: https://arstechnica.com/science/2016/01/babylonians-tracked-jupiter-with-sophisticated-geometrical-math/?itm_source=parsely-api

  • 3 Votes
    1 Messages
    25 Vues

    Les scientifiques ont du mal à définir la conscience, l’IA ou autre.

    07e45532-b56f-4c6d-9b68-34c9e823d88a-image.png

    Les progrès de l’intelligence artificielle rendent de plus en plus difficile la distinction entre les comportements uniquement humains et ceux qui peuvent être reproduits par des machines. Si l’intelligence artificielle générale (AGI) arrivait en force – une intelligence artificielle qui surpasse l’intelligence humaine – la frontière entre les capacités humaines et informatiques diminuerait entièrement.

    Ces derniers mois, une part importante de la bande passante journalistique a été consacrée à ce sujet potentiellement dystopique. Si les machines AGI développent la capacité d’expérimenter consciemment la vie, les considérations morales et juridiques que nous devrons leur accorder deviendront rapidement lourdes. Ils auront des sentiments à prendre en compte, des pensées à partager, des désirs intrinsèques et peut-être des droits fondamentaux en tant qu’êtres nouvellement créés. D’un autre côté, si l’IA ne développe pas la conscience – mais simplement la capacité de nous surpasser dans toutes les situations imaginables – nous pourrions nous retrouver soumis à une entité largement supérieure mais sociopathe.

    Aucun des deux futurs potentiels ne semble si confortable, et tous deux nécessitent une réponse à des questions exceptionnellement hallucinantes : qu’est-ce que la conscience exactement ? Et cela restera-t-il un trait biologique, ou pourrait-il finalement être partagé par les dispositifs AGI que nous avons créés ?

    La conscience dans les ordinateurs de Von Neumann

    Pour qu’un ordinateur puisse expérimenter le vaste répertoire d’états internes accessible aux êtres humains, son matériel doit probablement fonctionner un peu comme un cerveau humain. Les cerveaux humains sont des « appareils » analogiques extrêmement économes en énergie, capables de niveaux élevés de traitement parallèle.

    Les ordinateurs modernes, basés sur l’architecture Von Neumann , ne sont rien de tout cela : ce sont des machines numériques énergivores et composées principalement de circuits en série.

    Les puces informatiques de Von Neumann séparent physiquement la mémoire du traitement, ce qui nécessite que les informations soient récupérées de la mémoire avant que les calculs puissent être effectués. « Les ordinateurs classiques de Von Neumann ont une séparation entre la mémoire et le traitement. Les instructions et les données sont stockées dans la mémoire et le processeur les récupère autant qu’il le peut en parallèle, puis calcule les chiffres et remet les données en mémoire », explique Stephen Deiss, un ingénieur neuromorphique à la retraite de l’UC. San Diego.

    Cette restriction sur la quantité d’informations pouvant être transférée dans un laps de temps spécifique (et la limite qu’elle impose à la vitesse de traitement) est appelée le goulot d’étranglement de Von Neumann . Le goulot d’étranglement de Von Neumann empêche nos ordinateurs actuels d’égaler, voire de s’approcher, la capacité de traitement d’un cerveau humain. Pour cette raison, de nombreux experts pensent que la conscience dans les ordinateurs modernes est très improbable.

    La conscience dans les ordinateurs neuromorphiques

    Les informaticiens développent activement des puces informatiques neuromorphiques qui échappent aux restrictions de traitement des ordinateurs de Von Neumann en se rapprochant de l’architecture des neurones. Certains d’entre eux combinent des unités de stockage mémoire et de traitement sur une seule puce. D’autres utilisent des éléments de traitement spécialisés de faible puissance, tels que des memristors, un type de transistor qui « se souvient » des états de tension passés, pour augmenter l’efficacité. Les puces neuromorphiques imitent le câblage parallèle du cerveau et ses faibles besoins en énergie.

    “Un dispositif de calcul en mémoire, qui inclut des éléments tels que des ordinateurs neuromorphiques, utilise la physique réelle du matériel pour effectuer le calcul”, explique Deiss, faisant référence aux memristors. “Les éléments de traitement sont les éléments de mémoire.”

    Si la technologie neuromorphique peut être développée au niveau nécessaire pour reproduire l’activité neuronale, les ordinateurs neuromorphiques pourraient avoir un plus grand potentiel pour expérimenter la vie consciemment plutôt que de simplement calculer intelligemment. "Si jamais nous atteignons le niveau de complexité de traitement qu’un cerveau humain peut atteindre, alors nous pourrons pointer du doigt [les ordinateurs neuromorphiques] et dire : “Cela fonctionne exactement comme un cerveau - peut-être qu’il ressent les choses comme nous ressentons les choses”. », dit Deiss.

    Pourtant, même dans un avenir rempli de matériel informatique de type cérébral et de décors propices à la conscience artificielle, une grande question demeure : comment saurons-nous si nos systèmes AGI éprouvent ou non de la tristesse, de l’espoir et le sentiment exquis de tomber dans l’oubli ? l’amour ou s’ils ont juste l’air de vivre ces choses ?

    Comment saurons-nous un jour ce qui se passe dans l’esprit d’une machine ?

    Une corne d’abondance de théories de la conscience

    Il n’y a qu’une seule façon de le savoir : en identifiant empiriquement comment la conscience fonctionne dans les formes de vie organiques et en développant une méthode par laquelle nous pouvons la reconnaître de manière cohérente. Nous devons comprendre la conscience en nous-mêmes avant d’avoir le moindre espoir de reconnaître sa présence dans des systèmes artificiels. Ainsi, avant de plonger profondément dans les conséquences complexes du silicium sensible et d’envisager un avenir rempli d’ordinateurs conscients, nous devons résoudre une question ancienne : qu’est-ce que la conscience et qui la possède ?

    Au cours des dernières décennies, les neuroscientifiques ont arraché cette question millénaire à l’emprise des philosophes, reconnaissant que le lien entre l’activité neuronale et l’expérience consciente est incontestable. Il existe des dizaines de théories neuroscientifiques de la conscience (TdC), si nombreuses en fait qu’un effort concerté est en cours pour réduire la liste à un petit nombre gérable. Nous n’en discuterons que trois ici : la théorie de l’information intégrée, la théorie de l’espace de travail neuronal global et la théorie des schémas d’attention.

    Selon la théorie de l’information intégrée (IIT), une ToC développée par Giulio Toloni , directeur du Wisconsin Institute of Sleep and Consciousness à l’UW Madison, la clé de la conscience réside dans la quantité d’informations intégrées d’un système, c’est-à-dire dans la manière dont ses composants communiquent entre eux. via des réseaux de neurones ou de transistors. Un système avec un niveau élevé d’informations intégrées est conscient ; un système avec peu d’informations intégrées ne l’est pas.

    Christof Koch , chercheur émérite à l’Allen Institute for Brain Science à Seattle, Washington, et partisan de l’IIT, explique que le cerveau humain possède un niveau élevé d’informations intégrées en raison du câblage parallèle étendu de ses réseaux neuronaux. Les informations peuvent voyager simultanément par plusieurs voies neuronales, ce qui augmente la capacité de traitement du cerveau. Les ordinateurs modernes, soumis au goulot d’étranglement de Von Neumann, sont principalement composés de circuits en série, de sorte qu’un niveau comparable de traitement de l’information est impossible à obtenir.

    La théorie des schémas d’attention (AST) , développée par Michael Graziano, professeur de psychologie et de neurosciences à Princeton, propose un point de vue différent : notre cerveau crée un modèle de ce à quoi nous prêtons attention, appelé « schéma d’attention ». Ce modèle, comme une maquette d’avion, est une représentation. Un modèle réduit d’avion ne comprend pas de cabine entièrement équipée ni de cockpit fonctionnel. De même, le schéma d’attention de notre propre conscience est une approximation : un modèle mental de ce à quoi notre esprit prête attention et de la manière dont nous le vivons.

    AST propose que, malgré ses limites, notre schéma d’attention est si convaincant que nous avons tendance à en déduire à tort que la conscience est quelque chose de mystique, quelque chose de « plus que » la matière. En réalité, nous n’avons accès qu’à cette représentation de notre esprit – et non à notre esprit lui-même – et nous ne pouvons donc pas comprendre directement comment notre esprit fonctionne, tout comme un modèle réduit d’avion ne peut pas reproduire l’expérience de voler.

    La théorie globale de l’espace de travail neuronal (GNWT), fondée par Bernard Baars , chercheur affilié en neurobiologie théorique à l’Institut des neurosciences de l’UC San Diego, propose que les informations que notre cerveau détermine comme suffisamment importantes soient placées de manière sélective et temporaire dans un espace de travail central au sein de notre cerveau (analogue à une salle de cinéma) pour que nous puissions y prêter attention. Les informations auxquelles nous n’avons pas besoin de prêter attention consciemment sont stockées dans des zones connectées mais séparées (analogues aux coulisses).

    « L’idée de base [du GTNO] est assez simple. À un moment donné, seul un sous-ensemble d’informations inconscientes est sélectionné par les réseaux attentionnels, et cette sélection sert à connecter les modules de traitement inconscients à un « espace de travail global ». Quel que soit le contenu présent dans l’espace de travail, il est vécu consciemment à ce moment-là », explique Michael Pitts, professeur de psychologie au Reed College dans l’Oregon.

    Malgré des approches disparates, l’IIT, le GTNO et l’AST partagent un objectif commun : élucider empiriquement la relation complexe entre le tissu cérébral et l’expérience de la vie. Une fois que les neuroscientifiques auront compris comment les réseaux neuronaux produisent la conscience, ces connaissances pourront être utilisées pour comprendre les expériences conscientes – ou leur absence – dans les réseaux inorganiques.

    La conscience informatique n’est-elle qu’un rêve éveillé futuriste ?

    Selon l’IIT, la conscience dans nos ordinateurs actuels est carrément impossible. Le battage médiatique autour de la conscience artificielle ne sert à rien. Le matériel est le matériel. Peu importe à quel point une machine est brillante pour jouer aux échecs, au Go, au Texas hold’em ou à Scotland Yard , en fin de compte, elle ne sait pas qu’elle a gagné une partie et elle n’a pas non plus ressenti les montagnes russes émotionnelles de la compétition. Selon les mots de Koch, « il n’a absolument rien vécu ».

    “Il ne suffit pas d’observer un système d’IA de l’extérieur et de se demander s’il est conscient en fonction de son comportement”, explique Koch. « Il faut regarder sous le capot. Une machine de Turing qui semble penser n’est pas consciente. »

    Selon l’IIT, l’incapacité d’une machine à « être quelque chose » qui s’éprouve elle-même en relation avec le monde extérieur réside clairement dans son pouvoir causal limité. Le pouvoir causal est défini comme la capacité d’un système à utiliser son état passé pour influencer son état présent et à utiliser son état présent pour influencer son état futur. Plus un système peut s’influencer lui-même, plus il possède un pouvoir causal. Les neuroscientifiques utilisent la variable « phi » pour représenter la quantité de puissance causale au sein d’un système, et elle est mesurée en analysant les connexions auto-influencées entre les composants du circuit.

    Les processeurs informatiques modernes ne disposent tout simplement pas du nombre requis de connexions internes auto-influencées pour atteindre la valeur seuil d’informations intégrées requise pour que l’expérience se produise. Contrairement au cerveau humain, qui contient environ 86 milliards de neurones et 100 000 milliards de connexions entre eux, un ordinateur contient beaucoup moins de connexions en boucle ou auto-influencées. Un ordinateur peut se comporter avec une intelligence extraordinaire – même une intelligence qui dépasse celle des humains – mais cela n’équivaut pas à une capacité à exercer un effet sur lui-même : être conscient.

    « Une manière populaire de résumer l’IIT est de proposer qu’un système est conscient lorsque l’ensemble (l’intégration de l’information) est plus que la somme de ses parties », explique Pitts. « L’IIT se concentre davantage sur la façon dont un système est organisé et sur la façon dont il s’affecte lui-même que sur ce qu’il fait. Selon l’IIT, deux systèmes peuvent avoir le même comportement d’entrée-sortie, mais selon la manière dont le système est organisé, l’un peut être conscient tandis que l’autre ne l’est pas.

    Contrairement à la grande majorité des TdC, qui sont des théories fonctionnalistes computationnelles qui supposent que la conscience peut être réduite aux composants physiques qui la produisent, « l’IIT commence par la conscience et remonte jusqu’au substrat physique de la conscience. L’IIT ne commence pas avec un système physique, comme un cerveau ou une machine, et ne suppose pas qu’il peut être suffisamment réduit pour nous conduire à la source de la conscience », explique Koch.

    En raison de cette prémisse, l’IIT ne s’inscrit parfaitement dans aucune des théories philosophiques traditionnelles de l’esprit, telles que le matérialisme, le dualisme, l’idéalisme ou le panpsychisme. « C’est le défi lorsque vous rencontrez deux mille ans d’«ismes». Elles sont enseignées dans toutes les écoles de philosophie et dans tous les livres, et elles sont très bien établies, mais elles relèvent toutes de la philosophie. L’IIT ne correspond à aucune [philosophie de l’esprit] », dit Koch.

    Malgré le cadre théorique convaincant de l’IIT, certains neuroscientifiques remettent en question la structure de la théorie. L’IIT est fondé sur cinq axiomes considérés comme infailliblement vrais par les partisans de la théorie. Pitts explique : « Certaines personnes ont un problème avec la façon dont l’IIT démarre parce qu’il s’agit d’une théorie ambitieuse qui fait des affirmations audacieuses. Au lieu de prendre des données et d’élaborer une théorie, cela part des premiers principes. Il présente cinq axiomes qui doivent être vrais pour toute expérience consciente. Ensuite, il utilise ces axiomes pour dériver des postulats pouvant conduire à des prédictions.

    « L’une des critiques que certains chercheurs font à l’égard de l’IIT », ajoute Pitts, « est qu’il est impossible d’obtenir un résultat expérimental qui remette en question le cœur de la théorie, car les axiomes sont conçus pour être un point de départ universellement vrai. C’est trop flexible ; ce n’est pas falsifiable, diraient certains.

    Même si l’IIT prédit que les ordinateurs artificiellement intelligents ne possèdent pas le « quelque chose » supplémentaire requis pour la conscience (à savoir le pouvoir causal), il n’écarte pas la perspective d’approcher rapidement des machines hautement intelligentes – des systèmes AGI qui surpasseront les humains dans leurs capacités de calcul. Il s’agit d’une distinction cruciale que nous ne devons pas oublier de faire, prévient Koch, alors que nous évaluons la meilleure façon d’inaugurer un avenir rempli de robots AGI : « Il y a une différence entre l’intelligence et la conscience. »

    La conscience informatique est-elle une réalité inévitable ?

    De l’autre côté de la médaille de la conscience neuroscientifique se trouvent les théories fonctionnalistes computationnelles, telles que la théorie des schémas d’attention et la théorie de l’espace de travail neuronal global. Les deux ToC considèrent la conscience artificielle comme inévitable. En fait, AST suggère que nous sommes nous-mêmes des machines qui croient à tort que nous sommes conscients. La conscience est simplement le résultat de calculs ; la source de ces calculs (cerveau ou machine) n’a pas d’importance tant qu’ils se produisent d’une manière spécifiée.

    La conscience machine semble suffisamment inévitable à certains chercheurs pour décider de vérifier si elle existe déjà. En août 2023, Patrick Butlin , chercheur à l’Université d’Oxford, et Robert Long , associé de recherche au Center of AI Safety de San Francisco, ont publié un article préimprimé sur arXiv.org intitulé « Consciousness in Artificial Intelligence : Insights from la science de la conscience . » Butlin, Long et 18 collaborateurs ont évalué six des théories fonctionnalistes computationnelles les plus importantes de la conscience et ont dressé une liste de propriétés d’indicateurs de conscience, propriétés nécessaires à l’apparition de la conscience chez les humains. Ils ont ensuite recherché des preuves de ces propriétés d’indicateurs dans les systèmes d’IA.

    Butlin, Long et leurs collaborateurs sont arrivés à la conclusion suivante : « Notre analyse suggère qu’aucun système d’IA actuel n’est conscient, mais suggère également qu’il n’y a pas d’obstacles techniques évidents à la construction de systèmes d’IA qui satisfont à ces indicateurs. »

    Les partisans de l’AST et du GTNO sont à l’aise avec la conclusion de Butlin et Long. Graziano explique que « l’AST repose sur l’hypothèse que les gens sont des machines biologiques. Tout ce qu’un cerveau sait de lui-même découle nécessairement des informations contenues dans ce cerveau. Nous pensons avoir la conscience – nous en sommes certains – parce que le cerveau construit des modèles de soi, ou des ensembles d’informations, qui se décrivent de cette manière. Si le cerveau ne construisait pas ces modèles, nous ne saurions rien de la conscience. Construisez un système artificiel avec les mêmes structures d’information en lui-même, et il aura les mêmes croyances et certitudes. Il devrait être possible (et beaucoup y travaillent) de construire une IA qui se pense également consciente et pense que les autres sont conscients.

    La confiance de Graziano dans l’éventualité d’une conscience de l’IA provient des deux principes fondamentaux de l’AST. Premièrement, « les informations qui sortent d’un cerveau doivent se trouver dans ce cerveau », et deuxièmement, « les modèles du cerveau ne sont jamais précis ». En utilisant ces deux principes comme point de départ, Graziano écrit qu’il n’y a pas de « marge de manœuvre » : la seule explication logique et méthodique de la conscience est qu’elle prend naissance dans le cerveau et qu’elle est, comme tout ce qui prend naissance dans le cerveau, une approximation de la conscience. réalité.

    Koch n’est pas d’accord. Selon l’IIT, l’expérience subjective de la dégustation d’une pomme ne peut pas être reproduite par un ordinateur en raison de sa capacité limitée à exercer une influence sur lui-même : « l’effet » de conscience ne peut pas se produire. “Ce n’est pas parce que quelque chose est une réplique parfaite d’un cerveau humain que la conscience en émergera”, explique Koch. “Il y a une différence entre la simulation d’une chose et la chose elle-même.” Même si les ordinateurs du futur deviennent aussi complexes que les cerveaux (en termes de circuits internes auto-influençant), la conscience ne sera pas automatiquement produite. Le niveau d’informations intégrées dans un cerveau simulé ne correspondra pas nécessairement à celui d’informations intégrées dans un cerveau réel.

    AST réfute cet argument en affirmant que l’expérience subjective évoquée par l’IIT (et d’autres théories de la conscience) n’est rien de plus qu’un schéma mental – une illusion convaincante. En réalité, nous ne ressentons rien subjectivement lorsque nous mangeons une pomme ; notre cerveau nous convainc que nous le faisons. De la même manière, l’intelligence artificielle pourra bientôt se convaincre, grâce à une représentation interne d’une pomme en train de manger, qu’elle a goûté un Honeycrisp rouge vif, croquant et juteux.

    “La conscience est une propriété que nous attribuons aux autres et à nous-mêmes, et nous le faisons parce qu’elle constitue un moyen utile de prédire le comportement”, explique Graziano. « AST propose que le cerveau construise un modèle, ou une représentation simplifiée, d’un état attentionnel. Nous donnons un sens à cet état d’attention en lui attribuant une conscience. En conséquence, nous acquérons une meilleure capacité à prédire nous-mêmes ou les autres.

    Parce que l’AST et le GTNO affirment qu’il n’y a rien de « spécial » dans la conscience – c’est juste le résultat final d’une séquence de calculs – tous deux soutiennent que les ordinateurs sont tout aussi susceptibles de faire l’expérience de la vie que nous.
    Butlin fait écho à ce point de vue en déclarant : « Je pense qu’il est probable que des systèmes d’IA seront bientôt construits avec de nombreuses propriétés d’indicateur et que ces systèmes seront des candidats beaucoup plus sérieux à la conscience que tous ceux qui existent actuellement. Ces systèmes ne seront probablement toujours pas conscients, mais ils rendront très urgentes les questions difficiles concernant la conscience.

    Est-il possible d’unifier les théories de la conscience ?

    Il existe une surabondance de ToC au sein de la communauté des neurosciences. Tant que ce groupe complexe de théories disparates ne sera pas unifié de manière cohérente ou réduit à une seule théorie correspondant aux résultats expérimentaux, nous n’aurons pas de moyen précis d’identifier la conscience machine. Pour lancer le processus de réduction, la Templeton World Charity Foundation (TWCF) finance une série de collaborations contradictoires destinées à accroître la communication entre les chercheurs en conscience et à réduire les écarts entre les ToC. Ce travail est impératif et urgent si nous voulons comprendre la conscience humaine avant que les ordinateurs ne soient suffisamment complexes pour potentiellement l’acquérir eux-mêmes.

    Michael Pitts rappelle l’attention médiatique entourant la conférence de l’Association pour l’étude scientifique de la conscience à New York en juin 2023. Pitts et ses collègues, Liad Mudrik de l’Université de Tel Aviv et Lucia Melloni de l’Institut Max Planck, ont présenté les premiers résultats de l’étude. première collaboration contradictoire qu’ils ont conçue pour tester rigoureusement deux théories neuroscientifiques de la conscience de premier plan : la théorie de l’information intégrée et la théorie de l’espace de travail neuronal global.

    « Nous avons présenté nos premiers résultats lors d’une conférence à New York l’été dernier, et la presse a eu une mauvaise impression. Leur idée était « c’est une théorie contre une autre », ou « l’un va gagner et l’autre va perdre », mais ce n’est pas ainsi que cela fonctionne », a déclaré Pitts. L’accent mis par les médias sur la nature conflictuelle des collaborations alimente la perception selon laquelle la recherche sur la conscience est décousue et incohérente.

    Pitts et ses collègues en sont aux premiers stades de réflexion sur un concept appelé Unification sélective, dans l’espoir que des théories disparates de la conscience pourront finalement être combinées en une seule ToC empiriquement solide : « L’idée de l’Unification sélective est que nous pouvons sélectionner soigneusement certains aspects des théories. qui sont étayés par des données et les unifient en une seule théorie », explique Pitts.

    En utilisant les résultats des collaborations contradictoires actuelles et futures, il espère éliminer les parties des ToC qui ne correspondent pas aux données expérimentales. Des éléments spécifiques des théories qui survivent au billot, théorise-t-il, peuvent ensuite être combinés dans une nouvelle ToC avec des prédictions qui s’alignent sur les preuves expérimentales. Pitts déclare : « Nous ne voulons pas combiner les théories à la manière de Frankenstein, mais d’une manière où nous conservons des éléments cohérents et abandonnons les éléments qui sont contestés expérimentalement. »

    Koch, bien que tout aussi déterminé à tester les ToC, ne croit pas qu’il soit possible de combiner certains éléments de plusieurs théories de la conscience. Il dit : « Ce sont simplement des animaux fondamentalement différents. Vous ne pouvez pas les écraser ensemble. Ils pourraient tous deux avoir tort, mais ils ne peuvent pas tous les deux avoir raison.

    Se préparer à l’AGI, conscient ou non

    Les débats sur la nature de la conscience et sur la question de savoir si l’AGI connaîtra finalement la vie comme nous ne seront probablement pas résolus de sitôt. Pourtant, les progrès technologiques nous propulsent à une vitesse vertigineuse vers un avenir rempli de machines qui, à tous égards et à toutes fins, se comporteront comme nous. Comment s’y préparer ?

    Koch propose que nous fassions un effort pour accroître l’intelligence humaine afin de compenser l’écart imminent entre les cerveaux organiques et artificiels. Conscientes ou inconscientes, les futures IA seront bien plus intelligentes que nous. Pourquoi ne pas consacrer certaines ressources technologiques à l’augmentation de l’intelligence humaine aux côtés de l’intelligence artificielle ?

    Graziano suggère que nous nous préparions à une IA consciente en considérant de manière préventive la sociopathie de l’IA . La généralisation de l’AGI entraînera une influence et une puissance accrues de l’ordinateur. Si l’IA développe une intelligence extrême sans apprendre simultanément à naviguer dans les complexités des normes sociales humaines, nous pourrions avoir sous la main des machines sociopathes qui choisiront de nous tuer au lieu de travailler avec nous.

    « La plupart des gens se concentrent sur la conscience comme une affaire privée et interne. Mais cela joue également un rôle central dans l’interaction sociale humaine », explique Graziano. « Nous nous reconnaissons comme des êtres conscients, et cela nous permet de nous traiter d’une certaine manière. Lorsque cette capacité commence à faiblir, un comportement antisocial apparaît. C’est à ce moment-là que les gens commencent à s’entre-tuer.

    « Si nous voulons que l’IA soit prosociale, nous pourrions lui donner les mécanismes qui rendent les gens prosociaux », suggère Graziano.

    Koch propose une dernière suggestion : plutôt que de se démener pour faire face à l’inévitable supériorité de l’AGI et aux ambiguïtés qui en résultent en termes de conscience informatique potentielle, il conseille de réglementer l’IA dès maintenant. « Nous devrions mettre des garde-fous à l’IA, comme c’est le cas dans l’UE – c’est la seule chose que nous pouvons faire. AGI arrivera très bientôt. Nous verrons comment nous nous en sortirons, pour le meilleur ou pour le pire.

    Lindsey Laughlin est une écrivaine scientifique et journaliste indépendante qui vit à Portland, dans l’Oregon, avec son mari et ses quatre enfants. Elle a obtenu sa licence à l’UC Davis avec une spécialisation en physique, neurosciences et philosophie.

    Source: https://arstechnica.com/science/2024/07/could-ais-become-conscious-right-now-we-have-no-way-to-tell/

    Edit: Le titre à été changé dans l’article d’origine

  • Espace: Le domaine privé Italien, s'y met aussi

    1
    0 Votes
    1 Messages
    22 Vues

    Une start-up italienne teste une petite fusée. Le constructeur de fusées italien Sidereus Space Dynamics a achevé le premier test du système intégré de sa fusée EOS, rapporte European Spaceflight . Ce test a eu lieu dimanche et a abouti à un tir du moteur principal kérosène/oxygène liquide MR-5 de la fusée pendant environ 11 secondes. La fusée EOS est une conception nouvelle, utilisant une architecture à un seul étage en orbite, le propulseur réutilisable revenant sur Terre depuis l’orbite pour être récupéré sous un parafoil. La fusée mesure moins de 4,2 mètres de haut et sera capable de transporter environ 29 livres (13 kilogrammes) de charge utile en orbite terrestre basse.

    931cc5dd-22bd-4f2f-9f46-aaf9dfee3890-image.png

    Une opération Lean … Après avoir terminé les tests intégrés au sol, la société effectuera les premiers vols d’essai EOS à basse altitude. Fondée en 2019, Sidereus a levé 6,6 millions d’euros (7,1 millions de dollars) pour financer le développement de la fusée EOS. Bien que cela ne représente qu’une fraction du financement que d’autres startups européennes comme Isar Aerospace, MaiaSpace et Orbex ont attiré, le PDG de Sidereus, Mattia Barbarossa, a déjà déclaré que la société avait l’intention de « remodeler les vols spatiaux en une fraction du temps et avec un coût limité ». ressources." (soumis par EllPeaTea et Ken the Bin)

    Source: https://europeanspaceflight.com/sidereus-space-dynamics-complete-integrated-static-fire-test/

  • 0 Votes
    4 Messages
    80 Vues

    @duJambon OK ça marche

  • 1 Votes
    18 Messages
    198 Vues

    @Popaul a dit dans Selon une étude japonaise, le fromage serait bon pour la santé mentale :

    je ne me suis jamais habitué au gout des chèvres…

    Ça dépend de ce que tu fais avec elles… 😉

  • 1 Votes
    2 Messages
    46 Vues

    En même temps surpasser les étudiants de premier cycle, on est pas dans l’exploit non plus, hein!

  • 4 Votes
    1 Messages
    54 Vues

    72ec432e-f916-454e-a5f7-8fd1261cc7df-image.png

    D’un diamètre de 100 mètres, voici Kamo’Oalewa

    25d13698-1011-4aae-9388-e83963c5932c-image.png

    Son orbite est assez particulière

    d68db783-163f-40ee-a07f-54b628084c15-image.png

    Elle proviendrait d’un impact ayant également provoqué le cratère lunaire de Giordano Bruno

    4307af27-ff06-4d63-b692-fd638b56863c-image.png

    La chine à annoncé vouloir explorer Kamo’Oalewa en 2025

    Source et vidéo: https://www.20min.ch/fr/video/espace-la-terre-aurait-une-2eme-lune-et-tout-le-monde-sen-fout-103137500

  • 0 Votes
    1 Messages
    36 Vues

    Au cours de l’essai du moteur, la fusée s’est détachée de la rampe de lancement en raison d’un problème structurel dans la fixation entre la fusée et la rampe, a indiqué la société chinoise Space Pioneer dans un communiqué. La fusée s’est écrasée dans les montagnes près de la ville chinoise de Gongyi, où se déroulait l’essai. Aucun blessé n’est à déplorer.

    Space Pioneer, connue en Chine sous le nom de Tianbing Technology, a déclaré qu’elle allait résoudre le problème et programmer un nouvel essai dès que possible.

    Des images de la fusée décollant involontairement peuvent être vues sur les réseaux sociaux, de même que le crash, avec une grosse boule de feu se formant dans un terrain montagneux.

    Source et vidéo: https://www.7sur7.be/monde/une-fusee-decolle-par-erreur-et-explose-en-plein-vol-en-chine~a0b02fab/

  • 1 Votes
    1 Messages
    28 Vues

    Un fabricant australien de panneaux solaires a développé un concept de centrale solaire modulaire préfabriqué en usine. Sa particularité est de pouvoir être installé dans des zones régulièrement exposées aux ouragans. La société en question vient d’ailleurs de remporter un appel d’offres pour un projet à Porto Rico.

    Un parc solaire de 69 MW

    Basée à Mascot, en Nouvelle-Galles-du-Sud (Australie), la société 5B a récemment évoqué son nouveau concept baptisé Maverick. Il est ici question d’une centrale solaire modulaire qui se déploie comme un accordéon. Dans un communiqué de presse publié le 12 juin 2024, 5B a affirmé avoir remporté un appel d’offres pour une installation à Jobos (Porto Rico), un parc solaire de 69 MW. La centrale en question comportera 1 392 panneaux, répartis en blocs accordéons de 90 panneaux formant des angles de dix degrés et délivrant entre 48 et 50 kW.

    5B assure un rendement énergétique par unité de surface jusqu’à 98 % supérieur à celui des systèmes conventionnels avec trackers solaires. Ainsi, les modules permettront une production d’énergie plus importante, notamment grâce aux inclinaisons opposées des panneaux solaires (est-ouest). En outre, « l’assemblage des modules, le câblage, les connexions et les tests sont effectués dans notre usine plutôt que sur le terrain. Il s’agit d’un changement radical par rapport à la manière dont les technologies solaires conventionnelles sont conçues, assemblées, achetées et construites », explique 5B.

    Un parc solaire de 69 MW

    Basée à Mascot, en Nouvelle-Galles-du-Sud (Australie), la société 5B a récemment évoqué son nouveau concept baptisé Maverick. Il est ici question d’une centrale solaire modulaire qui se déploie comme un accordéon. Dans un communiqué de presse publié le 12 juin 2024, 5B a affirmé avoir remporté un appel d’offres pour une installation à Jobos (Porto Rico), un parc solaire de 69 MW. La centrale en question comportera 1 392 panneaux, répartis en blocs accordéons de 90 panneaux formant des angles de dix degrés et délivrant entre 48 et 50 kW.

    5B assure un rendement énergétique par unité de surface jusqu’à 98 % supérieur à celui des systèmes conventionnels avec trackers solaires. Ainsi, les modules permettront une production d’énergie plus importante, notamment grâce aux inclinaisons opposées des panneaux solaires (est-ouest). En outre, « l’assemblage des modules, le câblage, les connexions et les tests sont effectués dans notre usine plutôt que sur le terrain.Il s’agit d’un changement radical par rapport à la manière dont les technologies solaires conventionnelles sont conçues, assemblées, achetées et construites », explique 5B.

    Modularité et résistance aux vents

    Outre son efficacité, le concept Maverick se distingue par un autre aspect : sa résistance à des vents pouvant atteindre 267 km/h. Le but est ici de permettre à l’installation de survivre aux tempêtes tropicales et surtout aux ouragans. Cela a été possible par la mise au point d’un système de tendeur à vis pour un maintien au sol à toute épreuve.

    Citons également le codé modulaire du système. En effet, les blocs de panneaux de la centrale peuvent être facilement désinstallés simplement en les repliant. Cela signifie que l’installation est tout aussi facile et nécessite l’intervention de seulement trois personnes à un rythme de 1 MW par semaine. Par ailleurs, il n’est pas question de creuser des tranchées de câbles. Ainsi, le système Maverick peut représenter une solution idéale de production d’énergie temporaire, par exemple dans des lieux touchés par une catastrophe.

    Enfin, 5B a indiqué que sa première installation à Porto Rico devrait voir le jour d’ici la fin de l’année 2024. En charge de la gestion de la future station, le responsable de AES Corporation, un fournisseur d’électricité américain, a affirmé qu’il s’agit ici d’une solution pouvant améliorer la fiabilité, maximiser l’utilisation des terres, et tendre vers un réseau énergétique plus résilient et plus vert.

    Source: https://sciencepost.fr/centrale-solaire-en-accordeon-resiste-vents-plus-de-250-km-h/

  • Pilotage automatique et dilemme moral

    6
    1 Votes
    6 Messages
    74 Vues

    @duJambon Tant qu’une IA ne se posera pas de questions spontanément (et c’est pas demain la veille) on ne pourra pas parler d’intelligence artificielle.
    Et puis regarde la consommation énergétique et le temps et le nombre d’exemple pour apprendre à une IA à reconnaitre un chat. Un enfant en bas âge le fait pour une quarantaine de watts à partir du 2è chat vu 😉 !

  • Les vols habités vers Mars, compromis

    1
    3 Votes
    1 Messages
    32 Vues

    Un astronaute qui fait un aller-retour vers Mars peut être récompensé par un insigne honneur unique sous la forme d’une « maladie rénale cosmique », ce qui est bien moins amusant qu’il n’y paraît. Selon de nouvelles recherches, les conditions vécues par les voyageurs interplanétaires peuvent radicalement modifier la structure et la fonction des reins, une exposition prolongée à la microgravité et aux rayonnements spatiaux produisant des dommages irréversibles à cet organe vital.

    “Pour mettre les choses en perspective, un an dans la station spatiale équivaut à la même dose de rayonnement qu’un travailleur d’une centrale nucléaire est autorisé en toute sécurité pendant cinq ans”, a déclaré l’auteur de l’étude, le Dr Keith Siew , à IFLScience. Cependant, même sur l’ISS, les astronautes restent en orbite terrestre basse (LEO) et continuent donc d’être protégés contre le champ magnétique terrestre contre le rayonnement cosmique galactique (GCR).

    Jusqu’à présent, les seuls humains à avoir été pleinement exposés au GCR sont les 24 individus qui se sont rendus sur la Lune dans le cadre des missions Apollo, mais ces voyages aller-retour n’ont jamais duré plus de 12 jours. En revanche, une visite sur Mars nécessitera probablement plusieurs années dans l’espace lointain, ce qui représente beaucoup plus de rayonnement.

    “Lors des missions dans l’espace lointain, personne n’a même envisagé que le rein pourrait être endommagé par les radiations, bien qu’il soit l’un des organes les plus radiosensibles”, explique Siew.

    Dans leur étude, les chercheurs ont analysé la fonction rénale et les biomarqueurs de 66 astronautes et examiné les reins de rongeurs ayant voyagé vers l’ISS. Ils ont également mené un certain nombre d’expériences conçues pour imiter les effets des voyages spatiaux sur de longues distances, en bombardant des souris et des rats avec la dose équivalente de rayonnement qu’un astronaute recevrait lors d’un voyage de plusieurs années sur Mars .

    Les résultats ont révélé un « remodelage » significatif du rein après moins d’un mois dans l’espace, avec un élément clé connu sous le nom de tube contourné distal devenant plus court en raison de la microgravité et des radiations . Cela entraîne à son tour une perte « progressive et irréversible » de la fonction rénale, même si l’impact exact que cela aurait sur une mission vers Mars reste flou.

    « Le rein est un organe qui répond tardivement, donc on ne voit rien d’anormal jusqu’à bien plus tard. Vous pouvez perdre 75 pour cent de votre fonction avant de réellement commencer à voir les symptômes appropriés et à décliner », explique Siew. En conséquence, les astronautes peuvent « se sentir parfaitement normaux » tout au long d’une mission, pour ensuite souffrir d’une insuffisance rénale catastrophique après leur retour sur Terre.

    «C’est comme si vous faisiez de l’hypertension et que votre cœur était endommagé, puis qu’un jour vous aviez une crise cardiaque», explique Siew.

    Aussi terrible que cela puisse paraître pour l’humain dans la combinaison spatiale, si les effets sont retardés suffisamment longtemps, cela ne nuira peut-être pas à la mission elle-même. Les calculs rénaux sont cependant plus préoccupants, car ils sont jusqu’à 14 fois plus fréquents lors des vols spatiaux que sur Terre et peuvent mettre les astronautes hors de combat à des moments critiques.

    Jusqu’à présent, le risque accru de calculs rénaux dans l’espace était largement attribué à la déminéralisation osseuse due à la microgravité. Pourtant, les analyses métaboliques des chercheurs suggèrent que la perte de la fonction rénale pourrait également être en partie responsable. « Vous ne pouvez pas résoudre ce problème en essayant simplement de réparer les os. Vous devez également envisager de réparer le rein », explique Siew.

    Malgré la gravité de ces découvertes, les chercheurs soulignent que leurs modèles pourraient ne pas représenter avec précision les effets des vols spatiaux, car ils ont infligé à leurs rongeurs jusqu’à deux ans et demi de GCR en courtes rafales de seulement 45 minutes. On ne sait pas encore si l’impact de cette exposition aiguë correspond ou non à l’exposition chronique à laquelle sont confrontés les voyageurs interplanétaires.

    « Il est fort possible que nous observions des effets de radiations aiguës auxquels vous ne seriez pas vraiment exposé », explique Siew. « Ce que nous envisageons pourrait donc être en réalité moins nocif que ce qui va réellement se produire. Ou il se pourrait que nous surestimions les dégâts », dit-il, ajoutant qu’une exposition prolongée à des doses plus faibles pourrait équivaloir à « la mort par mille coupures de papier ».

    Commentant ces résultats dans un communiqué , l’auteur principal de l’étude, le professeur Stephen B. Walsh, a déclaré que « si vous planifiez une mission spatiale, les reins comptent vraiment. Vous ne pouvez pas les protéger des radiations galactiques en utilisant un blindage, mais à mesure que nous en apprendrons davantage sur la biologie rénale, il sera peut-être possible de développer des mesures technologiques ou pharmaceutiques pour faciliter les voyages spatiaux prolongés.

    “Tous les médicaments développés pour les astronautes pourraient également être bénéfiques ici sur Terre, par exemple en permettant aux reins des patients atteints de cancer de tolérer des doses plus élevées de radiothérapie, les reins étant l’un des facteurs limitants à cet égard.”

    L’étude a été publiée dans la revue Nature Communications.

    Source: https://www.iflscience.com/new-threat-emerges-for-mars-bound-astronauts-74775

  • Multiplication des débris spatiaux retrouvés sur terre

    2
    3 Votes
    2 Messages
    33 Vues

    Ca promet pour l’ISS… :blase: