Sciences

494 Sujets 2.2k Messages
  • 5 Votes
    9 Messages
    274 Vues

    @Pluton9 a dit dans La clé pour lutter contre la pseudoscience n’est pas la moquerie, c’est l’empathie :

    Paul M. Sutter est un crétin arrogant dans la pure tradition américaine qui prône que seuls ceux qui ont fait des études, peuvent être scientifiques et que seules leurs méthodes sont reconnaissables

    On en a un comme ça aussi chez nous 😁

  • 4 Votes
    11 Messages
    382 Vues

    Comment « faire vos propres recherches » peut vous conduire à des informations douteuses et à des théories du complot

    C’est pourtant simple : ne pas tout éponger au premier degré les égouts des réseaux “dits sociaux”, toujours rester maître de son libre-arbitre et de ses facultés de discernement sans céder aux chants des influenceurs quels qu’ils soient (idéologiques, politiques, marchands et publicitaires).

    Les plus perméables psychologiquement en attente et/ou en perte de repères ne le comprendront peut-être pas à leurs dépens. Mais ça viendra plus tard… ou pas.

  • Conseils aux planteurs de graines de doute

    Épinglé Déplacé
    1
    2 Votes
    1 Messages
    106 Vues

    J’ai un doute, mais je me soigne:

    Source: https://jaiundoute.com/

  • [Vidéos] Sciences, zététique et plus encore...

    Épinglé
    8
    6 Votes
    8 Messages
    366 Vues

    David Louapre, lauréat de la Médaille de la médiation scientifique 2023 du CNRS

    Chaque mois, une nouvelle vidéo vient expliquer un concept scientifique issu de la biologie, de l’astronomie, de la physique quantique… David Louapre s’occupe ainsi de la chaîne YouTube Science Étonnante, qui compte plus de 1,3 million d’abonnés pour 110 millions de vidéos vues.
    “Je suis animé par la volonté de transmettre à la société ce que j’ai eu la chance d’apprendre pendant mes études et mes recherches”, raconte ce docteur en physique théorique diplômé de l’ENS Lyon.

    Alors qu’il travaillait dans la recherche privée chez Saint-Gobain, David Louapre a ouvert un blog, qu’il a transformé en chaîne YouTube en 2015. Il y aborde les sujets scientifiques qui le passionnent, rencontrant un vif succès en ligne. Il a ensuite publié plusieurs ouvrages de vulgarisation, dont “Mais qui a attrapé le bison de Higgs ?”. David Louapre est également directeur scientifique chez Ubisoft, où il adapte des simulations et les modèles scientifiques au monde du jeu vidéo.

  • [Conseils lecture] Sciences, zététique et plus encore...

    Épinglé
    25
    4 Votes
    25 Messages
    780 Vues

    @Pollux a dit dans [Conseils lecture] Sciences, zététique et plus encore... :

    Juste un dernier petit mot avant de vous laisser tranquille
    Je serais curieux de savoir comment, dans les années 20, ont été traités les gens, parce que pense qu’il y en a eu, qui émettaient des réserves sur ce nouveau produit miracle qu’était le radium.
    Cf le post de darkCainou un peu plus haut.

    C’est pourtant évident 😉
    si on se réfère à la crise actuelle…

    La plupart des scientifiques se sont montrés prudents, avant même l’utilisation massive, ils ont pris beaucoup de risques pour les tout premiers avec leur santé, mais rapidement ils ont mis un frein à l’utilisation débridée. Même si à l’époque cette science était très neuve (celle de la matière, les atomes etc… je ne parle pas de la radioactivité)

    Ensuite les charlatans, les scientifiques rebelles, les bonimenteurs, les entreprises ont utilisés ça en masse malgré les avertissements du corps scientifique (un peu comme Raoult et la chloroquine (qui a beaucoup tué, et les gens ont suivi leur gourou aveuglement comme pour le radium)), pour finalement sous la pression beaucoup trop tardive des états (surtout le notre 20/30 ans de retard sur le radium, toujours bien lent à réagir comme pour la crise de l’hydroxychloroquine). Il faut dire qu’il n’y avait pas les mêmes gardes fous, la science dans l’histoire de l’humanité, celle basée sur les preuves c’est assez récent.

    Heureusement, le Radium était tellement cher, les stocks mondiaux se comptaient en grammes que la plupart des entreprises qui vendait la radioactivité dans leurs produits (je parle des produits de beauté, alimentation etc…) n’en mettaient en fait pas, passé une époque.

    Dans le cas présent, les processus scientifiques ne sont plus du tout les même que y’a 120 ans, l’arnm n’est pas une nouvelle technologie découverte y’a 2 ans, il y a presque 30 ans de savoir accumulés, et ça se base sur un corpus de connaissances bien plus complètes sur l’adn et l’arn.

    Si on devait comparer au radium, se serait plus comme si on utilisait le premier vaccin ARNm dans les années 60 juste après la découverte et que posant un problème des scientifiques douteux continueraient à l’utiliser.

    L’ARNm du virus quand on attrape la covid on en est envahi complètement, rien à voir avec le vaccin et la petite dose, le risque de retro transcription est beaucoup plus important alors avec le virus, de même avec les effets secondaires.

  • 1 Votes
    2 Messages
    37 Vues

    La nature se décide enfin à réguler la population mondiale! c’est pas trop tôt.

    Moi je suis plutôt pâtes, fils d’italien on se refait pas! :ahah:

  • L'histoire d'internet selon Ars Technica

    6
    3 Votes
    6 Messages
    72 Vues

    et dire que j’ai travaillé avec ces bandes de telex 😉 😉

    j’étais tellement jeune 19 ans à peine Nom de diou

  • 0 Votes
    2 Messages
    36 Vues

    @duJambon a dit dans Katy Perry à effectué un bref voyage dans l’espace à bord d’un vol 100% féminin :

    “afin de l’inciter à ne jamais fixer de limites à ses rêves”.

    Ho que c’est touchant

  • 4 Votes
    1 Messages
    44 Vues


    Le Titanic dans la ville portuaire britannique de Southampton. / Le scan 3D du navire. © Pictures from History/Universal / National Geographic Channel

    Une analyse détaillée du Titanic a fourni de nouvelles informations sur les dernières heures du paquebot, rapporte aujourd’hui la BBC.

    15 avril 1912: le Titanic sombre dans l’Atlantique après avoir percuté un iceberg et finit à 3.821 mètres de profondeur, à 650 km au sud-est de Terre-Neuve. Près de 1.500 personnes trouvent la mort.

    Plus d’un siècle plus tard, un scan 3D du navire montre la violence avec laquelle le navire s’est brisé en deux et confirme les témoignages des passagers selon lesquels l’équipage a travaillé jusqu’au bout pour maintenir les lumières du navire allumées afin de permettre l’évacuation en toute sécurité des voyageurs.

    c84ce449-e542-46ae-b5ff-1affc6c97218-image.png
    Extrait de “Titanic: The Digital Resurrection”. © National Geographic Channel

    Une nouvelle simulation informatique montre ainsi que des trous dans la coque, de la taille d’une feuille de papier A4, représentent la cause du naufrage du navire, dit “insubmersible” à l’époque. “Le Titanic est le dernier témoin vivant de la catastrophe, et il a encore des histoires à raconter”, a déclaré Parks Stephenson, analyste du Titanic.

    Comment le scan a-t-il été réalisé?

    L’épave a été scannée à l’aide de robots sous-marins. Au vu de sa taille gigantesque et de sa localisation dans des eaux sombres et profondes, l’exploration ne fournit que des images instantanées.

    Plus de 700.000 photographies, prises sous tous les angles, ont ainsi dû être réalisées, puis analysées pour créer ce “jumeau numérique”, dévoilé en 2023. Pour la première fois, les experts disposent d’une image complète du Titanic.

    f41ae59a-fb3d-4a06-822a-63d0052d29bb-image.png
    Extrait de “Titanic: The Digital Resurrection”. © National Geographic Channel

    Le scan a été réalisé dans le cadre d’un nouveau documentaire de la chaîne de télévision National Geographic, “Titanic: The Digital Resurrection”. Un bijou de technologie qui permet d’étudier le navire sous un nouvel angle, explique Stephenson: “C’est comme une scène de crime: il faut examiner les preuves dans le contexte du site.” Il était donc nécessaire, selon le spécialiste, de cartographier l’ensemble de l’épave.

    Dans un article publié sur X, Stephenson qualifie la technologie utilisée de “futur de l’exploration en eaux profondes” et affirme que le Titanic a motivé les investisseurs à injecter de l’argent dans la recherche, permettant à ce scan de haute précision de voir le jour.

    Témoins oculaires

    Grâce au scan 3D, certaines déclarations de témoins oculaires ont pu être corroborées pour la première fois par des preuves solides. Les images montrent des détails, notamment un hublot qui a été probablement brisé par l’iceberg. Or les survivants avaient déjà déclaré que de la glace était entrée dans les cabines de certaines personnes lors de la collision.

    “Ils ont gardé les lumières allumées jusqu’à la fin, donnant à l’équipage le temps de mettre à l’eau les canots de sauvetage en toute sécurité.”
    Parks Stephenson

    D’autres passagers ont rapporté que les lumières étaient toujours allumées lorsque le navire a disparu sous l’eau. Sur ce point, la réplique numérique du Titanic montre que certaines des chaudières sont comme repliées vers l’intérieur, ce qui indique qu’elles étaient encore en fonctionnement lorsqu’elles ont été inondées. Une clapet ouvert a également été retrouvé sur le toit du pont arrière. Cela montre que de la vapeur circulait encore dans le système électrique au moment du naufrage.

    06b64ecc-e5d2-41f0-8e8c-a1e7b32c1018-image.png
    Des survivants du Titanic dans un canot de sauvetage, le 15 avril 1912. © Universal Images Group via Getty

    Il semble que cela est lié au fait qu’une équipe d’ingénieurs soit restée sur place pour alimenter les fours au charbon, afin de maintenir les lumières allumées. Toute l’équipe est morte dans la catastrophe, mais leurs actions héroïques ont sauvé de nombreuses vies, précise Stephenson. Au total, 706 personnes ont réussi à survivre au naufrage, ou plus précisément près de 500 passagers et plus de 200 membres d’équipage.

    “Ils ont gardé les lumières allumées jusqu’à la fin afin que l’équipage ait le temps de lancer les canots de sauvetage en toute sécurité avec un peu de lumière plutôt que dans l’obscurité absolue”, a-t-il déclaré à la BBC.

    Simulation

    Une nouvelle simulation a également permis de mieux comprendre le naufrage de ce qui était à l’époque le plus grand navire de croisière du monde.

    “Nous avons utilisé des algorithmes avancés, des modèles informatiques et des superordinateurs pour reconstituer le naufrage du Titanic”, a déclaré le professeur Jeom-Kee Paik de l’University College London, qui a dirigé la recherche.

    La simulation montre que même si le navire n’a touché que légèrement l’iceberg, la collision a laissé une série de trous dans une bande étroite mais longue à travers sa coque.

    “Insubmersible”

    Le Titanic devait être insubmersible et conçu de manière à ce que le navire reste à flot même si quatre de ses compartiments étanches étaient inondés. Malheureusement, les dégâts causés par l’iceberg ont touché six compartiments, atteste la nouvelle simulation.

    “Ce qui a scellé le sort du Titanic ne tient qu’à de minuscules trous de la taille d’une feuille de papier”, a déclaré Simon Benson, maître de conférences en architecture navale à l’Université de Newcastle.

    “Le problème, c’est que ces petits trous sont répartis sur une grande partie du navire, de sorte que l’eau s’est infiltrée, lentement mais sûrement. Ces compartiments ont été inondés et finalement, le Titanic a coulé.”

    Malheureusement, les dégâts ne sont pas bien visibles sur le scan, car la partie inférieure de la proue est cachée sous les sédiments. Les images fournissent de nouveaux indices sur cette froide nuit d’avril 1912, mais il faudra des années avant que les experts aient examiné en détail tous les détails de la réplique. “À chaque fois, le Titanic nous laisse sur notre faim”, conclut Stephenson.

    Source: https://www.7sur7.be/monde/un-scan-3d-du-titanic-revele-en-detail-les-derniers-moments-du-navire-collision-lumieres-restees-allumees-etc~a8c97ed8/

  • 1 Votes
    1 Messages
    38 Vues

    C’est la première fois que des scientifiques fermentent délibérément des aliments dans l’espace, ouvrant de nouvelles possibilités pour les futures aventures culinaires des astronautes.

    36b42b8a-61f5-40d2-9e33-bf0c9c41c4e7-image.png
    Les trois échantillons de miso après fermentation

    bfc724e7-dd71-40ee-b52d-86f27420e64a-image.png
    Gros plan sur le miso (c’est encore moins appetissant)

    Des scientifiques ont annoncé mercredi 2 avril avoir réussi à fermenter du miso à bord de la Station spatiale internationale, marquant la première fermentation alimentaire délibérée dans l’espace qui pourrait ouvrir de nouvelles possibilités culinaires pour les astronautes en missions de longue durée.

    Le condiment traditionnel japonais est une pâte de soja fermentée obtenue en mélangeant des graines de soja cuites, du sel et du koji, une culture de moisissures généralement cultivée sur du riz ou de l’orge. Le processus de fermentation peut durer de quelques mois à plusieurs années, produisant une pâte au goût riche et umami, utilisée dans les soupes, les sauces et divers autres plats. Des recherches antérieures ont montré que les astronautes ont tendance à se sous-alimenter dans l’espace, malgré une alimentation adaptée à leurs besoins nutritionnels, probablement en raison d’une modification de la perception du goût des aliments. De fait, les astronautes eux-mêmes ont signalé une diminution du goût et de l’odorat pendant leur séjour dans l’espace, et ont déclaré préférer les aliments salés, épicés et riches en umami.

    La fermentation alimentaire pourrait contribuer à relever ces défis. Si quelques produits fermentés, comme le kimchi et le vin, ont été envoyés à l’ ISS , aucun procédé de fermentation n’a été mis en œuvre dans l’espace jusqu’à présent. Joshua Evans, qui dirige un groupe de recherche appelé « Innovation alimentaire durable » à l’Université technique danoise, et ses collègues ont cherché à déterminer si la fermentation était possible dans l’espace et, si oui, comment les aliments fermentés dans l’espace se compareraient en goût à leurs homologues terrestres .

    Les chercheurs ont constaté que le miso de l’ISS fermentait correctement et que les trois échantillons présentaient pour la plupart des profils umami salés similaires. Le miso de l’ISS est donc reconnaissable et sûr, affirme l’équipe, avec un goût spécifique qui pourrait satisfaire le besoin de saveur des astronautes tout en offrant une valeur nutritionnelle élevée.

    Les chercheurs ont constaté que le miso de l’ISS avait un goût plus grillé et noiseté que celui de la Terre, probablement en raison des effets de la microgravité et de l’augmentation des radiations dans l’environnement de l’orbite terrestre basse où se trouve l’ISS. Ces conditions pourraient avoir accéléré la fermentation, note l’étude.

    d8cb8176-82e3-4dac-bca6-bdd2a30d2441-image.png

    À terme, ces résultats pourront être exploités pour créer d’autres types d’aliments fermentés savoureux dans l’espace.

    « Notre étude ouvre de nouvelles perspectives pour explorer l’évolution de la vie lorsqu’elle voyage dans de nouveaux environnements comme l’espace », a déclaré Evans dans un communiqué. « Elle pourrait ouvrir la voie à de nouvelles formes d’expression culinaire, élargissant et diversifiant la représentation culinaire et culturelle dans l’exploration spatiale à mesure que ce domaine se développe. »

    Source: https://www.space.com/space-exploration/space-miso-is-nuttier-than-earth-miso-but-its-still-miso

    Plutôt qu’une soupe miso, je vais prendre du poulet citron…

  • Tourisme spatial, Fram2 est lancée

    2
    0 Votes
    2 Messages
    32 Vues

    Avec un peu de bol et quelques accidents, on aura moins de milliardaires américains soutiens du blondinet… Allez y! Volez messieurs dames 👹

  • Quel est l'intérêt de ces lignes sur les serviettes ?

    7
    1 Votes
    7 Messages
    125 Vues

    Parfait !
    Utilisez votre linge pour vous torcher le trou de balle. Ces motifs plats, en plus d’être décoratifs, sont là pour vous aider à enlever le dernier ptit bout récalcitrant qui vous résiste.
    Après quelques utilisations, hop -> dans la machine avec vos chemises.

    Ne revez pas de toilettes japonaises qui coûtent une fortune.

  • 0 Votes
    15 Messages
    144 Vues

    @Pluton9 Donc, ils donnent bien du pognon pour ariane, alors au final c’est quoi le problème ? C’est parce que c’est juste des intermédiaires ? Et puis non, ne réponds pas à cette question, je m’en tape le coquillard et je ne bosse pour aucun des trois. :lol:

  • La vraie I.A. apprend à raisonner

    1
    0 Votes
    1 Messages
    38 Vues

    Julia a deux sœurs et un frère. Combien de sœurs son frère Martin a-t-il ?

    Résoudre cette petite énigme demande un peu de réflexion (et une lecture attentive de l’énoncé). Vous pourriez imaginer une famille de trois filles et un garçon, puis réaliser que le garçon a trois sœurs. Ou bien vous pourriez trouver une règle plus générale : chaque garçon de la famille aura une sœur de plus que chaque fille. Autrement dit, la réponse à une telle énigme n’est pas immédiate, comme Paris est la capitale de la France ; elle requiert du raisonnement, une caractéristique essentielle de l’intelligence humaine, que les grands modèles linguistiques (MLL) comme GPT-4, malgré leur comportement impressionnant, peinent à maîtriser.

    *J’ai soumis cette énigme à plusieurs reprises à la version la plus récente de GPT-4 (4o), et j’ai obtenu la mauvaise réponse à chaque fois, affirmant que Martin avait deux sœurs. En effet, plusieurs systématiques études ont montré que GPT-4 et les modèles similaires manquent de capacités de raisonnement robuste, ce qui limite leur utilité dans de nombreux domaines. Des astuces incitatives, comme l’ajout de « Réfléchissons étape par étape » à la fin d’une requête pour encourager un meilleur raisonnement, peuvent parfois améliorer les capacités de résolution de problèmes des étudiants en LLM, mais elles n’ont pas été suffisamment efficaces pour transformer ces systèmes en raisonneurs robustes.

    Pour remédier à ce problème, de nombreuses entreprises d’intelligence artificielle (IA) de premier plan ont récemment créé de nouveaux types de systèmes d’IA, souvent appelés grands modèles de raisonnement (LRM), spécialement entraînés pour effectuer certains types de raisonnement. Parmi ceux-ci figurent les modèles o1 et o3 d’OpenAI, Claude d’Anthropic avec son « mode de pensée étendu », Gemini 2.0 Flash Thinking Experimental de l’entreprise chinoise DeepSeek de Google et le modèle R1.

    Si vous soumettez à un LRM une énigme comme celle-ci, il générera ce que l’on appelle une « chaîne de pensée » : des énoncés en langage naturel décrivant étape par étape un processus de raisonnement apparemment plausible. Par exemple, j’ai soumis l’énigme des « sœurs » au modèle o1 d’OpenAI. Contrairement à GPT-4o, le modèle o1 me fournit sa chaîne de pensée pour arriver à la (bonne) réponse :

    Julia a deux sœurs. Il y a donc trois filles au total (Julia et deux autres). Julia a également un frère, nommé Martin. Au total, il y a quatre frères et sœurs : trois filles et un garçon (Martin). Du point de vue de Martin, ses sœurs sont toutes les trois des filles (Julia et ses deux sœurs). Martin a donc trois sœurs.

    Cela ressemble beaucoup à une pensée humaine à voix haute, et en effet, o1 et d’autres LRM sont entraînés sur de nombreux exemples de chaînes de pensée générées par l’homme. La capacité à générer de telles étapes de raisonnement a permis aux LRM d’atteindre de nouveaux sommets de performance dans des tests de performance difficiles en sciences, mathématiques et codage. Par exemple, OpenAI a indiqué que son modèle o1 s’est classé parmi les 500 meilleurs étudiants américains lors d’une épreuve de qualification pour les Olympiades de mathématiques américaines et a dépassé la précision des doctorants dans un test de performance portant sur des problèmes de physique, de biologie et de chimie. D’autres LRM ont atteint des performances similaires.

    Certaines entreprises misent gros sur les LRM comme base d’assistants IA commercialement lucratifs. OpenAI, par exemple, a mis à disposition ses meilleurs LRM et son « Outil de Recherche approfondie » associé à des abonnés payant 200 $ par mois, et envisagerait de facturer jusqu’à 20 000 $ par mois pour des modèles de raisonnement capables de mener des recherches de niveau doctorat.

    Mais certains chercheurs remettent en question tout l’engouement suscité par les LRM et se demandent si ces modèles, comme le titrait un article , « réfléchissent et raisonnent réellement, ou font-ils simplement semblant ? » Autrement dit, leur entraînement à la chaîne de pensée leur permet-il de raisonner de manière générale et robuste, ou réussissent-ils sur certains critères étroitement définis en imitant simplement le raisonnement humain sur lequel ils ont été formés ?

    Je reviendrai plus en détail sur ces questions plus tard, mais je vais d’abord esquisser comment fonctionnent ces modèles et comment ils sont formés.
    Un LRM repose sur un « modèle de base » pré-entraîné, un LLM tel que GPT-4o. Dans le cas de DeepSeek, le modèle de base était leur propre LLM pré-entraîné, appelé V3. (La dénomination des modèles d’IA peut prêter à confusion.) Ces modèles de base ont été entraînés sur d’énormes quantités de texte généré par l’homme, l’objectif étant de prédire le prochain jeton (c’est-à-dire un mot ou une partie de mot) dans une séquence de texte.

    Le modèle de base est ensuite « post-entraîné », c’est-à-dire qu’il est entraîné plus avant, mais avec un objectif différent : générer spécifiquement des chaînes de pensée, comme celle générée par o1 pour le puzzle des « sœurs ». Après cet entraînement spécifique, lorsqu’un problème lui est posé, le LRM ne génère pas des jetons un par un, mais des chaînes de pensée entières. Ces chaînes de pensée peuvent être très longues.

    Contrairement à GPT-4o, par exemple, qui génère un nombre relativement faible de jetons, un par un, lorsqu’un problème lui est posé, des modèles comme o1 peuvent générer des centaines, voire des milliers d’étapes de chaîne de pensée, totalisant parfois des centaines de milliers de jetons générés (dont la plupart ne sont pas révélés à l’utilisateur). Et comme les clients utilisant ces modèles à grande échelle sont facturés au jeton, cela peut s’avérer très coûteux.

    Ainsi, un LRM effectue beaucoup plus de calculs qu’un LLM pour générer une réponse. Ces calculs peuvent impliquer la génération de nombreuses chaînes de pensée possibles, l’utilisation d’un autre modèle d’IA pour évaluer chacune d’elles et renvoyer celle la mieux notée, ou encore une recherche plus sophistiquée parmi les possibilités, semblable à la recherche « anticipation » que les programmes de jeu d’échecs ou de go effectuent pour déterminer le bon coup. Avec un modèle comme o1, ces calculs se déroulent en arrière-plan ; l’utilisateur ne voit qu’un résumé des étapes de la chaîne de pensée générées.

    Pour ce faire, l’entraînement ultérieur des LRM utilise généralement deux méthodes d’apprentissage automatique : l’apprentissage supervisé et l’apprentissage par renforcement. L’apprentissage supervisé peut consister à entraîner les LRM sur des étapes de raisonnement générées par des experts humains hautement rémunérés, ou sur des chaînes de pensée générées par un autre modèle d’IA, où chaque étape est évaluée par des humains ou par un autre modèle d’IA.

    L’apprentissage par renforcement est, en revanche, une méthode non supervisée, dans laquelle le LRM génère lui-même un ensemble complet d’étapes de raisonnement menant à une réponse. Le modèle n’est « récompensé » que pour avoir obtenu la bonne réponse et pour avoir présenté les étapes de raisonnement dans un format lisible par l’homme (par exemple, en les numérotant séquentiellement).

    La puissance de l’apprentissage par renforcement sur un grand nombre d’essais réside dans le fait que le modèle peut identifier les étapes qui fonctionnent et celles qui ne fonctionnent pas, même s’il ne reçoit aucun retour supervisé (coûteux) sur la qualité de ces étapes. Le prix Turing 2025, la récompense la plus prestigieuse de l’informatique, a notamment été décerné à deux chercheurs qui ont contribué au développement des méthodes d’apprentissage par renforcement de base aujourd’hui utilisées pour entraîner les LRM.

    Il est intéressant de noter que DeepSeek a montré que les méthodes d’apprentissage par renforcement, sans aucun apprentissage supervisé, produisaient un modèle performant sur de nombreux critères de raisonnement. Comme l’expliquent les chercheurs de DeekSeek , ce résultat « souligne la puissance et la beauté de l’apprentissage par renforcement : plutôt que d’enseigner explicitement au modèle comment résoudre un problème, nous lui fournissons simplement les incitations appropriées, et il développe de manière autonome des stratégies avancées de résolution de problèmes. » L’accent mis sur l’apprentissage par renforcement plutôt que sur l’apprentissage supervisé a été l’un des facteurs qui ont permis à DeepSeek de créer un LRM dont la formation et l’utilisation sont bien moins coûteuses que celles des LRM équivalents créés par des entreprises américaines.

    Un débat important a eu lieu au sein de la communauté de l’IA pour savoir si les LRM « raisonnent véritablement » ou « imitent simplement » le type de raisonnement humain présent dans les données de pré-entraînement ou de post-entraînement. Un blog spécialisé a qualifié o1 de « premier exemple de modèle doté de véritables capacités de raisonnement général ». D’autres étaient plus sceptiques. La philosophe Shannon Valor a qualifié les processus de chaîne de pensée des LRM de « méta-mimétisme » ; autrement dit, ces systèmes génèrent des traces de raisonnement apparemment plausibles qui imitent les séquences de « pensée à voix haute » humaines sur lesquelles ils ont été entraînés, mais ne permettent pas nécessairement une résolution robuste et générale des problèmes.

    Bien sûr, la signification même de « raisonnement authentique » n’est pas claire. « Raisonnement » est un terme générique qui désigne de nombreux types de processus cognitifs de résolution de problèmes ; les humains utilisent une multitude de stratégies, notamment le recours à des étapes mémorisées, des heuristiques spécifiques (« règles empiriques »), des analogies avec des solutions passées et parfois même une véritable logique déductive.

    Dans les modèles LRM, le terme « raisonnement » semble être assimilé à la génération d’étapes en langage naturel apparemment plausibles pour résoudre un problème. La mesure dans laquelle cela offre des capacités de résolution de problèmes générales et interprétables reste une question ouverte. Les performances de ces modèles sur les tests de mathématiques, de sciences et de codage sont indéniablement impressionnantes. Cependant, leur robustesse globale reste largement à tester, notamment pour les tâches de raisonnement qui, contrairement à celles sur lesquelles les modèles ont été testés, n’ont pas de réponses claires ni d’étapes de résolution clairement définies, ce qui est le cas de nombreux problèmes du monde réel, voire de la plupart, sans parler de « l’amélioration du climat, l’établissement d’une colonie spatiale et la découverte de toute la physique », autant d’accomplissements que Sam Altman d’OpenAI attend de l’IA à l’avenir. Et bien que les chaînes de pensée des modèles LRM soient vantées pour leur « interprétabilité humaine », il reste à déterminer dans quelle mesure ces « pensées » en langage naturel générées représentent fidèlement ce qui se passe réellement au sein du réseau neuronal lors de la résolution d’un problème. De nombreuses études (menées avant l’avènement des LRM) ont montré que lorsque les LLM génèrent des explications pour leur raisonnement, les explications ne sont pas toujours fidèles à ce que fait réellement le modèle.

    De plus, le langage anthropomorphique utilisé dans ces modèles peut induire les utilisateurs en erreur et les amener à leur accorder une confiance excessive. Les étapes de résolution de problèmes générées par les LRM sont souvent appelées « pensées » ; les modèles eux-mêmes nous indiquent qu’ils « réfléchissent » ; certains modèles entremêlent même les étapes de raisonnement avec des mots comme « Hmm », « Ah ! » ou « Attendez ! » pour les rendre plus humaines. Selon un porte-parole d’OpenAI, « les utilisateurs nous ont indiqué que comprendre comment le modèle raisonne à travers une réponse permet non seulement de prendre des décisions plus éclairées, mais aussi de renforcer la confiance dans ses réponses. » Mais la question est de savoir si les utilisateurs construisent la confiance principalement sur la base de ces touches humaines, alors que le modèle sous-jacent est loin d’être fiable.

    Des recherches supplémentaires sont nécessaires pour répondre à ces questions importantes de robustesse, de fiabilité et d’interprétabilité des LRM. De telles recherches sont difficiles à mener sur des modèles tels que ceux d’OpenAI, de Google et d’Anthropic, car ces entreprises ne publient pas leurs modèles ni de nombreux détails sur leur fonctionnement. Il est encourageant de constater que DeepSeek a publié les pondérations du modèle R1, un rapport détaillé sur son apprentissage et a permis au système de montrer pleinement ses chaînes de pensée, ce qui facilitera la recherche sur ses capacités. Espérons que cela incitera d’autres entreprises d’IA à faire preuve d’une transparence similaire quant à leurs créations.

    Source: https://www.science.org/doi/10.1126/science.adw5211

  • Dans la jungle du home-cinéma

    35
    10 Votes
    35 Messages
    2k Vues

    Petit ajout dans le guide pour le nouveau format sonore IAMF, voir aussi ici et ici:

    IAMF (pour Immersive Audio Model and Formats)

    d6d27b04-2ac3-46a8-bc50-e795a1dcdfec-image.png

    Les trois caractéristiques de la technologie IAMF : audio vertical, audio basé sur l’IA et audio personnalisé

    La technologie IAMF offre trois fonctionnalités distinctes qui améliorent l’expérience audio. (dixit Samsung, je ne l’ai pas encore entendu).

    Capacité à exprimer le son verticalement

    Les anciens codecs audio open source ne prenaient en charge que l’expression sonore horizontale. Grâce à la technologie IAMF, l’audio peut désormais être exprimé verticalement, ce qui rend le son de plus en plus multidirectionnel. « L’IAMF rend le son plus réaliste, en permettant aux auditeurs d’entendre le son devant, derrière ou de chaque côté, mais aussi au-dessus ou en dessous », explique Nam. « Ainsi, lorsque la technologie IAMF est appliquée aux enceintes et barres de son de votre téléviseur, les auditeurs peuvent entendre des sons tels que des oiseaux volant au-dessus de leur tête sur leur téléviseur. »

    Analyse de scène basée sur l’IA et effets audio 3D

    L’IAMF utilise l’IA et l’apprentissage profond pour analyser les scènes et mettre en valeur certains aspects du contenu, en ajustant les niveaux audio pour un son plus riche tout au long de l’expérience. « À la télévision et au cinéma, certaines scènes sont principalement axées sur la bande-son ou la musique de fond », explique Nam. « L’IAMF équilibre alors le son. De même, la technologie ajuste le son avec précision lors des dialogues entre personnages afin de permettre à l’auditeur de se concentrer sur la conversation. »

    De plus, la technologie IAMF offre un son optimal malgré les variations de l’environnement de l’appareil. « En ajustant les données audio d’analyse de la scène en fonction de l’environnement de l’appareil, la technologie IAMF permet aux auditeurs de profiter de la qualité sonore originale du contenu sur des téléviseurs domestiques standard », a ajouté Hwang.

    Audio hautement personnalisé

    Grâce à la technologie IAMF, les utilisateurs pourront ajuster librement le son selon leurs préférences. Que les spectateurs souhaitent amplifier les effets sonores d’une scène d’action ou enrichir les dialogues, IAMF leur offre la possibilité de personnaliser le son du contenu pour une expérience plus personnalisée.

    e36c7968-72a4-4bff-8f2c-2f52114e1481-image.png
    L’IAMF analyse les données du contenu et permet aux spectateurs d’ajuster et de personnaliser les paramètres audio. Lors d’un match sportif, les utilisateurs peuvent choisir directement de mettre en valeur la voix du commentateur ou les sons du match lui-même.

    L’audio 3D dans toute l’industrie grâce à l’IAMF open source (comme le HDR libre de droits)

    L’open source est essentiel à la création d’une norme unifiée pour l’ensemble du secteur. IAMF est la première norme technologique audio open source adoptée par AOM, ce qui signifie que les créateurs de contenu, qu’ils soient professionnels ou indépendants, peuvent accéder à cette technologie et en étendre l’utilisation.

    « Pour permettre à chacun de créer librement du contenu grâce à la technologie audio 3D, il est nécessaire que les technologies associées soient accessibles à tous », a déclaré Nam. « Fournir un cadre open source complet pour l’audio 3D, de la création à la diffusion et à la lecture, permettra des expériences audio encore plus diversifiées à l’avenir. »

    De même, Park a souligné l’impact considérable que la technologie IAMF aura sur le paysage audio à l’avenir. « Parce que nous vivons à une époque dominée par la création de contenu, l’IAMF contribuera à orienter, développer et transformer l’écosystème audio 3D », a-t-il déclaré.

    Le succès obtenu grâce à la coopération

    Les recherches sur l’IAMF ont débuté en 2020 et ont duré près de quatre ans. Grâce à la persévérance et au travail acharné de l’équipe, celle-ci a pu atteindre son objectif.

    « Le projet a nécessité de nombreuses journées de travail non-stop, et il nous a parfois fallu travailler de nuit en raison du décalage horaire entre nos bureaux et ceux de Google », a déclaré Hwang.

    Source: https://news.samsung.com/my/interview-movie-quality-audio-from-the-comfort-of-your-home-meet-the-leaders-of-next-generation-3d-audio-technology

    Voir aussi: https://aomediacodec.github.io/iamf/v1.1.0.html

  • 3 Votes
    3 Messages
    45 Vues

    @Aurel tout s’explique! :ahah:

  • Série documentaire Cultures Animales sur ARTE

    1
    1 Votes
    1 Messages
    21 Vues

    le film “Partager des traditions” est disponible dès aujourd’hui sur la plateforme web d’ARTE pour un mois, avant une diffusion prochaine à la télévision.

    Lien vers la playlist de la série :

    https://www.arte.tv/fr/videos/RC-026462/cultures-animales/

    Cet épisode de 52 minutes vous emmènera au cœur des traditions animales, en mettant notamment en lumière nos recherches sur les macaques japonais, financées par l’Université de Strasbourg, le CNRS, et l’Institut universitaire de France (IUF). Vous découvrirez comment ces primates apprennent, transmettent et adaptent leurs comportements culturels au fil du temps.

    Pour aller plus loin :
    - Les péripéties d’un primatologue aux Éditions Odile Jacob
    - Le Dernier Gorille chez Tana Éditions

  • 1 Votes
    1 Messages
    22 Vues

    66e850ca-036e-4ba8-be24-f577dc1c3124-image.png

    Le télescope spatial Gaia de l’Agence spatiale européenne a terminé sa mission de cartographie de la Voie lactée jeudi avec une commande l’envoyant vers une “orbite de retraite”, selon un communiqué de l’ESA. L’exploitation de ses données se poursuivra jusqu’en 2030.

    Gaia a révolutionné notre connaissance de la Voie lactée. Lancé le 19 décembre 2013 par l’Agence spatiale européenne (ESA), le satellite a dressé ses observations depuis une orbite stable à 1,5 million de kilomètres de la Terre, le point de Lagrange L2.

    Afin d’éviter qu’une fois inactif il ne menace d’autres instruments travaillant à cet endroit, comme les télescopes spatiaux James Webb ou Euclid, l’ESA a lancé jeudi les dernières commandes à Gaia (lire encadré).

    Avec une impulsion, ses moteurs vont l’amener sur une “orbite de retraite” autour du Soleil, avec la garantie qu’il restera à au moins dix millions de kilomètres de la Terre pour les cent ans à venir.

    Un catalogue des objets de la Voie lactée

    En onze ans, la machine a dressé une véritable carte de la galaxie et permis de mieux comprendre son origine, son évolution et sa forme actuelle. Grâce notamment à un catalogue d’actuellement plus de 1,8 milliard d’étoiles dont la position, les caractéristiques et le mouvement dévoilent son histoire.

    Source et plus: https://www.rts.ch/info/sciences-tech/2025/article/gaia-le-telescope-qui-a-revolutionne-notre-vision-de-la-voie-lactee-28835864.html

  • 2 Votes
    2 Messages
    58 Vues

    Merci pour le partage de ce genre d’infos…