@duJambon on serait donc 4! 
Apple User
Ils pensent différemment… mais surtout plus cher. Ils traversent le forum avec élégance, laissant derrière eux une traînée de design épuré et de câbles propriétaires. Convaincus que l’univers est mieux en Retina Display.
Messages
-
-

ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.
Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.
Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.
D’abord, ne pas faire de mal
« Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.
Ici, l’idée est donc de s’intéresser aux outils d’IA générative utilisés par des médecins pour les assister et de vérifier que les réponses ne poussent pas à l’erreur : « Il n’est pas encore clair si l’acquisition de connaissances [dans les LLM] constitue un indicateur d’une prise en charge clinique sûre et efficace », expliquent-ils.
Leur benchmark mesure que Gemini 2.5 Flash et Pro, LiSA 1.0, Claude Sonnet 4.5 et DeepSeek R1 font le moins d’erreurs graves (entre 11,8 et 14,6 en moyenne. sur environ 500 questions) alors que o4 mini et GPT-4o en font beaucoup plus (entre 39,9 et 40,1). On peut aussi retrouver les données de leur benchmark ici.

Ils analysent leurs résultats en expliquant que « les LLM commettent des erreurs préjudiciables à des taux non négligeables, et les indicateurs courants d’évaluation des modèles (par exemple, leur nouveauté, la taille en fonction des paramètres, les modes de raisonnement et les performances sur les benchmarks d’intelligence artificielle générale) ne permettent pas de prédire de manière fiable ces performances ».
[…]
Suite de l’article réservé aux abonnés : next.ink
-
API Désactivée - update
1 février 2026
L’API a été désactivée suite a une création d’un IRC interdite et non souhaitée par le staff rendant tout le contenu disponible accessible sur le net ce qui nuit donc à la sécurité des membres.
Elle a donc été désactivée et ne reviendra pas dans l’immédiat sous sa forme que vous connaissez mais une version plus aboutie, avec l’upload et d’autres features.
Merci pour votre compréhension, je vais bosser pour rétablir la stack *Arr le plus rapidement possible. -

Au lendemain de la catégorisation des centres de données en projet d’intérêt national majeur par la commission mixte paritaire sur le projet de loi sur la simplification de la vie économique, le député Nicolas Bonnet et l’association Data for Good organisaient un colloque sur les enjeux politiques et stratégiques de l’IA à l’Assemblée nationale. Next y était.
Mise à jour du 23 janvier à 15 h : remplacement de la mention de l’étude de l’ADEME sur la consommation des data centers par le projet de recherche IT4Green.
« En France, un data center moyen, c’est 7,5 mégawatts ». Benoît Petit est cofondateur de la société Hubblo, spécialisée dans la transformation socio-écologique du numérique, et ce mercredi après-midi, il dispense avec son collègue chercheur Gauthier Roussilhe une rapide formation sur les impacts environnementaux des centres de données à l’Assemblée nationale.
« Un grand data center, ce qu’on appelle un hyperscaler, ça tourne autour de 100 à 200 MW ». S’il nous dit tout ça, explique-t-il en faisant une pause dans ses slides, c’est pour que nous comprenions l’ampleur d’un projet comme Campus IA, qui prévoit d’atteindre une puissance d’un gigawatt, soit 1 000 MW, présente des caractéristiques hors normes. Installé à Fouju, le projet est porté par l’Américain NVIDIA, le fonds émirati MGX, et les Français Mistral AI et Bpifrance. Quant à sa taille, « même pour le milieu des data centers, c’est une petite révolution. Cette tendance au gigantisme crée un phénomène de spéculation sur les terrains comme sur la réservation de puissance, le secteur lui-même est un peu déboussolé ».
Organisée à l’instigation de l’ingénieur en informatique et député du Puy-de-Dôme Nicolas Bonnet (EELV) et de l’association Data for Good, qui œuvre à « mettre le numérique au service de l’intérêt général », la formation fait partie intégrante d’un colloque dédié à aider les parlementaires et le public à « comprendre les enjeux politiques et stratégiques de l’IA », à commencer par les questions d’impacts environnementaux et de souveraineté numérique.
Vers des data centers « projet d’intérêt national majeur »
Hasard du calendrier, la réunion se déroule au lendemain de l’étude du projet de loi sur la simplification de la vie économique. Le 20 janvier, les députés et sénateurs ont adopté en commission mixte paritaire un amendement de compromis sur l’article 15, qui propose de qualifier les centres de données de projets d’intérêt national majeur (PINM) — un projet la fédération sectorielle France Data Center attendait « de pied ferme », selon son directeur général Michaël Reffay. Si la commission spéciale de l’Assemblée nationale y avait ajouté la condition de limiter cette possibilité aux entreprises de pays assurant le même niveau de protection des données que ceux de l’Union européenne, cet amendement a été supprimé.
En pratique, donc, et alors que les États-Unis sont déjà très présents dans la filière française du data centers – via des acteurs de la colocation, comme Equinix ou Digital Realty, ou grands noms plus connus du grand public, comme Amazon ou Microsoft –, n’importe quel opérateur de data center, quelle que soit sa nationalité, pourra profiter de ce statut pour s’installer sur le territoire national avec les conditions favorables qu’offre le statut de PINM.
Cette version du texte doit encore être votée à l’Assemblée nationale, le 27 janvier, puis au Sénat. Mais elle occupe les esprits dans la mesure où Nicolas Bonnet, en introduction de la réunion, a expliqué s’être interrogé sur les critères « flous » avancés dès la présentation du projet de loi. Tel qu’il était écrit, le texte « laissait entendre que le big is beautiful. Or la taille ne détermine absolument pas la capacité des centres données ».
Autres enjeux qui interpellent le député et son camp politique : les idées selon lesquelles la multiplication de centres de données améliorent « la transition numérique, qui est elle-même une notion floue, la transition écologique, alors que tout cela repose tout de même sur du matériel, ou encore la souveraineté numérique ». Et de critiquer la position gouvernementale, selon laquelle l’idée serait « d’avoir des GAFAM européens », un positionnement qu’il qualifie de « peu crédible ».
Politiser la multiplication des data centers
« Vu la concentration et le fléchage des capitaux, de toutes manières, on n’y arrivera pas. » Pour Ophélie Coelho, autrice de Géopolitique du numérique, l’impérialisme à pas de géants (L’Atelier, 2023), c’est simple : l’idée de GAFAM européens ferait mieux d’être tout de suite abandonnée.
[…]
Suite de l’article réservée aux abonnés : next.ink
-
@RICK “espace no cons” est-ce bien raisonnable et écologique, de faire rouler des trains à vide!

-
-
@Psyckofox adopté, on va les appeler comme ça.
Pour 2027 je propose Peter & Sloane.

-
Décès de l’humoriste et comédien genevois Alain Monney à l’âge de 74 ans
@patricelg je pensais pas qu’il avait franchit la frontière, tu l’avais vu à la TV?
-
-
@BahBwah Je n’ai jamais dit ni insinué que ses actions valaient la mort mais depuis le début on nous présente ce monsieur comme un gentil manifestant pacifique.
Il est bon de rétablir la vérité.
[Tendance No Kids] Exit les chiards hurlants…
En santé, les erreurs par omissions des LLM sont nombreuses et dangereuses
[Topic Unique] La cale
Data centers : à l’Assemblée nationale, des appels à questionner la course au gigantisme
Un peu d'humour en image
Un peu d'humour en image
Télé-cigognes - 2026
Nécro
Trump Make America Great Again, again
Trump Make America Great Again, again

