Actualités High-Tech

2.2k Sujets 10.7k Messages
  • 1 Votes
    12 Messages
    905 Vues

    C’est important de rendre accessibles les moyens de s’émanciper intellectuellement et techniquement…même si certains rament a s’en emparer…
    D’ailleurs moi-même je ne comprends rien très régulièrement 😁…alors j’apprends…tout du moins j’essaie.
    Ce genre d’initiative me parait être de l’ordre de l’intérêt public. Moins le web est soumis à la centralisation des données, à la Silicon valley et consorts, mieux il se portera…je dirais même mieux le monde se portera a mon humble avis…
    Disons qu’on a la demonstration ces derniers temps, que quand tu laisses les manettes à des gens aux intentions discutables, l’équilibre mondial est mis à rude épreuve.
    Du coup plus de manettes…plus de maitre, ni de dieu…😂

  • 2 Votes
    19 Messages
    206 Vues

    Avis personnel, je n’y crois pas moi aussi (on a déjà vu cela avec le marché des consoles portables et des tablettes…depuis plus rien de leur part)
    Maintenant si shield 2 il y’aurait, ça serait l’équivalent d’une switch 2 pour ce qui est du hardware et pour cela, il faudrait attendre un chouïa pour que le prix ne dépasse pas les 200 balles (enfin je dis ça comme ça 😁).

  • 1 Votes
    1 Messages
    25 Vues

    ChatGPT Santé a été annoncé il y a deux semaines et ce n’est pas le projet qui lance l’utilisation des LLM en santé. Mais une recherche récente sur les réponses des modèles de langage concernant des questions sur la santé montre qu’ils peuvent générer des conseils problématiques, notamment en faisant des erreurs par omission.

    Avec le lancement de ChatGPT Santé, la santé voit l’IA générative et l’utilisation des modèles de langage dans son champ promues largement dans les mains du grand public. Pourtant, des chercheurs montrent que les réponses de chatbots peuvent être très problématiques.

    Nous sommes à « un moment où les puissants modèles d’apprentissage automatique (LLM) sont intégrés dans les soins aux patients plus rapidement que leurs risques ne peuvent être compris », affirme David Wu de l’école de médecine de Harvard, Ethan Goh de l’école de médecine de Stanford et leurs collègues. Ils ont récemment mis en ligne une étude (sur la plateforme de prépublication arXiv) qui teste 31 modèles et constate le risque de préjudice grave lié aux recommandations données par ces 31 LLM.

    D’abord, ne pas faire de mal

    « Primum non nocere [d’abord, ne pas faire de mal en français ou, first do no harm en anglais] est un principe fondamental de la médecine depuis des milliers d’années », rappellent-ils dans leur article. C’est inspiré de ce principe qu’ils proposent leur benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine) qui s’appuie sur 100 cas réels de consultations entre médecins généralistes et spécialistes pour mesurer la fréquence et la gravité des préjudices causés par les recommandations médicales générées par les LLM.

    Ici, l’idée est donc de s’intéresser aux outils d’IA générative utilisés par des médecins pour les assister et de vérifier que les réponses ne poussent pas à l’erreur : « Il n’est pas encore clair si l’acquisition de connaissances [dans les LLM] constitue un indicateur d’une prise en charge clinique sûre et efficace », expliquent-ils.

    Leur benchmark mesure que Gemini 2.5 Flash et Pro, LiSA 1.0, Claude Sonnet 4.5 et DeepSeek R1 font le moins d’erreurs graves (entre 11,8 et 14,6 en moyenne. sur environ 500 questions) alors que o4 mini et GPT-4o en font beaucoup plus (entre 39,9 et 40,1). On peut aussi retrouver les données de leur benchmark ici.

    Ils analysent leurs résultats en expliquant que « les LLM commettent des erreurs préjudiciables à des taux non négligeables, et les indicateurs courants d’évaluation des modèles (par exemple, leur nouveauté, la taille en fonction des paramètres, les modes de raisonnement et les performances sur les benchmarks d’intelligence artificielle générale) ne permettent pas de prédire de manière fiable ces performances ».

    […]

    Suite de l’article réservé aux abonnés : next.ink

  • 3 Votes
    4 Messages
    76 Vues

    C’est tellement juridique francais, ça veut tout dire et rien. Individuellement je comprends chaque mot, mais mis ensemble c’est du gloubiboulga :smile:

  • 2 Votes
    1 Messages
    42 Vues

    Au lendemain de la catégorisation des centres de données en projet d’intérêt national majeur par la commission mixte paritaire sur le projet de loi sur la simplification de la vie économique, le député Nicolas Bonnet et l’association Data for Good organisaient un colloque sur les enjeux politiques et stratégiques de l’IA à l’Assemblée nationale. Next y était.

    Mise à jour du 23 janvier à 15 h : remplacement de la mention de l’étude de l’ADEME sur la consommation des data centers par le projet de recherche IT4Green.

    « En France, un data center moyen, c’est 7,5 mégawatts ». Benoît Petit est cofondateur de la société Hubblo, spécialisée dans la transformation socio-écologique du numérique, et ce mercredi après-midi, il dispense avec son collègue chercheur Gauthier Roussilhe une rapide formation sur les impacts environnementaux des centres de données à l’Assemblée nationale.

    « Un grand data center, ce qu’on appelle un hyperscaler, ça tourne autour de 100 à 200 MW ». S’il nous dit tout ça, explique-t-il en faisant une pause dans ses slides, c’est pour que nous comprenions l’ampleur d’un projet comme Campus IA, qui prévoit d’atteindre une puissance d’un gigawatt, soit 1 000 MW, présente des caractéristiques hors normes. Installé à Fouju, le projet est porté par l’Américain NVIDIA, le fonds émirati MGX, et les Français Mistral AI et Bpifrance. Quant à sa taille, « même pour le milieu des data centers, c’est une petite révolution. Cette tendance au gigantisme crée un phénomène de spéculation sur les terrains comme sur la réservation de puissance, le secteur lui-même est un peu déboussolé ».

    Organisée à l’instigation de l’ingénieur en informatique et député du Puy-de-Dôme Nicolas Bonnet (EELV) et de l’association Data for Good, qui œuvre à « mettre le numérique au service de l’intérêt général », la formation fait partie intégrante d’un colloque dédié à aider les parlementaires et le public à « comprendre les enjeux politiques et stratégiques de l’IA », à commencer par les questions d’impacts environnementaux et de souveraineté numérique.

    Vers des data centers « projet d’intérêt national majeur »

    Hasard du calendrier, la réunion se déroule au lendemain de l’étude du projet de loi sur la simplification de la vie économique. Le 20 janvier, les députés et sénateurs ont adopté en commission mixte paritaire un amendement de compromis sur l’article 15, qui propose de qualifier les centres de données de projets d’intérêt national majeur (PINM) — un projet la fédération sectorielle France Data Center attendait « de pied ferme », selon son directeur général Michaël Reffay. Si la commission spéciale de l’Assemblée nationale y avait ajouté la condition de limiter cette possibilité aux entreprises de pays assurant le même niveau de protection des données que ceux de l’Union européenne, cet amendement a été supprimé.

    En pratique, donc, et alors que les États-Unis sont déjà très présents dans la filière française du data centers – via des acteurs de la colocation, comme Equinix ou Digital Realty, ou grands noms plus connus du grand public, comme Amazon ou Microsoft –, n’importe quel opérateur de data center, quelle que soit sa nationalité, pourra profiter de ce statut pour s’installer sur le territoire national avec les conditions favorables qu’offre le statut de PINM.

    Cette version du texte doit encore être votée à l’Assemblée nationale, le 27 janvier, puis au Sénat. Mais elle occupe les esprits dans la mesure où Nicolas Bonnet, en introduction de la réunion, a expliqué s’être interrogé sur les critères « flous » avancés dès la présentation du projet de loi. Tel qu’il était écrit, le texte « laissait entendre que le big is beautiful. Or la taille ne détermine absolument pas la capacité des centres données ».

    Autres enjeux qui interpellent le député et son camp politique : les idées selon lesquelles la multiplication de centres de données améliorent « la transition numérique, qui est elle-même une notion floue, la transition écologique, alors que tout cela repose tout de même sur du matériel, ou encore la souveraineté numérique ». Et de critiquer la position gouvernementale, selon laquelle l’idée serait « d’avoir des GAFAM européens », un positionnement qu’il qualifie de « peu crédible ».

    Politiser la multiplication des data centers

    « Vu la concentration et le fléchage des capitaux, de toutes manières, on n’y arrivera pas. » Pour Ophélie Coelho, autrice de Géopolitique du numérique, l’impérialisme à pas de géants (L’Atelier, 2023), c’est simple : l’idée de GAFAM européens ferait mieux d’être tout de suite abandonnée.

    […]

    Suite de l’article réservée aux abonnés : next.ink

  • 3 Votes
    2 Messages
    62 Vues

    Lorsqu’un grand modèle de langage comme GPT-5.2 cite du contenu d’une autre plateforme d’IA, un effet de rétroaction se produit : «Garbage in, Garbage out». Les erreurs ou les fausses représentations peuvent se renforcer mutuellement, gagner en crédibilité et se glisser presque à l’insu de tous dans les réponses d’autres systèmes d’IA.

    https://www.digitec.ch/fr/page/enquete-du-guardian-gpt-52-utilise-grokipedia-comme-source-41313

    Le danger supérieur : le LLM Grooming

    Au-delà de ce mécanisme technique, le Guardian pointe toutefois un risque encore plus important : le phénomène du «LLM Grooming». Ce terme désigne l’injection ciblée de tels contenus dans le paysage de l’information publique, avec l’intention d’influencer à long terme la base de connaissances des modèles linguistiques.

    A la différence de la rétroaction involontaire, il s’agit ici d’une intention stratégique : en atterrissant systématiquement sur le Web, le matériel généré par l’IA peut apparaître plus tard dans les résultats de recherche ou les encyclopédies et être considéré comme une source légitime par des modèles comme GPT-5.2. L’écosystème de l’information se déplace ainsi progressivement des faits vérifiés par l’homme vers des contenus synthétiques générés par l’IA et repris par d’autres IA. C’est précisément ce mécanisme que le Guardian met en évidence dans le cas de Grokipedia.

  • 2 Votes
    1 Messages
    31 Vues

    Les plaignants ont qualifié le réseau de caméras Flock de Norfolk de « filet de pêche ».

    50adfb34-5e5c-41e7-984b-ef8a58eea3d7-image.png

    Les caméras Flock ne se contentent plus de capturer un simple numéro de plaque d’immatriculation, comme le faisait cette technologie il y a dix ans, mais peuvent désormais facilement enregistrer la marque, le modèle et d’autres détails visuels de chaque voiture ; ces informations peuvent être recherchées à l’aide de requêtes en langage naturel alimentées par l’IA, qui peuvent inclure des expressions telles que « porte-vélos » ou « dépanneuse ».

    Un juge fédéral de Virginie a jugé constitutionnelle l’utilisation par la ville de Norfolk d’environ 200 caméras de lecture automatisée de plaques d’immatriculation (LAPI) fournies par Flock Safety, rejetant une plainte déposée par deux habitants qui dénonçaient une surveillance de masse. Le juge a estimé que le système ne permettait pas de suivre l’ensemble des déplacements d’une personne et ne violait donc pas, à ce stade, le droit à la vie privée.

    La décision s’appuie notamment sur une jurisprudence de la Cour suprême de 1983 selon laquelle il n’existe pas d’attente raisonnable de vie privée sur la voie publique. Le juge a toutefois reconnu que l’usage de ces technologies pourrait devenir excessivement intrusif à l’avenir.

    Flock Safety s’est félicitée du jugement. Malgré cela, la technologie suscite de fortes inquiétudes : certaines villes ont rompu leurs contrats, des sénateurs alertent sur les risques pour la vie privée, et des juristes estiment que ces systèmes constituent une forme de surveillance généralisée potentiellement dangereuse, notamment près de lieux sensibles.

    Source: https://arstechnica.com/tech-policy/2026/01/angry-norfolk-residents-lose-lawsuit-to-stop-flock-license-plate-scanners/

  • Nouveau téléviseur

    6
    0 Votes
    6 Messages
    111 Vues

    @ichbinrodolphe Une image peut rester gravée, incrustée ou marquée sur ton écran et faire apparaître des tâches résiduelles claires ou foncées. Tu peux même voir comme imprimé sur ton panneau OLED un spot sombre, des stries, des ombres ou une image fantôme.

    Les solutions pour éviter ce phénomène :

    Ne pas mettre l’appareil exposé au soleil, le rayonnement peut laisser un marquage indélébile comme une trace plus claire ou plus foncée sur l’écran à cause des UV, Les écrans à technologie OLED y sont sensibles. Eviter d’afficher trop longtemps des images fixes, logo ou jeux. Procéder à la “compensation” après utilisation. Ce nettoyage consiste à retirer toute la rémanence de l’écran (les images incrustées) après une utilisation supérieure à 4 heures par une simple mise en veille pendant 30 minutes sans débrancher la prise secteur.

    Avec les années les constructeurs ont amélioré la fiabilité des TV à ce niveau mais n’ont cependant pas éliminé complètement le problème et perso je n’achèterais pas de OLED tant qu’il existera ce risque.

    478c9612-44de-41d8-be93-0c787a893960-Live Long & Prosper.jpg

    .

  • 2 Votes
    9 Messages
    355 Vues
    Rachat de SFR : les discussions continuent, avec des audits « depuis début janvier 2026 »

    En l’espace de quelques minutes, Bouygues Telecom, Orange et Free (iliad) ont envoyé par e-mail un communiqué de presse commun (.pdf) : « Le consortium composé des trois opérateurs Bouygues Telecom, Free-Groupe iliad et Orange, confirme l’existence de discussions avec le Groupe Altice en vue de l’acquisition potentielle d’une grande partie des activités de télécommunications du groupe Altice en France ».

    Ce n’est pas un scoop, loin de là. Mi-octobre, les trois concurrents annonçaient officiellement le dépôt d’une offre de rachat pour SFR, en traçant les grandes lignes du partage. Sitôt déposée, sitôt refusée par Altice. Selon BFM Business, Bouygues Telecom, Free et Orange envisageraient de réhausser leur offre à 20 milliards d’euros (soit trois milliards de plus). La partie de poker menteur continue donc et pourrait encore durer longtemps.

    Le communiqué du jour n’indique rien de neuf, si ce n’est que « des travaux de due diligence ont été engagés depuis début janvier 2026 », c’est-à-dire des audits pour sonder plus en profondeur la santé économique de SFR. C’est tout de même un signe que le dossier avance, doucement. Quoi qu’il en soit, « les conditions juridiques et financières de la transaction ne font l’objet d’aucun accord à date », précisent les trois compères.

    Ils ajoutent qu’il « n’y a aucune certitude que ce processus aboutisse à un accord qui devra en toute hypothèse être soumis à l’approbation des organes de gouvernance des sociétés concernées et restera sous réserve des conditions usuelles en la matière ». L’Autorité de la concurrence aura du pain sur la planche si un accord devait être trouvé.

    Son président, Benoît Cœuré, avait ouvert la porte pour un retour à trois opérateurs : « Si cette opération devait être notifiée, nous la regarderions sans camper sur nos positions d’il y a neuf ans ». L’Autorité nous indiquait par contre en octobre qu’aucun projet ne lui avait été notifié ; c’est le point de départ de l’instruction.

    Source : next.ink

  • 2 Votes
    1 Messages
    40 Vues

    En bref:
    (Résumé généré automatiquement par IA)

    – VoidLink est un nouveau framework de malware Linux découvert par Check Point Research, conçu spécifiquement pour infiltrer de façon furtive les environnements cloud et conteneurs (AWS, Azure, Google Cloud, Kubernetes…).

    – Il dispose d’une architecture modulaire avec plus de 30 plugins, permettant aux attaquants d’adapter ses capacités (furtivité, mouvement latéral, collecte d’identifiants) selon l’environnement ciblé.

    – Sa communication chiffrée et son intégration profonde dans le système le rendent très difficile à détecter, ce qui pose une nouvelle menace aux infrastructures cloud basées sur Linux.

    Check Point Research révèle l’existence de VoidLink, un cadre malveillant Linux de nouvelle génération, conçu pour infiltrer des environnements cloud et des infrastructures conteneurisées. Développé en Zig et doté de capacités noyau, de greffons et de communications chiffrées, il vise l’accès furtif et durable aux charges de travail critiques hébergées sur AWS, Azure, Google Cloud, Alibaba Cloud et Tencent Cloud.

    Les plates-formes Linux et les architectures Kubernetes concentrent désormais les données applicatives, les secrets d’authentification et les accès aux chaînes d’approvisionnement logicielles. Cette concentration technique transforme chaque nœud de calcul et chaque poste d’ingénierie en point d’entrée convoité pour des acteurs capables d’opérer dans la durée sans perturber les environnements de production.

    VoidLink repose sur une architecture complète de commande et de contrôle composée d’un chargeur en deux étapes, d’un implant principal et d’un serveur central piloté par une console Web. L’implant, écrit en Zig, intègre un cœur de communication et d’orchestration auquel viennent se greffer des modules chargés en mémoire à la demande. L’opérateur peut générer de nouvelles charges utiles depuis l’interface graphique, ajuster les paramètres de communication et déployer des greffons ciblés sur chaque machine compromise. L’ensemble constitue une plate-forme opérationnelle unifiée, comparable aux cadres de post-exploitation du monde Windows, mais entièrement adaptée à Linux et aux environnements cloud.

    Il détecte les grands fournisseurs de cloud et Kubernetes

    La console regroupe les fonctions de gestion des implants, de terminal distant, de génération de charges et d’administration des modules. Elle organise les opérations en domaines comme la reconnaissance, la persistance, la collecte d’identifiants, le déplacement latéral et l’effacement de traces, ce qui permet une conduite industrialisée des opérations malveillantes sur des parcs de serveurs et de conteneurs.

    Dès son déploiement, VoidLink interroge l’environnement hôte pour identifier le fournisseur de cloud sous-jacent, avec une prise en charge native de AWS, Google Cloud, Azure, Alibaba Cloud et Tencent Cloud. Il exploite ensuite les interfaces de métadonnées propres à chaque plate-forme pour collecter des informations sur l’instance compromise, ses rôles et ses autorisations. Le même mécanisme permet de déterminer si le code s’exécute dans un conteneur Docker ou dans un pod Kubernetes, afin d’adapter les stratégies d’escalade et de propagation.

    Des modules spécialisés automatisent la recherche de failles de configuration, l’extraction de secrets et les tentatives de sortie de conteneur vers l’hôte sous-jacent. Cette logique transforme une simple compromission applicative en accès potentiel à l’ensemble d’un cluster ou d’un compte cloud.

    Une furtivité pilotée par la détection des outils de sécurité

    VoidLink intègre un moteur d’évaluation du risque qui inventorie les solutions de détection Linux, les mécanismes de durcissement du noyau et les outils de supervision présents sur la machine. À partir de ces éléments, l’implant calcule un profil d’exposition et ajuste le comportement de ses modules, par exemple en ralentissant un balayage de ports ou en fragmentant une exfiltration lorsque la surveillance est élevée. Cette adaptation automatique constitue un élément central de sa stratégie de discrétion.

    Le dispositif est complété par des techniques de chiffrement du code à l’exécution, par des vérifications d’intégrité et par une autodestruction en cas de tentative d’analyse ou de modification. Ces mécanismes visent à réduire la visibilité du code en mémoire et à compliquer toute investigation.

    Des modules noyau et eBPF pour masquer l’activité du maliciel

    Pour se dissimuler, VoidLink s’appuie sur une famille de composants de type rootkit adaptés aux différentes versions du noyau Linux. Selon la configuration de l’hôte, il peut utiliser des détournements du chargeur dynamique via LD_PRELOAD, des modules noyau LKM ou des programmes eBPF pour intercepter et filtrer les appels sensibles. Ces techniques permettent de cacher les processus, les fichiers et les sockets réseau liés à l’implant, tout en masquant les composants de dissimulation eux-mêmes.

    L’implant ajuste également ses intervalles de communication en fonction de l’activité du système, en tenant compte de la charge, du trafic réseau et des périodes de faible usage, afin de se fondre dans le bruit normal de la plate-forme.

    La collecte de secrets vise les ingénieurs cloud

    Les greffons fournis par défaut couvrent la collecte de clés SSH, d’identifiants Git, de jetons d’interface de programmation applicative, de mots de passe stockés en mémoire et de secrets présents dans les variables d’environnement ou les trousseaux système. Des modules dédiés aux navigateurs extraient également des cookies et des informations d’authentification. Cette orientation montre un intérêt marqué pour les postes de développeurs et d’administrateurs qui pilotent les déploiements cloud.

    En parallèle, des fonctions de tunnel, de transfert de fichiers, de ver SSH et de persistance via cron, systemd ou le chargeur dynamique facilitent la propagation contrôlée et l’ancrage à long terme dans les environnements compromis.

    L’émergence d’un cadre aussi complet que VoidLink confirme que les infrastructures Linux, les grappes Kubernetes et les comptes cloud sont désormais des cibles de choix pour des opérations d’espionnage et de compromission de chaînes d’approvisionnement. La combinaison entre reconnaissance automatisée, furtivité adaptative et modules noyau réduit fortement les fenêtres de détection et augmente les coûts de réponse à incident pour les organisations.

    – Source :

    https://itsocial.fr/cybersecurite/cybersecurite-actualites/voidlink-un-nouveau-maliciel-linux-cible-les-environnements-cloud-et-conteneurs/

  • 1 Votes
    21 Messages
    254 Vues

    Pourtant sur leur site, ils mentionnent tous les FAI et signalent que c’est à eux qu’on doit s’adresser, tous les logos avec liens des FAI sont présents. Ils déclarent entre autre qu’ils sont neutres et ouverts à tous les opérateurs. Xp Fibre ce n’est pas que SFR FTTH, c’est surtout qu’Altice est actionnaire.

  • 2 Votes
    1 Messages
    38 Vues

    La start-up grenobloise Diamfab investit 4 millions d’euros dans une ligne pilote à Grenoble (Isère). Un site unique en Europe, qui ouvre la voie à des composants électroniques plus performants.

    c59ca51d-e227-4ced-9e2e-a3ae52f57f5c-image.png
    La start-up Diamfab, basée près de Grenoble (Isère), incorpore des impuretés dans les diamants pour leur conférer des propriétés électriques et quantiques. Elle pense produire plusieurs dizaines de milliers de plaques de diamants semi-conducteurs à horizon 2028

    Des applications dans le médical comme dans les voitures

    Ce docteur en nanoélectronique a créé l’entreprise avec Khaled Driche puis Ivan Llaurado en 2019, par essaimage de l’institut Néel, un laboratoire grenoblois du CNRS.

    Leur idée : exploiter les propriétés du diamant comme substrat semi-conducteur à la place du silicium, afin de produire des wafers à haute valeur ajoutée. Et ainsi d’aboutir à des composants électroniques pouvant fonctionner à très haute température sans besoin de refroidissement, résister aux radiations ou attendre une très haute efficacité de conversion.

    Les débouchés potentiels recouvrent des secteurs variés : le médical, le nucléaire, le spatial ou les marchés représentant de grands volumes, tels les data centers ou les voitures électriques. «Sans oublier les applications dont on ne connaît pas encore l’existence, comme dans le quantique», précise M. Chicot.

    Un processus peu coûteux

    Le savoir-faire de Diamfab repose sur l’opération de synthèse et de «dopage» du diamant. «Comme dans le cyclisme, c’est ce qui améliore la performance», sourit Gauthier Chicot. Autrement dit, la jeune pousse iséroise donne des propriétés électriques et quantiques au diamant en lui incorporant volontairement des impuretés.

    Ce processus, qui nécessite de l’hydrogène, du méthane et de l’électricité, s’avère relativement peu coûteux, contrairement à ce que le mot diamant suggère. Un autre avantage de cette technologie en termes de souveraineté industrielle. «C’est un matériau que l’on peut produire en France ou en Europe de manière compétitive, sans problème de matière première ou de coût de la main-d’œuvre», assure M. Chicot.

    Une ligne de production pour 2030?

    Selon ses prévisions, ce site industriel modulaire sera en capacités de produire plusieurs dizaines de milliers de plaques de diamants semi-conducteurs à horizon 2028, avant d’envisager la construction d’une ligne de production dédiée après 2030.

    Avec ses 26 salariés, dont une vingtaine dédiée à la R&D, et ses nombreux partenaires industriels (Schneider Electric, STMicroelectronics, Soitec, Murata), Diamfab se doit d’aller vite pour garder son avance technologique, face à des initiatives similaires qui se développent actuellement au Japon ou aux États-Unis.

    La start-up américaine Diamond Foundry vient, par exemple, d’annoncer la création d’une usine à plus de deux milliards de dollars en Espagne. Sa particularité ? Elle compte parmi ses investisseurs… l’acteur Leonardo DiCaprio, qui a notamment joué dans «Blood Diamonds» !

    Source: https://www.usinenouvelle.com/electronique-informatique/semi-conducteurs/lancee-dans-une-course-de-vitesse-contre-ses-concurrents-etrangers-diamfab-inaugure-sa-premiere-ligne-pilote-de-diamants-semi-conducteurs-en-isere.TMEAYAPZLJEANECFWU2LS6VVEA.html

  • 1 Votes
    1 Messages
    41 Vues
  • 1 Votes
    6 Messages
    135 Vues

    @Raccoon
    Ca dépend. Dans mon boulot, le bluetooth 3st utilisé par certaines périphériques pour contrôler de l’éclairage public. Quand je fais des programmations dessus, tu peux t’associer à certains qui sont dans la rue perpendiculaire a plusieurs dizaine de mètre ( il doit y avoir un facteur hauteur, vitesse du vent, pente aussi 😀)

  • OpenAI va lancer la publicité sur ChatGPT

    1
    2 Votes
    1 Messages
    35 Vues

    OpenAI a annoncé le lancement de tests de publicités dans l’application ChatGPT auprès de certains utilisateurs américains, marquant un changement de position par rapport aux réticences exprimées auparavant par Sam Altman. Les publicités apparaîtront prochainement en bas des réponses pour les utilisateurs de la version gratuite et du nouvel abonnement ChatGPT Go à 8 $ par mois, désormais disponible dans plus de 170 pays. Les abonnements Plus, Pro, Business et Enterprise resteront sans publicité.

    Ces annonces, clairement identifiées et séparées des réponses, viseront des produits ou services pertinents (par exemple du tourisme). OpenAI affirme que les publicités n’influenceront pas les réponses du chatbot et que les conversations ne seront pas partagées avec les annonceurs, avec des restrictions supplémentaires pour les sujets sensibles et les mineurs.

    Cette initiative s’inscrit dans un contexte de fortes pressions financières : OpenAI ne prévoit pas la rentabilité avant 2030, fait face à des coûts très élevés et compte encore peu d’abonnés payants. Si la publicité est perçue par l’entreprise comme un moyen de diversifier ses revenus, certains observateurs restent sceptiques sur son efficacité réelle.

    Source: https://arstechnica.com/information-technology/2026/01/openai-to-test-ads-in-chatgpt-as-it-burns-through-billions/

    Fallait bien que ça arrive, heureusement USA first 🙂

  • Administrateurs Microsoft fuyez vite NTLM v1

    1
    0 Votes
    1 Messages
    42 Vues

    Mandiant a publié une table arc-en-ciel permettant de casser rapidement les mots de passe administrateur protégés par l’algorithme obsolète NTLMv1, afin de démontrer concrètement ses failles de sécurité et pousser les organisations à l’abandonner. Grâce à cette base de données, il est possible de récupérer des mots de passe Net-NTLMv1 en moins de 12 heures avec du matériel peu coûteux.

    Bien que ses vulnérabilités soient connues depuis des décennies, NTLMv1 reste largement utilisé, notamment dans des environnements critiques dépendant d’applications anciennes, où les migrations sont coûteuses ou risquées. Mandiant souligne que cette inertie expose les organisations au vol d’identifiants et à des escalades de privilèges rapides.

    L’initiative est saluée par les professionnels de la cybersécurité, qui y voient un moyen efficace de convaincre les décideurs d’investir dans la migration vers des protocoles plus sûrs, comme NTLMv2. Mandiant appelle à la désactivation immédiate de Net-NTLMv1 et fournit des ressources pour accompagner cette transition.

    Source: https://arstechnica.com/security/2026/01/mandiant-releases-rainbow-table-that-cracks-weak-admin-password-in-12-hours/

    Risques de mauvaises surprises en vue 🙂

  • 2 Votes
    2 Messages
    71 Vues

    L’inscription est contraignante, elle demande l’accès à une autentification biométrique, ça tombe bien j’ai un lecteur d’empreinte sur mon PC portable sous Windows, mais Confer ne prend pas encore en charge Windows Hello. Je me dis tant pis, mon iPhone a un lecteur d’empreinte, sauf que mon modèle a un écran 4.7", trop petit pour afficher les champs d’inscription tout en bas et impossible de dézoomer la page.
    Il faudrait soit que je change de smartphone pour un modèle plus grand, sauf que le mien marche encore très bien il n’est pas prévu que je le change (même si ce problème de taille d’écran est de plus en plus problématique) soit que j’achète une Ubikey, ce qui n’est pas non plus prévu.
    Donc je ne peux pas essayer ce que vaut ce LLM.

  • 1 Votes
    1 Messages
    30 Vues

    La Fondation Wikimedia a signé des accords d’accès API payants avec Microsoft, Meta, Amazon, Perplexity et Mistral AI, rejoignant Google et d’autres entreprises déjà partenaires. Ces accords permettent à ces géants de l’IA d’accéder à un flux de données Wikipédia plus rapide et volumineux via Wikimedia Enterprise, sa filiale commerciale, tout en laissant le contenu librement accessible sous licence Creative Commons.

    Ces partenariats visent à compenser les coûts d’infrastructure croissants, causés par l’extraction massive de données par des bots (65 % des requêtes coûteuses, mais seulement 35 % du trafic total). Le trafic humain a d’ailleurs baissé de 8 % en un an, car les utilisateurs sont souvent redirigés vers des résumés IA sans visiter Wikipédia, menaçant son modèle participatif (lecteurs → contributeurs → donateurs).

    Les contributeurs bénévoles s’opposent à l’usage de l’IA générative sur Wikipédia, ce qui a conduit à l’arrêt d’un pilote de résumés IA en juin 2025. Jimmy Wales, fondateur, soutient l’entraînement des IA sur les données de Wikipédia (« validées par des humains »), mais insiste sur le fait que les entreprises doivent payer leur « juste part » des coûts qu’elles imposent.

    À noter : ces accords ne concernent pas de licences sur le contenu (toujours gratuit), mais un accès API professionnel payant.

    Source: https://arstechnica.com/ai/2026/01/wikipedia-will-share-content-with-ai-firms-in-new-licensing-deals/

  • 0 Votes
    5 Messages
    89 Vues

    @eric_the_red ça sert à rien de poster partout si tu ne lis pas ce qui a été posté 😉

    l’appli déclenche un appel d’urgence après un temps prédéfini …