• 0 Votes
    11 Messages
    69 Vues

    @michmich a dit dans Expérimentation VSA : SNCF, RATP - vous serez surveillé et analysé par une IA tout le week-end :

    @Popaul Quand je dénonçait facebook et Google pour intrusion & voyeurisme il y a 10 ans on me riait au nez, certains on du penser à moi ces dernières années suite aux diverses révélations. :ahah:

    C’est toujours comme ça quand on a raison trop tôt…

  • 0 Votes
    12 Messages
    107 Vues
    Petite précision concernant l’emploi des robots

    Le géant allemand de l’automobile Mercedes-Benz a conclu un accord avec la start-up américaine Apptronik, le 15 mars, pour déployer des robots humanoïdes dans ses usines hongroises. Une manière pour le groupe de combler les postes sur les tâches répétitives, pour lesquels le recrutement est difficile.

    Source: https://www.usinenouvelle.com/article/faute-de-main-d-oeuvre-mercedes-benz-recrute-des-robots-humanoides.N2210460

  • 1 Votes
    1 Messages
    22 Vues

    Les failles de sécurité dans le code sont le cauchemar des développeurs et des équipes de sécurité et font surtout le régal des hackers. Alors pour y remédier, GitHub a décidé de sortir l’artillerie lourde avec Code Scanning Autofix ! Attention les yeux, cet outil mêle IA et analyse statique et nous fait la promesse de corriger les vulnérabilités en un clin d’œil pendant que vous codez.

    Concrètement, Code Scanning Autofix (actuellement en bêta publique) est activé par défaut sur tous les dépôts privés des clients GitHub Advanced Security. Et devinez quoi ? Il gère déjà plus de 90% des types d’alertes pour JavaScript, TypeScript, Java et Python. De quoi mettre une sacrée claque à la dette de sécurité applicative !

    En coulisse, cette magie opère grâce à deux technologies de pointe made in GitHub : Copilot pour l’IA et CodeQL pour l’analyse statique. Une fois Code Scanning Autofix activé, il vous propose des correctifs quasi tout cuits qui sont censés régler les deux tiers des vulnérabilités détectées, le tout sans trop d’efforts de votre part.

    Voici un exemple de correctif proposé :

    Pour chaque faille repérée dans un des langages pris en charge, vous obtenez une explication en langage naturel du correctif suggéré, avec un aperçu du bout de code à valider, modifier ou rejeter. Cela peut inclure des changements dans le fichier en cours, d’autres fichiers, voire des dépendances du projet. Bien entendu, vous gardez le contrôle et pouvez vérifier si le correctif résout bien le problème sans casser la fonctionnalité.

    L’intérêt est donc de décharger les experts en sécurité de la fastidieuse traque aux vulnérabilités introduites pendant le développement. Ils pourront alors se concentrer sur la sécurité globale de leur projet.

    GitHub promet d’étendre prochainement Code Scanning Autofix à d’autres langages, en commençant par C# et Go. Et pour en savoir plus, foncez sur la doc de GitHub !

    –Sources :

    https://korben.info/github-revolutionne-correction-vulnerabilites-code-scanning-autofix.html

    https://www.bleepingcomputer.com/news/security/githubs-new-ai-powered-tool-auto-fixes-vulnerabilities-in-your-code/

    https://docs.github.com/en/code-security/code-scanning/managing-code-scanning-alerts/about-autofix-for-codeql-code-scanning

  • 0 Votes
    12 Messages
    132 Vues

    @Psyckofox
    Mortalkombat Christopher GIF
    :lol:

  • 1 Votes
    6 Messages
    80 Vues

    @Violence Le soft, c’est juste le système prédictif, après pour le travail (autre qu’informatique, et même, il vaut mieux ne pas nourrir le modèle de code écrit avec les pieds), il vaut mieux avoir des données solides.

    J’ai trouvé des avis sur Llama 2:

    LLaMA 2 (pour Large Language Model with Attention 2) est un modèle d’IA génératif qui peut produire des textes en langage naturel en fonction d’une entrée ou d’une invite donnée. Il peut être utilisé pour diverses applications telles que les chatbots, la création de contenu, la synthèse, la traduction, etc. LLaMA 2 est la deuxième version du LLM de Meta, qui a été publié pour la première fois en février 2023. Selon Meta, LLaMA 2 a été formé sur 40 % de données en plus que LLaMA 1, qui comprend des informations provenant de « sources de données en ligne accessibles au public ». Il affirme également qu’il « surclasse » d’autres LLM comme Falcon et MPT en ce qui concerne les tests de raisonnement, de codage, de compétence et de connaissances.

    Et un truc qui pourrait beaucoup t’intéresser: LLaMa 2 est disponible dans le catalogue de modèles Azure AI, ce qui permet aux développeurs utilisant Microsoft Azure de construire avec lui et de tirer parti de leurs outils cloud-native pour le filtrage de contenu et les fonctions de sécurité. Il est également optimisé pour fonctionner localement sur Windows, offrant aux développeurs un flux de travail transparent lorsqu’ils proposent des expériences d’IA générative à leurs clients sur différentes plateformes. LLaMa 2 est disponible via Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs.

    Pour plus d’info, voir par exemple: https://intelligence-artificielle.developpez.com/actu/346730/Le-modele-LLamA-2-de-Meta-qui-vient-d-etre-publie-ne-serait-pas-open-source-de-l-avis-de-Alessio-Fanelli-Ingenieur-logiciel-associe-chez-Decibel/

    D’après d’autres sources, Wizard Coder Python 13B Q5 serait d’ailleurs extrait de Llama 2 (et tout ça extrait de ChatGPT 4), mais c’est pas vraiment aussi évident de s’y retrouver dans cette jungle.

    Je n’ai pas trouvé d’avis sur Trinity 1.2 7B Q4, un des deux modèles testé par Korben, si ce n’est sa description:

    Trinity is an experimental model merge using the Slerp method. Recommended for daily assistance purposes.

    Ça vaut peut-être aussi le coup de chercher ses limites.

    Il est fort possible que Jan propose à l’avenir des modèles encore plus spécialisés.

    Y’a aussi dans la liste: CodeNinja 7B Q4 4GB de ram

    CodeNinja is good for coding tasks and can handle various languages including Python, C, C++, Rust, Java, JavaScript, and more.

    Et ChatGPT4 en accès direct (données en ligne)

  • 2 Votes
    5 Messages
    67 Vues

    @michmich yaura peut être une petite partie mais pas la puce complete

  • 1 Votes
    2 Messages
    46 Vues

    Faire passer vos projets par une société n’est pas dénué de risque, vous êtes déjà copieusement espionnés par les gafa de toutes les manières possibles, alors que dire d’une I.A. google, par exemple.

    Le plus beau de la chose, c’est que pour faire de l’espionnage industriel, il n’y a même plus besoin de former des espions et de les infiltrer, c’est vous qui leur offrez votre travail et que par dessus le marché, vous les payez pour ça. :lol:

    Tant que l’I.A. n’est pas interne à une entreprise et soigneusement verrouillée, il vaut mieux s’en passer.

  • 1 Votes
    8 Messages
    99 Vues

    @mekas a dit dans IA : Le chatbot de DPD insulte un client à la suite d'une mise à jour :

    Pour l’instant égalité ! Mais on voit bien que ça peut dégénérer à tout instant ! lol

    Mais non… Il y en a qui me cherchent, c’est de bonne guerre…

  • 2 Votes
    5 Messages
    104 Vues

    Capture d’écran 2024-01-26 134247.png

    La Limite !!!

  • 0 Votes
    1 Messages
    24 Vues

    AIformé

    illustration d'une personne manipulée comme une marionnette par une IA

    Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.

    L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d’au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.

    À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.

    Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.

    | Intelligence artificielle, « fake news » et recommandations pour limiter les risques | ChatGPT, Bard et les autres, agents de désinformation massive ? | Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes | Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »

    L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.

    Interdiction de créer des applications de ChatGPT pour les campagnes politiques

    La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l’expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d’ingénieurs et de ses équipes politiques.

    En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.

    En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.

    Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l’eau. Parmi ces règles, elle empêche d’ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.

    Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.

    OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».

    Transparence sur les générations d’image et informations qualifiées sur les élections

    Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».

    L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.

    Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».

    | Les moteurs de recherche accentuent la désinformation Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique

    À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.

    Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).

    Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».

    Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.

    | Désinformation : de l’IA pour faire croire à une attaque du Pentagone
  • 2 Votes
    1 Messages
    31 Vues

    Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).

    Source : [next.ink](Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).)

  • 2 Votes
    5 Messages
    115 Vues

    10k par semaines, y’a de quoi vouloir se lancer

  • 2 Votes
    4 Messages
    81 Vues

    et que faire s’il prend l’envie à l’IA de faire une blague ? je me suis toujours posé cette question, car à force de vouloir humaniser les machines ce cas de figure deviendra plausible…
    Remarquez, ça peut être cool on aura enfin de vrais humoristes ^^

  • 3 Votes
    16 Messages
    225 Vues

    @Indigostar a dit dans Quand Midjourney n'arrive pas à représenter un médecin noir soignant des enfants blancs :

    ils saupoudrent le tout de greenwashing…

    C’est clair genre c’est super cool, c’est RGPD data en Suisse tout ça mais en plus, tt est hébergé sur des serveurs alimentés par de l’énergie renouvelable donc tt va bien 😆

    J’ai quand même hâte que tt cela soit réglementé un minimum… En général, on se réveille mais au dernier moment mais on se réveille 🙂

  • 2 Votes
    9 Messages
    161 Vues

    @Violence tu sais quoi, j’avais un doute avant même de citer Westworld (qui dépote quand même) ^^, je me suis dit " Ça doit être Mrs Davis mais bon étant donné que même Westworld est une pépite, je tente ma chance" 😂 .

  • 4 Votes
    2 Messages
    75 Vues

    je pense comme lui !

  • 1 Votes
    1 Messages
    35 Vues

    Des chercheurs et chercheuses de l’Université de Californie à Irvine ont montré que les humains étaient maintenant plus lents et moins efficaces que des bots pour résoudre des CAPTCHA.

    Les tâches de reconnaissance d’images réputées inaccessibles pour les machines deviennent maintenant plus simples pour elles que pour les humains. Des chercheurs de l’Université de Californie à Irvine (UC Irvine) ont en effet comparé les performances des humains avec celles des algorithmes de résolution de CAPTCHA et ont montré que la machine était, la plupart du temps, meilleure et plus rapide. Ils ont présenté leurs résultats à la conférence USENIX Security en ce mois d’août (PDF).

    Au départ, les CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) ont bien été inventés pour résoudre des problèmes de sécurité et éviter que des programmes malveillants se fassent passer pour des utilisateurs.

    « Un captcha est un programme qui peut générer et noter des tests que (A) la plupart des humains peuvent réussir, mais que (B) les programmes informatiques actuels ne passent pas », expliquaient les chercheurs Luis von Ahn, Manuel Blum, Nicholas J. Hopper, et John Langfor dans leur article fondateur (PDF) sur le sujet titré « CAPTCHA : utiliser des problèmes d’IA difficiles pour la sécurité ». Cette fonctionnalité a permis pendant des années de bloquer spams et aspirateurs de données à l’entrée de nombreux formulaires de sites web.

    De l’aide à la numérisation à l’apprentissage pour le Deep learning

    Mais en 2007, Luis von Ahn et Ben Maurer ont cofondé reCAPTCHA, une entreprise qui proposait d’utiliser les CAPTCHA pour faire faire des tâches de reconnaissances d’images que les systèmes de l’époque n’étaient pas capables d’effectuer. L’idée a d’abord été appliquée à la numérisation de livres pour Internet Archive.

    Le site avait scanné 20 000 livres, mais les logiciels d’OCR n’étaient pas capables de reconnaître tous les mots, notamment quand une page était en mauvais état. TechCrunch expliquait à l’époque qu’ « à l’instar d’une application Mechanical Turk, ReCaptcha fait appel à des humains pour traduire des images de mots scannés qu’un ordinateur ne pourrait pas comprendre ».

    Le système proposait deux mots distordus par un algorithme : un déjà reconnu par la machine et un autre qui ne l’était pas. Ainsi, les mots illisibles automatiquement pouvaient petit à petit être numérisés. Luis von Ahn et Ben Maurer estimaient à 60 millions le nombre de CAPTCHA résolus chaque jour et Techcrunch les ramenaient à plus de 160 000 heures humaines par jour (soit environ 19 ans).

    En 2009, Google a acheté reCaptcha y voyant une autre opportunité. Non seulement, reCaptcha permettait de remplacer la machine par des humains quand elle n’arrivait pas à décoder un mot dans un texte scanné, mais il permettait d’ « apprendre aux ordinateurs à lire », comme l’expliquait l’entreprise sur son blog au moment du rachat.

    Le principe a ensuite été élargi à la reconnaissance de formes dans des photos, comme des chats, des passages piétons ou des voitures, etc. La multinationale trouvait ici une véritable petite usine à étiqueter gratuitement des images et se concocter une bibliothèque d’entrainement pour ses algorithmes d’intelligence artificielle qu’elle était en train de développer.

    Des tests obsolètes

    Mais quatorze ans après cet achat, ce qui devait arriver est en train d’arriver. Les algorithmes d’intelligence artificielle de Google et de ses concurrents, entraînés grâce à ce genre de bibliothèques, deviennent de plus en plus efficaces et menacent la pertinence de la première fonctionnalité des CAPTCHA.

    La chercheuse Ai Enkoji et ses collègues de l’Université de Californie à Irvine ont travaillé avec Yoshimichi Nakatsuka de l’École polytechnique fédérale de Zurich et Andrew Paverd de Microsoft pour comparer les capacités des humains et celles des bots dans la résolution de CAPTCHA.

    Ils ont donc analysé les 200 sites les plus importants du web pour savoir combien d’entre eux utilisaient des CAPTCHA et quels types ils utilisaient, puis ont payé à la tâche (quelques dizaines de cents à quelques dollars) 1 400 personnes sur Amazon Mechanical Turk pour résoudre 10 types de CAPTCHA différents.

    Travail du clic et régulation de l’IA agitent la conférence FAccT

    Comparant dans le tableau ci-dessous les performances des participants à celles obtenues par des bots développés par d’autres chercheurs et spécifiques à chaque CAPTCHA, ils expliquent que « ces résultats suggèrent que les robots peuvent surpasser les humains, à la fois en termes de temps de résolution et de précision, pour tous ces types de CAPTCHA ».

    An Empirical Study & Evaluation of Modern CAPTCHAs
    Crédits : Ai Enkoji et al.

    On peut même voir que la version reCAPTCHA de Google qui demande de cliquer sur une case à côté de la phrase « Je ne suis pas un robot  » est réussie à 100 % par le bot avec une vitesse beaucoup plus rapide que les humains qui, eux, ne la réussissent pas tout le temps. Cette nouvelle version qui promettait de remplacer efficacement les classiques tâches de catégorisation d’image en analysant le comportement de l’utilisateur sur la page ne remplit pas le contrat.

    Internet Archive est maintenant une source des IA

    Les GAFAM ont massivement utilisé ces petits outils pour protéger les données des utilisateurs et récupérer des données d’entrainement. Depuis quelque temps, ils voient bien leur fragilité. L’année dernière, Apple mettait en place un système pour les utilisateurs de ses appareils permettant d’être authentifié automatiquement, sans passer par l’épreuve du CAPTCHA. Mais ce genre de systèmes suppose de se reposer sur du matériel identifié et peut poser des questions sur la protection des données privées.

    Les CAPTCHA ont par contre réussi à merveille ce qui n’était pas leur tâche originelle : l’entrainement des IA. Elles sont maintenant capables de les résoudre mais aussi, avec l’ajout d’entrainements par des « data workers » et sur les millions de livres d’Internet Archive qu’ils ont aidé à numériser, les IA génératives peuvent créer de nouveaux textes.

    Source : nextinpact.com

  • 1 Votes
    2 Messages
    59 Vues

    Les premières dérives… avant les méfaits.

  • 0 Votes
    3 Messages
    71 Vues

    Il ne faut pas laisser de côté se qu’on nomme élégamment “La fuite des cerveaux” Des personnes prometteuses dans des domaines très pointus mais qui n’ont aucun soutien de nos institutions ou si peu.
    Attirées par la reconnaissance de leurs compétences et les pont d’or qui leurs sont proposées partent à l’étranger.

  • 2 Votes
    1 Messages
    26 Vues

    Le GH200 est un nouveau processeur de Nvidia conçu pour doper les modèles d’intelligence artificielle. Avec ce lancement, la société veut consolider sa position dominante face à la concurrence de plus en plus vive dans le secteur du matériel IA : AMD, Google et Amazon veulent leur part de ce gâteau de plus en plus gros !

    Nvidia, leader du marché des puces IA avec plus de 80 % de part de marché, a levé le voile sur le GH200 qui possède le même GPU que le H100, son processeur IA haut de gamme actuel. Ce nouveau processeur est couplé avec 141 Go de mémoire et un processeur central ARM doté de 72 cœurs.

    Nvidia trône en majesté au sommet du marché

    Jensen Huang, le CEO de Nvidia, a présenté cette nouvelle puce comme un accélérateur du développement à grande échelle des centres de données mondiaux. La disponibilité est prévue pour le deuxième trimestre 2024, avec des échantillons disponibles avant la fin de cette année.

    Le GH200 est particulièrement doué pour tout ce qui est lié à l’inférence, étape coûteuse en calcul qui nécessite une grande puissance de traitement chaque fois que le logiciel fonctionne. Avec une mémoire plus importante, ce processeur permettra à de plus grands modèles d’IA de fonctionner sur un seul système. Jensen Huang l’a promis : « l’inférence de grands modèles de langage sera beaucoup moins coûteuse ».

    L’annonce de Nvidia survient alors que la concurrence s’intensifie dans le domaine du matériel IA. Récemment, AMD a annoncé son propre processeur destiné aux traitements d’intelligence artificielle, le MI300X, qui peut supporter 192 Go de mémoire. Il est justement vendu sur ses capacités d’inférence IA. Google et Amazon développent également leurs propres puces IA personnalisées pour l’inférence. La rareté des puces de Nvidia, très demandées par les géants de la technologie, les fournisseurs de cloud et les startups, ajoute à la pression sur l’entreprise qui veut absolument maintenir son avance. Ian Buck, vice-président de Nvidia, a souligné l’importance de la mémoire plus grande, permettant au modèle de demeurer sur un seul GPU, sans nécessiter de systèmes ou de GPU multiples pour fonctionner.

    Avec le GH200, Nvidia cherche à répondre aux besoins de plus en plus pressants des entreprises qui font commerce de l’intelligence artificielle. De quoi assurer la place de numéro 1 du constructeur, qui veut éviter de se reposer sur ses lauriers : la concurrence investit elle aussi lourdement dans la recherche et le développement de solutions tout aussi performantes. L’explosion de l’intelligence artificielle générative (ChatGPT, Dall-E, Bard…) offre un boulevard à Nvidia pour vendre ses solutions de calcul de l’IA, comme cela avait été le cas d’ailleurs pendant la « bulle » des NFT. Nvidia a décidément le chic de se retrouver toujours au cœur des nouveautés technologiques.

    – Source