• 0 Votes
    1 Messages
    70 Vues

    Alors que les entreprises d’IA génératives donnent de moins en moins d’information sur l’impact environnemental de leurs modèles, Mistral a travaillé avec l’agence Carbone 4 et l’ADEME sur celui de son modèle Large 2. L’entreprise explique notamment que l’entrainement de ce modèle a émis l’équivalent de 20 400 tonnes de CO₂.

    Il est difficile de connaître l’impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu’ « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA ».

    Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.

    Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l’impact environnemental de l’IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l’impact environnemental croissant de l’IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».

    Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu’en publiant les poids de leurs modèles afin de permettre une analyse de l’efficacité) ».

    Mistral ouvre le capot de Large 2

    En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l’entreprise explique avoir travaillé avec l’agence Carbone 4 et l’ADEME sur « l’analyse du cycle de vie d’un modèle d’IA ». Sans donner les chiffres bruts ni publier, à ce stade, l’étude qu’elle a faite, l’entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l’IA frugale développé par l’AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.

    Ainsi, elle confirme d’abord que l’entrainement et l’inférence (qu’elle mélange dans l’infographie ci-dessous) sont les parties qui émettent le plus d’émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.

    Mistral résume ses conclusions dans une infographie

    Néanmoins, concernant ce point, l’entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu’elles représentent 11 % des émissions du modèle.

    L’entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l’énergie qu’ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l’énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d’eau que dans beaucoup d’autres régions du monde.

    20 400 tonnes de CO₂ et 281 000 m³ d’eau

    L’entreprise donne des chiffres plus précis sur l’impact environnemental de l’entrainement de son modèle Large 2. Ainsi, elle explique qu’en janvier 2025, après 18 mois d’utilisation, Large 2 a émis l’équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d’eau et l’équivalent de 660 kg d’antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l’élément chimique antimoine, sb).

    Mistral précise, concernant l’inférence, qu’une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l’équivalent de 1,14 g de CO₂, 45 mL d’eau et l’équivalent de 0,16 mg d’antimoine. Elle qualifie ces impacts de l’inférence de « marginaux ».

    Mistral précise que « ces chiffres reflètent l’ampleur des calculs impliqués dans l’IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l’électricité est très polluante et où il y a parfois des problèmes d’approvisionnement en eau ». Elle ajoute qu’ « ils incluent également les « émissions en amont », c’est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d’énergie ».

    Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l’entrainement de sa famille de modèles Gemma avait consommé l’équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l’entrainement de sa famille Llama 3 à l’équivalent de 11 390 tonnes de CO2.

    Plaidoyer pour une transparence accrue dans le milieu

    « Notre étude montre également une forte corrélation entre la taille d’un modèle et son empreinte », explique Mistral. L’entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d’un ordre de grandeur supérieur à ceux d’un modèle plus petit pour la même quantité de jetons générés. Cela souligne l’importance de choisir le bon modèle pour le bon cas d’utilisation ».

    Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d’un tel exercice en l’absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d’impact accessibles au public ». Elle fait remarquer, par exemple, qu’ « aucun inventaire fiable du cycle de vie des GPU n’a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».

    Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l’électricité et à inclure tous les impacts significatifs en amont, c’est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».

    L’entreprise s’engage à mettre à jour ses rapports sur l’impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l’IA ». Elle ajoute qu’elle va partager les résultats sur la base de données « Base Empreinte » de l’ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.

    Source : next.ink

  • 2 Votes
    1 Messages
    84 Vues

    Si des études scientifiques s’y attellent, les effets de l’explosion du secteur de l’intelligence artificielle sur l’environnement restent très peu discutés dans l’espace public, selon un rapport de Sopra Steria.

    Depuis l’été 2022, l’intelligence artificielle est dans toutes les discussions. Impacts économiques, politiques, médiatiques, potentielle bulle financière, même, tous ses effets sont décortiqués à l’exception d’un, et non des moindres : celui que le secteur a sur l’environnement.

    Entre janvier 2024 et avril 2025, moins de 1 % des 802 465 publications X et LinkedIn liées à l’IA et analysées par Opsci.ai évoquaient par exemple les effets de l’intelligence artificielle sur l’écosystème planétaire. Menée avec Opsci.ai, une récente étude de Sopra Steria sur le brouillard informationnel qui obscurcit les liens entre IA et environnement constate que le climat n’arrive qu’en huitième position des préoccupations des 100 leaders de l’IA listés par le Time Magazine, loin derrière les débats autour des modèles ou encore de l’actualité du secteur.

    Le sujet est pourtant d’importance : si le rôle de l’humanité dans le réchauffement climatique fait consensus dans la communauté scientifique depuis plus de 15 ans, 33 % de la population française considère en 2024 que le réchauffement climatique n’est qu’une hypothèse sur laquelle les scientifiques ne sont pas tous d’accord. Et alors qu’une soixantaine de scientifiques du GIEC annonçaient mi-juin que le maintien du réchauffement climatique sous les 1,5 °C de plus qu’avant l’ère pré-industrielle était désormais impossible, 29 % de la population mondiale doute de ce consensus.

    Sur le rôle spécifique de l’IA dans le domaine, les calculs sont complexes, mais les premières données scientifiques sont claires : recourir à des modèles de langage généralistes est beaucoup plus consommateur que de se tourner vers de plus petits modèles – des besoins en énergie qui, le plus souvent, sont synonymes d’accroissement significatif de multiples impacts environnementaux, à commencer par les émissions carbone.

    Relative focalisation sur la question énergétique

    Du côté des personnes clairement intéressées par la lutte contre les bouleversements climatiques, l’IA n’occupe que 2,85 % des discussions, constate Sopra Steria après analyse de 314 419 messages issus d’un panel LinkedIn dédié. Dans ces cas là, elle est principalement présentée comme une menace en termes d’énergie - un enjeu compréhensible, dans la mesure où le patron d’OpenAI lui-même suggère qu’à terme, « une fraction significative de l’énergie sur Terre devrait être consacrée à l’exécution de calculs d’IA ».

    Article complet : next.ink

  • 3 Votes
    7 Messages
    387 Vues

    La partie Alcoolisme a été placée dans un topic séparé: https://planete-warez.net/topic/7235/alcolisme/

  • 4 Votes
    4 Messages
    210 Vues

    Je ne vois pas le rapport entre le titre de ce post et le contenu.
    L’IA n’a en rien exposé les données de millions de candidats.
    La société à qui McD a confié son questionnaire de recrutement a exposé les données de millions de candidats par son incompétence notoire, qui n’a strictement rien à voir avec de l’IA.

    Si au moins c’était le bot qui avait dévoilé le lien de l’interface d’admin et/ou le mot de passe par défaut j’aurais pu comprendre, mais non, en fait rien à voir.

  • 2 Votes
    1 Messages
    106 Vues

    Alors ça, c’est ce qu’on appelle un coup de maître ! Cloudflare vient de lâcher une annonce qui va faire trembler tout l’écosystème de l’IA. Depuis le 1er juillet 2025, l’entreprise bloque par défaut tous les crawlers d’IA qui tentent d’aspirer le contenu des sites qu’elle protège. Il était temps que quelqu’un mette un bon coup de pied dans la fourmilière !

    Ainsi, Cloudflare qui gère environ 20% du trafic internet mondial, vient de transformer le modèle “on prend tout et on verra après” en “tu veux scraper ? Tu payes d’abord !”. Matthew Prince, le CEO de Cloudflare, a lâché des chiffres qui font froid dans le dos : pour chaque visite qu’OpenAI renvoie vers un site, ses bots ont crawlé 1700 pages. Chez Anthropic, c’est encore pire : 73 000 crawls pour une visite. C’est du pillage en règle, ni plus ni moins.

    Le truc génial, c’est qu’ils ont ressuscité le code HTTP 402 “Payment Required” qui dormait dans les spécifications depuis des décennies. Ainsi, quand un bot IA tente d’accéder à un site, soit il présente une preuve de paiement dans les headers de sa requête et obtient un beau 200 OK, soit il se prend un 402 dans les dents avec le tarif à payer. Simple et efficace !

    Mais attendez, ça devient encore mieux puisque Cloudflare a lancé en bêta privée leur marketplace ce “Pay Per Crawl” où les éditeurs peuvent fixer leurs propres tarifs. Comme ça, si vous avez un site avec du contenu de qualité, vous pouvez facturer chaque crawl des bots d’IA. Je vais aller activer ça, je crois…

    D’ailleurs, en parlant de protection de données et de contrôle sur ce qui circule sur le web, c’est exactement le genre de situation où un VPN devient super utile. Parce que si les géants de l’IA aspirent tout ce qui traîne, imaginez ce qu’ils peuvent faire avec vos données personnelles quand vous naviguez sans protection. [Pensez donc à sécuriser votre connexion avecun VPN et gardez le contrôle sur vos données pendant que Cloudflare s’occupe de protéger les créateurs de contenu.

    Ce qui me plaît vraiment dans l’approche de Cloudflare, c’est qu’elle remet les pendules à l’heure. Depuis des mois, les bots d’IA ignoraient allègrement les fichiers robots.txt, cette vieille convention non contraignante qui demandait gentiment de ne pas crawler certaines parties d’un site. Cloudflare a d’abord tenté la manière douce avec leur outil “AI Labyrinth” en mars 2025, qui piégeait les bots non conformes dans un labyrinthe de faux contenus générés automatiquement. Mais là, ils passent à la vitesse supérieure.

    Mais attendez, ce n’est pas tout !

    Les gros éditeurs ont d’ailleurs déjà sauté sur l’occasion. Condé Nast, TIME, The Atlantic, Fortune… tous ont rejoint le mouvement pour bloquer par défaut les crawlers IA. Et franchement, je les comprend. Pourquoi laisser des boîtes valorisées à des milliards pomper gratuitement leur contenu pour entraîner des modèles qui vont ensuite leur piquer leur audience ?

    Et le système est malin puisque les crawlers peuvent fonctionner de deux manières. Soit ils tentent leur chance, se prennent un 402, et renvoient une nouvelle requête avec l’acceptation du prix. Soit ils sont plus malins et incluent dès le départ un header “crawler-max-price” qui indique combien ils sont prêts à payer. Si le prix demandé est en dessous, la transaction se fait automatiquement.

    Ce qui est dingue, c’est que seulement 37% des 10 000 plus gros sites ont un fichier robots.txt. Non mais sérieux ? Ça montre bien que le système actuel était complètement dépassé. Avec cette nouvelle approche, Cloudflare devient donc le videur du web : “Tu veux entrer ? Montre ton invitation ou sors ton portefeuille.”

    Et pour les petits sites et les blogs, c’est un levier de financement supplémentaire et surtout la fin de l’open bar et le début d’une nouvelle ère où les créateurs de contenu sont enfin rémunérés pour leur travail.

    Alors bien sûr, les boîtes d’IA vont probablement chercher des moyens de contourner le système mais Cloudflare a l’avantage du terrain : ils voient passer 20% du trafic internet et ont les moyens techniques de repérer et bloquer les petits malins. Et puis, avec des géants comme eux qui montent au créneau, ça va forcer tout le monde à repenser le modèle.

    Et le fait qu’ils aient déterré le code HTTP 402 qui moisissait depuis 1997, c’est juste magnifique.

    Bref, pour conclure, si vous êtes créateur de contenu, foncez activer cette protection sur votre site Cloudflare. Et si vous êtes juste un internaute lambda qui en a marre de voir l’IA pomper tout ce qui existe sur le web, réjouissez-vous car la résistance s’organise. Le web n’est pas mort, il apprend juste à se défendre.

    – Sources :

    https://searchengineland.com/cloudflare-to-block-ai-crawlers-by-default-with-new-pay-per-crawl-initiative-457708

    https://korben.info/cloudflare-bloque-ia-pay-per-crawl.html

  • 3 Votes
    3 Messages
    167 Vues

    Je ne sais pas jouer alors l’IA fera ce qu’elle veut de moi 🤣

    Hmmm, ha, oh…

  • 2 Votes
    2 Messages
    170 Vues

    Putain ! Manquait plus que ça. On me fait un coup pareil, mon héritage par direct à l’I.A.

  • 4 Votes
    3 Messages
    247 Vues

    @duJambon L’Abé Pierre? caramba encore raté!

  • 3 Votes
    3 Messages
    228 Vues

    C’est juste pour appuyer le fait que cela arrive partout et qu’il faut arrêter de croire que ça n’arrive qu’à Microsoft…

    Ça arrive partout, sur tout les OS. C’est juste qu’on en parle ++ quand c’est Microsoft et que c’est plus facile de taper sur eux.

    Concernant le pare-feu, j’en utilise depuis Windows XP et aussi sous linux. Il serait en effet temps de s’y mettre, rien de plus important de surveiller les accès internes et externes de ses bécanes :

    Qui fait quoi? Et qui accède à quoi ? Quand ce n’est pas un logiciel malveillant qui se fait passer pour un autre.

  • 3 Votes
    35 Messages
    2k Vues

    8b208957-03c0-41e6-a4bc-dca7384bea6c-image.png

    Mix de Kiss et le sourire de Jack Nicholson en Joker 😁 :mouhaha:

  • 1 Votes
    7 Messages
    363 Vues

    @Popaul a dit dans IA et décarbonation :

    en gros tu produits cette énergie proprement et plus d’émission… du coup, du peux avoir des animations avec des madames à trois bras tout à fait clean.
    Et NVIDIA qui s’en met plein les poches avec du “moyen de gamme” à plus de 1000.-

    Tout à fait 🙂

  • 0 Votes
    6 Messages
    374 Vues

    @Violence a dit dans Scarlett Johansson victime d'un deepfake viral :

    –> Cette news est pour toi

    Merci @Violence pour l’intention même si le contenu de l’article ne l’est pas.

    :mimi: Scarlett Johansson :wub: :wub:

  • 1 Votes
    3 Messages
    194 Vues

    Exemple typique de ce dont je parle ci-dessus:

    a52be88a-7196-445a-ad4f-2777f5141b46-image.png

    Trouvé sur Ars Technica

    Il est tellement facile de demander à une I.A. sur un sujet quelconque et d’obtenir une réponse également quelconque.

  • 3 Votes
    7 Messages
    384 Vues

    N’oubliez pas que le documentaire est diffusé ce soir sur France 2.

  • 3 Votes
    10 Messages
    550 Vues

    Et pour les films muets comment ça se passe 😁 ?

  • 7 Votes
    4 Messages
    215 Vues

    Il y a le côté consommateur en énergie et en composants qui est à mettre en exergue (un peu fait dans cette vidéo).

    Mais en gros :
    L’ia est un outil… Comme un marteau, il ne faut pas en avoir peur.
    C’est surtout comment est utilisé cet outil qu’il faut surveiller.
    Et là, il est actuellement utilisé par les plus gros moins nombreux pour faire chi** (pas de mots poli) les plus petits mais nettement plus nombreux.
    Merci le spam, la surveillance et les missiles qu’on reçoit dans la yeule.

  • 0 Votes
    1 Messages
    87 Vues

    Human Right Watch a analysé une partie de la base de données LAION-5B très utilisée pour entrainer des outils d’IA générateurs d’images et s’est rendu compte qu’elle contiendrait des liens vers des photos d’enfants brésiliens sans leur consentement.

    L’ONG Human right watch explique avoir repéré des photos personnelles d’enfants brésiliens dans la base de données LAION-5B. Créée le professeur de lycée allemand Christoph Schuhmann, celle-ci a été notamment utilisée par Stable Diffusion et par Google pour entrainer leurs modèles d’IA génératives de text-to-image.

    Une toute petite partie de la base de données explorée

    Ces photos ne figurent pas en tant que telles dans la base de données. LAION-5B liste notamment des liens vers diverses photos qui ont été mises en ligne qu’elle associe à du texte. Elle s’appuie sur l’autre base de données Common Crawl qui parcourt internet et stocke les contenus trouvés.

    La chercheuse de l’ONG, Hye Jung Han, a examiné une toute petite partie de LAION-5B (moins de 0,0001 % des 5,85 milliards d’images) mais a trouvé 170 photos d’enfants brésiliens venant d’au moins 10 États du pays.

    Des photos de moments intimes

    La plupart de ces photos n’ont été vues que par très peu de personne et « semblent avoir bénéficié auparavant d’une certaine intimité » explique Human Rights Watch, qui a vérifié en utilisant des moteurs de recherche.

    L’ONG affirme que LAION, l’association allemande fondée par Schuhmann pour gérer la base de données, a confirmé l’existence des liens vers ces photos dans sa base de données et a promis de les supprimer. Mais elle a ajouté qu’il incombait aux enfants et à leurs tuteurs de retirer les photos personnelles des enfants de l’internet, ce qui, selon elle, constitue la protection la plus efficace contre les abus.

    Dans une réponse à Wired, LAION a affirmé avoir supprimé les liens vers les contenus signalés par Human Right Watch. Mais un de ses représentants a ajouté que « la suppression des liens d’un ensemble de données LAION ne supprime pas ce contenu du web […] il s’agit d’un problème plus vaste et très préoccupant, et en tant qu’organisation bénévole à but non lucratif, nous ferons notre part pour y remédier ».

    Selon l’association, les photos listées par LAION représentaient « des moments intimes comme des bébés naissant entre les mains gantées de médecins, des jeunes enfants soufflant les bougies de leur gâteau d’anniversaire ou dansant en sous-vêtements à la maison, d’élèves faisant un exposé à l’école et d’adolescents posant pour des photos à carnaval du lycée ».

    Hye Jung Han explique à Wired que « leur vie privée est violée en premier lieu lorsque leur photo est récupérée et intégrée dans ces ensembles de données. Ensuite, ces outils d’intelligence artificielle sont entrainés à partir de ces données et peuvent donc créer des images réalistes d’enfants ». Elle ajoute que « la technologie est développée de telle sorte que tout enfant qui possède une photo ou une vidéo de lui en ligne est désormais en danger, car n’importe quel acteur malveillant pourrait prendre cette photo, puis utiliser ces outils pour la manipuler à sa guise ».

    LAION-5B plus accessible publiquement

    Depuis décembre dernier, LAION-5B n’est plus accessible publiquement. L’association a pris cette décision car des chercheurs de Stanford ont identifié 3 226 liens vers des images pédocriminelles potentielles. « La plupart d’entre elles ont été identifiées comme telles par des tierces parties » expliquaient-ils.

    Dans un communiqué sur son site, LAION affirmait qu’elle appliquait «  une politique de tolérance zéro à l’égard des contenus illégaux et, dans un souci de prudence, nous retirons temporairement les jeux de données de LAION pour nous assurer qu’ils sont sûrs avant de les republier ».

    Source : next.ink

  • 2 Votes
    2 Messages
    155 Vues

    Dans un an, après moult réunions, ils auront décidé du sigle officiel du bureau de l’IA, et pourront enfin commencer à se pencher sur le sujet. Confiants, en opinant du chef et tous sourires, ils se diront alors qu’ils n’étaient pas trop de trois.

  • 1 Votes
    1 Messages
    108 Vues

    Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

    13 TOPS pour le Raspberry Pi 5

    C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

    On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

    78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

    Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

    Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

    Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

    Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

    Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

    Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

    Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

    Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

    Une intégration logicielle déjà prête

    Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

    « Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

    La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

    Plusieurs vidéos de présentation ont été mises en ligne :

    Source : next.ink

  • 3 Votes
    6 Messages
    323 Vues

    @Indigostar a dit dans D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA :

    Je reste donc perplexe, surtout que l’évolution de l’IA tend vers la capacité de se mettre à jour elle-même et d’ajuster ses algorithmes.

    On devrait lui confier la gestion d’un pays imaginaire histoire de voir. :ahah: