Actualités High-Tech

1.4k Sujets 7.4k Messages
  • Une page de l'informatique se tourne...

    2
    1 Votes
    2 Messages
    66 Vues

    ah ben là oui, c’est du lourd ce Monsieur !!!

    RIP

  • 1 Votes
    4 Messages
    102 Vues

    c’est le début de la fin

  • 0 Votes
    3 Messages
    92 Vues

    C’est du vent. Ca ne sert à rien. Ça n’a aucun effet sur nos émissions de CO2 dans l’atmosphère.

  • 1 Votes
    4 Messages
    81 Vues

    D’un autre côté, on échange un poison contre un autre…

    Les personnes cultivées à l’esprit critique et non prédatrices, il n’y en a déjà pas beaucoup, alors submergées par des décérébrés, ce n’est pas un avenir qui chante.

    Remplacez les zombies d’un film d’horreur par la “masse” et vous aurez votre vision de l’avenir.

  • 0 Votes
    2 Messages
    46 Vues

    @duJambon
    Tiens, ils sont où les grands défenseurs de la planète ?
    Ils n’arrêtent pas de gueuler (avec raison) sur nos trop grandes consommations d’énergie mais en même temps ça s"extasie sur les performances de ces IA et là, c’est le silence radio parce que ça les intéresse…
    Encore une fois, c’est l’incohérence la plus totale…
    Bonne journée à toi…

  • Un double moniteur sympa

    9
    0 Votes
    9 Messages
    120 Vues

    @H-Barret ça, c’est pas mal du tout !

  • Recyclage des batteries au lithium

    1
    2 Votes
    1 Messages
    35 Vues

    Pour que le recyclage des batteries devienne rentable, il fallait que le lithium se fasse rare ou que le procédé de récupération ne coûte pas trop cher, c’est ce que le groupe Eramet tente de faire.

    1cca4a3e-cf02-4dd2-acc7-5e370f9da111-image.png

    L’objectif final d’Eramet est de traiter 50.000 tonnes de modules de batteries par an, soit environ 25.000 tonnes de “black mass”, ce qui permettra d’alimenter environ 10% du marché européen des batteries électriques automobiles, selon les calculs du groupe.

    Le lithium liquide bouillonne dans le mélangeur. Puis se décante et tombe, en pâte blanchâtre, au fond du tube de verre, auréolé d’une couche huileuse de couleur vert-océan: le nickel. Dans ce labo, le groupe minier français Eramet prépare son virage vers les métaux critiques de la transition énergétique.

    Ici, au sud de Paris, on teste les étapes de séparation des métaux issus de batteries usagées de voitures électriques.

    Objectif: les recycler et les réutiliser dans des batteries neuves. Avec l’espoir de supprimer d’ici 2050 les émissions de CO2 de nos véhicules actuels, biberonnés au pétrole.

    Concassées, les anodes et les cathodes des batteries --de fines feuilles de cuivre et d’aluminium recouvertes de poudres métalliques-- sont réduites en poudre noirâtre au nom légèrement angoissant: “black mass” (au double sens en anglais: “masse noire” et “messe noire”).

    Ce sombre mélange de nickel, cobalt, manganèse et lithium réunit tous les métaux nécessaires pour collecter et conduire l’électricité à l’intérieur d’une batterie. Reste à les séparer par un procédé dit “liquide-liquide”.

    Au bout d’une longue ligne de filtrage, tamisage, purification, les bocaux de sulfate de nickel en granulés verts voisinent sur la paillasse du labo avec ceux de sulfate de cobalt (rouge cuivré) et de carbonate de lithium (blanc).

    Ils seront revendus. Prêts à refabriquer des batteries neuves au standard NMC (nickel-manganèse-cobalt), le plus répandu de l’industrie automobile.

    “A la différence du carburant brûlé par les moteurs thermiques, ces métaux sont recyclables à 95%”, assure Frédéric Martin, directeur du projet recyclage Batteries chez Eramet ideas, dont le laboratoire est basé à Trappes.

    A l’instar de l’Union Européenne qui a présenté jeudi sa stratégie pour atteindre une souveraineté sur ces matériaux stratégiques de la transition, on sait depuis longtemps chez Eramet que le recyclage de batteries usagées sera la “mine urbaine” des Européens, privés de plusieurs matières premières de base.

    Le groupe exploite aussi au Gabon la plus grande mine de manganèse du monde, et produit du nickel en Nouvelle-Calédonie et en Indonésie. L’extraction de lithium dans des sources géothermales en Alsace est prévue d’ici la fin de la décennie, et en Argentine l’an prochain avec un partenaire chinois.

    Les besoins sont tellement gigantesques pour assurer l’électrification du monde et abandonner les énergies fossiles, qu’il faudra “aussi bien relancer des mines pour extraire de nouveaux métaux que développer le recyclage, tout en continuant à importer en Europe”, souligne Colin Mackey, représentant en Europe du géant minier Rio Tinto, lors d’un entretien téléphonique avec l’AFP.

    Le groupe minier français Orano prévoit également l’ouverture d’un site pilote pour le recyclage des batteries automobiles à Bessines-sur-Gartempes dans le Limousin.

    Eramet prévoit son usine de recyclage des batteries en 2027 dans le nord, en partenariat avec Suez, chargé des opérations “amont” de broyage, déchiquetage des cellules de batteries, et séparation du plastique, du cuivre et de l’aluminium.

    En septembre, il va lancer une première usine pilote à Trappes à côté de ses laboratoires pour tester grandeur nature les procédés hydro-métallurgiques mis au point par ses ingénieurs pour retraiter la “black mass”.

    Jusqu’à présent aucune usine ne traitait la black mass en Europe. Elle devait être exportée à l’étranger pour être retraitée.

    “Une fois qu’on aura amené les métaux en Europe, ce serait idiot de les renvoyer pour aller fabriquer à l’étranger de nouvelles batteries”, souligne Julien Masson, directeur de la stratégie chez Eramet.

    Le parc automobile électrique français est encore trop jeune pour recycler ses batteries. “Il faut compter 12 à 15 ans d’âge” selon Sophie Lebouil, cheffe de projet chez Eramet, pour qui tous ces métaux réutilisés sont le “futur pétrole” du 21e siècle.

    Dans un premier temps, l’entreprise mise surtout sur le recyclage des rebuts de fabrication des trois usines de batteries prévues en France, dont la première doit ouvrir fin mai à Douvrin-Billy Berclau (Hauts-de-France) pour le constructeur automobile Stellantis.

    Source: https://www.ladepeche.fr/2023/03/20/dans-un-labo-ou-le-lithium-sort-liquide-on-imagine-une-deuxieme-vie-pour-les-batteries-11075916.php

  • La combinaison spatiale nouvelle génération

    4
    0 Votes
    4 Messages
    99 Vues

    c’est pour le prochain film de la nasa ? :colgate:

  • 0 Votes
    4 Messages
    115 Vues

    @SeeliS y’a des chances oui

  • 2 Votes
    6 Messages
    94 Vues

    @tudikoi Il est Végan en tout cas…

  • 1 Votes
    4 Messages
    78 Vues

    Il suffit d’enlever les piles 😁

  • A quand un peu d'I.A. pour Siri ?

    1
    0 Votes
    1 Messages
    42 Vues

    Apple semble être la seule entreprise à ne pas s’intéresser outre mesure aux conséquences de la montée en puissance ChatGPT. Pendant que Google et Microsoft multiplient les projets pour ravir la vedette à OpenAI, la firme de Cupertino brille par son silence.

    17522d59-f4a0-4f3e-a5bd-01585b870337-image.png

    Mais les choses pourraient très prochainement commencer par bouger du côté de la firme et principalement pour son assistant Siri. Lors du sommet sur l’IA organisé par l’entreprise le mois dernier, de nombreuses informations ont indiqué que plusieurs de ses ingénieurs, y compris des membres de l’équipe Siri, testaient des concepts générateurs de langage. Ce qui voudrait finalement dire qu’Apple n’est pas si désintéressé par l’IA générative comme on l’aurait cru.

    Connue pour être une marque avant-gardiste, Apple a donné l’impression à de nombreux observateurs qu’elle ne comptait pas (encore) se lancer dans la course à l’IA. Pour preuve, la société n’a jusque-là pas évoqué un projet grandeur nature dans le domaine de l’IA générative.

    Toutefois, comme le rapporte à présent BGR, la donne pourrait changer. Pour marquer son entrée sur ce nouveau marché, Apple prévoirait une refonte de son assistant Siri. Lancée il y a de cela dix ans, cette intelligence artificielle n’a que faiblement évolué.

    Elle aura certes, comme Chat GPT le fait actuellement, donné des idées au secteur avec l’arrivée sur le marché de Google Assistant et d’Amazon Alexa. Néanmoins, ses fonctions premières comme aider les utilisateurs à allumer ou éteindre les lumières, créer des rappels ou répondre à des appels paraissent aujourd’hui dépassées.

    Ainsi, à l’ère actuelle où l’IA générative bat tous les records d’audience dans les médias, le bon sens souhaiterait qu’Apple réinvente Siri. Mais cela ne sera pas une tâche facile. En effet, comme le souligne John Burkey, ancien ingénieur ayant travaillé sur l’assistant virtuel, Siri présente une « conception encombrante qui rendait l’ajout de nouvelles fonctionnalités fastidieux ».

    Comme sus évoqué, l’intégration de nouvelles fonctionnalités de type Chat GPT dans Siri ne sera pas une mince affaire. Cela ne remet toutefois pas en doute le savoir-faire ni le génie des ingénieurs de la société. Mais la potentielle mue de Siri pourrait bien se heurter à sa propre conception, qui aujourd’hui se révèle être un gros handicap.

    En effet, si l’on se réfère aux propos de John Burkey, les vastes connaissances de Siri en ont fait « une grosse boule de neige, car si quelqu’un veut ajouter un mot à la base de données de Siri, il va dans une grosse pile ». L’ingénieur chargé entre-temps d’améliorer l’assistant virtuel, en 2014, confesse par là s’être heurté à la complexité de l’architecture de Siri.

    Les ingénieurs actuels, s’ils tiennent à réussir ce pari, devront donc se frotter à l’importante base de données de Siri. Celle-ci contiendrait une liste impressionnante de mots dans près de deux douzaines de langues. À l’évidence, le chantier s’annonce titanesque, car il faudrait reconstruire de fond en comble la base de données de Siri.

    Dans tous les cas, il est déjà heureux de savoir que chez Apple, on travaille activement à l’amélioration de Siri afin qu’il puisse s’imprégner plus facilement du contexte dans lequel il est appelé à évoluer. Cela devrait, in fine, offrir aux utilisateurs des conversations dignes de ce nom.

    Sources: https://www.fredzone.org/lassistant-virtuel-dapple-pourrait-a-lavenir-integrer-des-fonctionnalites-de-type-chatgpt-rcj753
    et: https://bgr.com/tech/apple-engineers-are-testing-chatgpt-like-features-for-siri/

  • 0 Votes
    1 Messages
    45 Vues

    Microsoft n’a pas tardé à tirer profit de GPT-4, la dernière version du modèle linguistique sur lequel repose le chatbot d’OpenAI, le populaire ChatGPT. L’éditeur logiciel l’a intégré dans Copilot, nouvel outil conçu pour aider les utilisateurs à rédiger des documents, des e-mails ou même des présentations PowerPoint à partir de documents Word qui lui seraient soumis.

    Cet assistant sera disponible pour la suite bureautique Microsoft 365 (ex-Office). «Copilot est une toute nouvelle façon de travailler», a mis en avant jeudi le géant de Redmond, qui indique qu’il le testait auprès de 20 clients. «Nous partagerons davantage d’informations sur les prix et les détails dans les mois à venir.»

    Microsoft réplique ainsi à Google, qui a annoncé en début de semaine l’intégration de l’IA dans ses services Google Cloud et Google Workspace, notamment dans Gmail, Docs, Sheets et Meet.

    La firme dirigée par Satya Nadella a profité d’un autre espace privilégié pour exploiter GPT-4. Elle a introduit des suggestions d’écriture alimentées par l’IA sur LinkedIn, réseau professionnel qui lui appartient. Les clients de sa version payante pourront se contenter de donner des faits en vrac de leur parcours, l’outil se chargeant de mettre le tout sous une forme attrayante. «En faisant le gros du travail pour vous, l’outil vous fait gagner du temps et de l’énergie tout en conservant votre voix et votre style uniques», assure la société.

    La voracité en puissance de calcul de ces nouveaux outils d’intelligence artificielle a contraint Microsoft à appliquer des mesures de restriction dans ses différentes équipes de développement, selon TheInformation. Et la pénurie de matériel affecte même des clients de Microsoft y accédant via son service cloud Azure. Sans compter que GPT-4 est devenu une fonctionnalité à part entière du moteur de recherche Bing, Microsoft ayant commencé à renoncer à exiger des utilisateurs qu’ils passent par une liste d’attente pour y accéder via bing.com/new.

    Source: https://www.20min.ch/fr/story/microsoft-dote-sa-suite-office-dun-compagnon-dope-a-lia-791141417314

  • 1 Votes
    4 Messages
    83 Vues

    oh bordel le rêve, mais j’ose même pas calculer le prix total

  • 0 Votes
    10 Messages
    164 Vues

    @Violence c’est foutu, on est en plein dedans et y’en aura partout maintenant

  • 1 Votes
    8 Messages
    142 Vues

    @Indigostar Merci beaucoup pour le partage de cet article édifiant sur notre beau pays des droits (pas de majuscule, c’est devenu inutile) de l’homme.

  • Le chauffe-mains de bureau pour professionels

    6
    0 Votes
    6 Messages
    129 Vues

    @michmich exactement. De toute façon beaucoup de gens n’utilisent que deux doigts pour taper au clavier. :hehe:

  • 1 Votes
    1 Messages
    69 Vues

    Les choses bougent à la vitesse de l’éclair dans AI Land. Vendredi, un développeur de logiciels nommé Georgi Gerganov a créé un outil appelé “llama.cpp” qui peut exécuter le nouveau modèle de langage d’IA de classe GPT-3 de Meta, LLaMA , localement sur un ordinateur portable Mac et aussi sous Windows également. Ensuite, quelqu’un l’a montré en cours d’exécution sur un téléphone Pixel 6, puis est venu un Raspberry Pi (bien que fonctionnant très lentement).

    Ce qui arrivera la semaine prochaine, personne ne le sait.

    Depuis le lancement de ChatGPT, certaines personnes ont été frustrées par les limites intégrées du modèle d’IA qui l’empêchent de discuter de sujets qu’OpenAI a jugés sensibles. Ainsi a commencé le rêve - dans certains milieux - d’un grand modèle de langage open source (LLM) que n’importe qui pourrait exécuter localement sans censure et sans payer de frais d’API à OpenAI.

    Des solutions open source existent (comme GPT-J), mais elles nécessitent beaucoup de RAM GPU et d’espace de stockage. D’autres alternatives open source ne pourraient pas se vanter de performances de niveau GPT-3 sur du matériel grand public facilement disponible.

    LLaMA, un LLM disponible dans des tailles de paramètres allant de 7B à 65B (c’est-à-dire “Bilions” en Anglais, comme dans “milliards de paramètres”, qui sont des nombres à virgule flottante stockés dans des matrices qui représentent ce que le modèle “sait”). LLaMA a fait une affirmation captivante : que ses modèles de plus petite taille pourraient correspondre au GPT-3 d’OpenAI , le modèle fondamental qui alimente ChatGPT, dans la qualité et la vitesse de sa sortie. Il n’y avait qu’un seul problème - Meta a publié le code open source LLaMA, mais il a réservé les données (les “connaissances” formées stockées dans un réseau de neurones) pour les chercheurs qualifiés uniquement.

    Les restrictions de Meta sur LLaMA n’ont pas duré longtemps, car le 2 mars, quelqu’un a divulgué les données LLaMA sur BitTorrent. Depuis lors, il y a eu une explosion de développement autour de LLaMA. Le chercheur indépendant en intelligence artificielle Simon Willison a comparé cette situation à une sortie de Stable Diffusion, un modèle de synthèse d’images open source lancé en août dernier (https://planete-warez.net/topic/3147/ia-stable-diffusion-ui-l-ia-auto-hébergée-pour-créer-des-images). Voici ce qu’il a écrit dans un article sur son blog :

    J’ai l’impression que cet événement de Stable Diffusion en août a déclenché toute une nouvelle vague d’intérêt pour l’IA générative, qui a ensuite été poussée à l’extrême par la sortie de ChatGPT fin novembre.

    Ce moment de diffusion stable se reproduit en ce moment, pour les grands modèles de langage, la technologie derrière ChatGPT elle-même. Ce matin, j’ai exécuté pour la première fois un modèle de langage de classe GPT-3 sur mon ordinateur portable personnel !

    Les trucs d’IA étaient déjà bizarres. C’est sur le point de devenir beaucoup plus bizarre.

    En règle générale, l’exécution de GPT-3 nécessite plusieurs A100 (de plus, les données de GPT-3 ne sont pas publiques), mais LLaMA a fait des vagues, car il pouvait fonctionner sur un seul GPU grand public costaud. Et maintenant, avec des optimisations qui réduisent la taille du modèle à l’aide d’une technique appelée quantification, LLaMA peut fonctionner sur un Mac M1 ou un GPU grand public Nvidia moindre.

    Les choses évoluent si vite qu’il est parfois difficile de suivre les derniers développements. (En ce qui concerne le rythme de progression de l’IA, un collègue journaliste de l’IA a déclaré à Ars : "C’est comme ces vidéos de chiens où vous renversez une caisse de balles de tennis dessus. [Ils] ne savent pas où chasser en premier et se perdent dans la confusion. ")

    Par exemple, voici une liste d’événements notables liés à LLaMA basée sur une chronologie que Willison a présentée dans un commentaire de Hacker News :

    24 février 2023 : Meta AI annonce LLaMA. 2 mars 2023 : Quelqu’un divulgue les modèles LLaMA via BitTorrent. 10 mars 2023 : Georgi Gerganov crée llama.cpp , qui peut fonctionner sur un Mac M1. 11 mars 2023 : Artem Andreenko exécute LLaMA 7B (lentement) sur un Raspberry Pi 4 , 4 Go de RAM, 10 sec/token. 12 mars 2023 : LLaMA 7B exécuté sur NPX, un outil d’exécution node.js. 13 mars 2023 : quelqu’un fait fonctionner llama.cpp sur un téléphone Pixel 6 , également très lentement. 13 mars 2023 : Stanford lance Alpaca 7B d’OpenAI text-davinci-003 mais fonctionne sur un matériel beaucoup moins puissant.

    Après avoir obtenu nous-mêmes les données LLaMA, nous avons suivi les instructions de Willison et avons fait fonctionner la version des paramètres 7B sur un Macbook Air M1, et elle fonctionne à une vitesse raisonnable. Vous l’appelez comme un script sur la ligne de commande avec une invite, et LLaMA fait de son mieux pour le terminer de manière raisonnable.

    329bbdd1-3dc7-474f-b41e-9a434a8aa8e9-image.png
    Une capture d’écran de LLaMA 7B en action sur un MacBook Air exécutant llama.cpp.

    Reste la question de savoir dans quelle mesure la quantification affecte la qualité de la sortie. Lors de nos tests, LLaMA 7B réduit à la quantification 4 bits était très impressionnant pour fonctionner sur un MacBook Air, mais toujours pas à la hauteur de ce que vous pourriez attendre de ChatGPT. Il est tout à fait possible que de meilleures techniques d’incitation génèrent de meilleurs résultats.

    De plus, les optimisations et les ajustements sont rapides lorsque tout le monde a la main sur le code et les données, même si LLaMA est toujours aux prises avec des assez restrictives conditions d’utilisation La sortie d’Alpaca aujourd’hui par Stanford prouve qu’un réglage fin (entraînement supplémentaire avec un objectif spécifique en tête) peut améliorer les performances, et il est encore tôt après la sortie de LLaMA.

    Au moment d’écrire ces lignes, l’exécution de LLaMA sur un Mac reste un exercice assez technique. Vous devez installer Python et Xcode et être familiarisé avec le travail en ligne de commande. Willison a de bonnes instructions étape par étape pour tous ceux qui souhaitent l’essayer. Mais cela pourrait bientôt changer à mesure que les développeurs continuent de coder.

    Quant aux implications d’avoir cette technologie dans la nature, personne ne le sait encore. Alors que certains s’inquiètent de l’impact de l’IA en tant qu’outil de spam et de désinformation, Willison déclare : “Cela ne sera pas inventé, donc je pense que notre priorité devrait être de trouver les moyens les plus constructifs possibles de l’utiliser.”

    À l’heure actuelle, notre seule garantie est que les choses vont changer rapidement.

    Source: https://arstechnica.com/information-technology/2023/03/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi/

  • 2 Votes
    8 Messages
    207 Vues

    HP ds toute sa splendeur.
    Je savais que les cartouches tierces étaient déconseillées car hp a tendance a ne pas les reconnaître.

    HP se sait bon ds ce qu’il fait, + le prix des cartouches, la messe est dite.

  • 1 Votes
    5 Messages
    113 Vues

    et la 4.5.2 ne me pose aucun souci …