• 1 Votes
    6 Messages
    86 Vues

    @Violence Le soft, c’est juste le système prédictif, après pour le travail (autre qu’informatique, et même, il vaut mieux ne pas nourrir le modèle de code écrit avec les pieds), il vaut mieux avoir des données solides.

    J’ai trouvé des avis sur Llama 2:

    LLaMA 2 (pour Large Language Model with Attention 2) est un modèle d’IA génératif qui peut produire des textes en langage naturel en fonction d’une entrée ou d’une invite donnée. Il peut être utilisé pour diverses applications telles que les chatbots, la création de contenu, la synthèse, la traduction, etc. LLaMA 2 est la deuxième version du LLM de Meta, qui a été publié pour la première fois en février 2023. Selon Meta, LLaMA 2 a été formé sur 40 % de données en plus que LLaMA 1, qui comprend des informations provenant de « sources de données en ligne accessibles au public ». Il affirme également qu’il « surclasse » d’autres LLM comme Falcon et MPT en ce qui concerne les tests de raisonnement, de codage, de compétence et de connaissances.

    Et un truc qui pourrait beaucoup t’intéresser: LLaMa 2 est disponible dans le catalogue de modèles Azure AI, ce qui permet aux développeurs utilisant Microsoft Azure de construire avec lui et de tirer parti de leurs outils cloud-native pour le filtrage de contenu et les fonctions de sécurité. Il est également optimisé pour fonctionner localement sur Windows, offrant aux développeurs un flux de travail transparent lorsqu’ils proposent des expériences d’IA générative à leurs clients sur différentes plateformes. LLaMa 2 est disponible via Amazon Web Services (AWS), Hugging Face et d’autres fournisseurs.

    Pour plus d’info, voir par exemple: https://intelligence-artificielle.developpez.com/actu/346730/Le-modele-LLamA-2-de-Meta-qui-vient-d-etre-publie-ne-serait-pas-open-source-de-l-avis-de-Alessio-Fanelli-Ingenieur-logiciel-associe-chez-Decibel/

    D’après d’autres sources, Wizard Coder Python 13B Q5 serait d’ailleurs extrait de Llama 2 (et tout ça extrait de ChatGPT 4), mais c’est pas vraiment aussi évident de s’y retrouver dans cette jungle.

    Je n’ai pas trouvé d’avis sur Trinity 1.2 7B Q4, un des deux modèles testé par Korben, si ce n’est sa description:

    Trinity is an experimental model merge using the Slerp method. Recommended for daily assistance purposes.

    Ça vaut peut-être aussi le coup de chercher ses limites.

    Il est fort possible que Jan propose à l’avenir des modèles encore plus spécialisés.

    Y’a aussi dans la liste: CodeNinja 7B Q4 4GB de ram

    CodeNinja is good for coding tasks and can handle various languages including Python, C, C++, Rust, Java, JavaScript, and more.

    Et ChatGPT4 en accès direct (données en ligne)

  • 0 Votes
    3 Messages
    82 Vues

    Ha ben je comprends mieux pourquoi ça ne fonctionnait pas hier ! Et dire qu’on m’a accusé d’avoir mal formulé ma question 🙄

  • 2 Votes
    2 Messages
    81 Vues

    Merde du coup, ils ont enregistré quand je leur ai demandé un poème sur Hitler :ahah:

  • 1 Votes
    5 Messages
    70 Vues

    Si chatgpt gere les post on va plus être beaucoup sur le forum :fbi:

  • 2 Votes
    2 Messages
    48 Vues

    pour moi c’est un outil qui est tres bien pour les étudiants un peu comme une calculatrice

    bientot le brevet pour gépeté : https://www.presse-citron.net/le-sigle-gpt-sera-bientot-une-propriete-privee/

  • 1 Votes
    2 Messages
    114 Vues

    y’en avait déjà sur breached avant que ça ferme

  • 3 Votes
    4 Messages
    157 Vues

    ChatGPT comme keygen, fallait y penser :hehe:

  • 1 Votes
    1 Messages
    48 Vues

    Hello

    Je m’intéresse à la robotique de temps à autre sans être ultra assidu et il y a quelque temps j’avais découvert Ameca sur PW de la société Engineered Arts qui était déjà assez oufissime et il s’avère qu’ils viennent de l’intégrer à Chat GPT et le résultat est impressionnant.

    Engineered Arts montre comment le robot humanoïde se comporte lors d’une discussion. À chaque question de l’interlocuteur humain, le robot marque une très courte pause avant d’énoncer une réponse qui mêle les mots avec des expressions appropriées du visage. On retrouve les clignements rapides des yeux et toutes les petites expressions du visage qui viennent renforcer les émotions liées aux réponses.

    Les développeurs d’Ameca ont utilisé GPT-3, l’IA d’OpenAI pour les réponses, mais aussi pour y associer les expressions appropriées. L’équipe a également essayé d’utiliser la dernière version GPT-4 pour améliorer encore les résultats. Le temps de traitement plus long avait pour effet de rendre le robot moins réactif et donc la discussion moins spontanée. Dès novembre dernier, la société avait fait parler Ameca grâce à un synthétiseur qui dictait les réponses fournies par GPT3. Les expressions du visage restaient alors basiques.

    Dans les faits, le robot humanoïde répond effectivement quasi naturellement aux questions, comme si on posait soi-même des questions à ChatGPT, mais le plus intéressant, c’est évidemment d’observer son regard, sa moue et ses mouvements de la tête. Selon les questions, le robot exprime le dégoût ou la tristesse, et c’est ChatGPT qui se charge de transmettre le type d’émotion à exprimer. Comme lorsqu’on lui demande quel a été le jour le plus triste de sa vie, et qu’elle répond que c’est le jour où elle a pris conscience qu’elle « ne connaîtrait jamais quelque chose comme le véritable amour« , et c’est une « chose déprimante« . Mais Ameca précise : « Cela a façonné qui je suis maintenant et m’a fait apprécier encore plus les moments de proximité. »

    SOURCE 1, SOURCE2

  • 3 Votes
    3 Messages
    88 Vues

    @michmich c’est d’ailleurs le mot officiel, j’ai eu un goupil comme ça, sauf que l’écran était plus petit

  • 1 Votes
    4 Messages
    90 Vues

    c’est le début de la fin

  • 0 Votes
    1 Messages
    33 Vues

    Microsoft n’a pas tardé à tirer profit de GPT-4, la dernière version du modèle linguistique sur lequel repose le chatbot d’OpenAI, le populaire ChatGPT. L’éditeur logiciel l’a intégré dans Copilot, nouvel outil conçu pour aider les utilisateurs à rédiger des documents, des e-mails ou même des présentations PowerPoint à partir de documents Word qui lui seraient soumis.

    Cet assistant sera disponible pour la suite bureautique Microsoft 365 (ex-Office). «Copilot est une toute nouvelle façon de travailler», a mis en avant jeudi le géant de Redmond, qui indique qu’il le testait auprès de 20 clients. «Nous partagerons davantage d’informations sur les prix et les détails dans les mois à venir.»

    Microsoft réplique ainsi à Google, qui a annoncé en début de semaine l’intégration de l’IA dans ses services Google Cloud et Google Workspace, notamment dans Gmail, Docs, Sheets et Meet.

    La firme dirigée par Satya Nadella a profité d’un autre espace privilégié pour exploiter GPT-4. Elle a introduit des suggestions d’écriture alimentées par l’IA sur LinkedIn, réseau professionnel qui lui appartient. Les clients de sa version payante pourront se contenter de donner des faits en vrac de leur parcours, l’outil se chargeant de mettre le tout sous une forme attrayante. «En faisant le gros du travail pour vous, l’outil vous fait gagner du temps et de l’énergie tout en conservant votre voix et votre style uniques», assure la société.

    La voracité en puissance de calcul de ces nouveaux outils d’intelligence artificielle a contraint Microsoft à appliquer des mesures de restriction dans ses différentes équipes de développement, selon TheInformation. Et la pénurie de matériel affecte même des clients de Microsoft y accédant via son service cloud Azure. Sans compter que GPT-4 est devenu une fonctionnalité à part entière du moteur de recherche Bing, Microsoft ayant commencé à renoncer à exiger des utilisateurs qu’ils passent par une liste d’attente pour y accéder via bing.com/new.

    Source: https://www.20min.ch/fr/story/microsoft-dote-sa-suite-office-dun-compagnon-dope-a-lia-791141417314

  • 0 Votes
    10 Messages
    145 Vues

    @Violence c’est foutu, on est en plein dedans et y’en aura partout maintenant

  • 1 Votes
    1 Messages
    62 Vues

    Les choses bougent à la vitesse de l’éclair dans AI Land. Vendredi, un développeur de logiciels nommé Georgi Gerganov a créé un outil appelé “llama.cpp” qui peut exécuter le nouveau modèle de langage d’IA de classe GPT-3 de Meta, LLaMA , localement sur un ordinateur portable Mac et aussi sous Windows également. Ensuite, quelqu’un l’a montré en cours d’exécution sur un téléphone Pixel 6, puis est venu un Raspberry Pi (bien que fonctionnant très lentement).

    Ce qui arrivera la semaine prochaine, personne ne le sait.

    Depuis le lancement de ChatGPT, certaines personnes ont été frustrées par les limites intégrées du modèle d’IA qui l’empêchent de discuter de sujets qu’OpenAI a jugés sensibles. Ainsi a commencé le rêve - dans certains milieux - d’un grand modèle de langage open source (LLM) que n’importe qui pourrait exécuter localement sans censure et sans payer de frais d’API à OpenAI.

    Des solutions open source existent (comme GPT-J), mais elles nécessitent beaucoup de RAM GPU et d’espace de stockage. D’autres alternatives open source ne pourraient pas se vanter de performances de niveau GPT-3 sur du matériel grand public facilement disponible.

    LLaMA, un LLM disponible dans des tailles de paramètres allant de 7B à 65B (c’est-à-dire “Bilions” en Anglais, comme dans “milliards de paramètres”, qui sont des nombres à virgule flottante stockés dans des matrices qui représentent ce que le modèle “sait”). LLaMA a fait une affirmation captivante : que ses modèles de plus petite taille pourraient correspondre au GPT-3 d’OpenAI , le modèle fondamental qui alimente ChatGPT, dans la qualité et la vitesse de sa sortie. Il n’y avait qu’un seul problème - Meta a publié le code open source LLaMA, mais il a réservé les données (les “connaissances” formées stockées dans un réseau de neurones) pour les chercheurs qualifiés uniquement.

    Les restrictions de Meta sur LLaMA n’ont pas duré longtemps, car le 2 mars, quelqu’un a divulgué les données LLaMA sur BitTorrent. Depuis lors, il y a eu une explosion de développement autour de LLaMA. Le chercheur indépendant en intelligence artificielle Simon Willison a comparé cette situation à une sortie de Stable Diffusion, un modèle de synthèse d’images open source lancé en août dernier (https://planete-warez.net/topic/3147/ia-stable-diffusion-ui-l-ia-auto-hébergée-pour-créer-des-images). Voici ce qu’il a écrit dans un article sur son blog :

    J’ai l’impression que cet événement de Stable Diffusion en août a déclenché toute une nouvelle vague d’intérêt pour l’IA générative, qui a ensuite été poussée à l’extrême par la sortie de ChatGPT fin novembre.

    Ce moment de diffusion stable se reproduit en ce moment, pour les grands modèles de langage, la technologie derrière ChatGPT elle-même. Ce matin, j’ai exécuté pour la première fois un modèle de langage de classe GPT-3 sur mon ordinateur portable personnel !

    Les trucs d’IA étaient déjà bizarres. C’est sur le point de devenir beaucoup plus bizarre.

    En règle générale, l’exécution de GPT-3 nécessite plusieurs A100 (de plus, les données de GPT-3 ne sont pas publiques), mais LLaMA a fait des vagues, car il pouvait fonctionner sur un seul GPU grand public costaud. Et maintenant, avec des optimisations qui réduisent la taille du modèle à l’aide d’une technique appelée quantification, LLaMA peut fonctionner sur un Mac M1 ou un GPU grand public Nvidia moindre.

    Les choses évoluent si vite qu’il est parfois difficile de suivre les derniers développements. (En ce qui concerne le rythme de progression de l’IA, un collègue journaliste de l’IA a déclaré à Ars : "C’est comme ces vidéos de chiens où vous renversez une caisse de balles de tennis dessus. [Ils] ne savent pas où chasser en premier et se perdent dans la confusion. ")

    Par exemple, voici une liste d’événements notables liés à LLaMA basée sur une chronologie que Willison a présentée dans un commentaire de Hacker News :

    24 février 2023 : Meta AI annonce LLaMA. 2 mars 2023 : Quelqu’un divulgue les modèles LLaMA via BitTorrent. 10 mars 2023 : Georgi Gerganov crée llama.cpp , qui peut fonctionner sur un Mac M1. 11 mars 2023 : Artem Andreenko exécute LLaMA 7B (lentement) sur un Raspberry Pi 4 , 4 Go de RAM, 10 sec/token. 12 mars 2023 : LLaMA 7B exécuté sur NPX, un outil d’exécution node.js. 13 mars 2023 : quelqu’un fait fonctionner llama.cpp sur un téléphone Pixel 6 , également très lentement. 13 mars 2023 : Stanford lance Alpaca 7B d’OpenAI text-davinci-003 mais fonctionne sur un matériel beaucoup moins puissant.

    Après avoir obtenu nous-mêmes les données LLaMA, nous avons suivi les instructions de Willison et avons fait fonctionner la version des paramètres 7B sur un Macbook Air M1, et elle fonctionne à une vitesse raisonnable. Vous l’appelez comme un script sur la ligne de commande avec une invite, et LLaMA fait de son mieux pour le terminer de manière raisonnable.

    329bbdd1-3dc7-474f-b41e-9a434a8aa8e9-image.png
    Une capture d’écran de LLaMA 7B en action sur un MacBook Air exécutant llama.cpp.

    Reste la question de savoir dans quelle mesure la quantification affecte la qualité de la sortie. Lors de nos tests, LLaMA 7B réduit à la quantification 4 bits était très impressionnant pour fonctionner sur un MacBook Air, mais toujours pas à la hauteur de ce que vous pourriez attendre de ChatGPT. Il est tout à fait possible que de meilleures techniques d’incitation génèrent de meilleurs résultats.

    De plus, les optimisations et les ajustements sont rapides lorsque tout le monde a la main sur le code et les données, même si LLaMA est toujours aux prises avec des assez restrictives conditions d’utilisation La sortie d’Alpaca aujourd’hui par Stanford prouve qu’un réglage fin (entraînement supplémentaire avec un objectif spécifique en tête) peut améliorer les performances, et il est encore tôt après la sortie de LLaMA.

    Au moment d’écrire ces lignes, l’exécution de LLaMA sur un Mac reste un exercice assez technique. Vous devez installer Python et Xcode et être familiarisé avec le travail en ligne de commande. Willison a de bonnes instructions étape par étape pour tous ceux qui souhaitent l’essayer. Mais cela pourrait bientôt changer à mesure que les développeurs continuent de coder.

    Quant aux implications d’avoir cette technologie dans la nature, personne ne le sait encore. Alors que certains s’inquiètent de l’impact de l’IA en tant qu’outil de spam et de désinformation, Willison déclare : “Cela ne sera pas inventé, donc je pense que notre priorité devrait être de trouver les moyens les plus constructifs possibles de l’utiliser.”

    À l’heure actuelle, notre seule garantie est que les choses vont changer rapidement.

    Source: https://arstechnica.com/information-technology/2023/03/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi/

  • 0 Votes
    2 Messages
    62 Vues

    La créature ressemble à son créateur… Tant qu’il est sur un même site physique, on peut toujours le débrancher… Comme je l’ai dit sur un autre post “C’est à quelle date que Skynet prend le contrôle déjà?”

  • 2 Votes
    4 Messages
    99 Vues

    @Aurel a dit dans Les hackers détournent déjà ChatGPT pour développer des logiciels malveillants :

    P.S. Ce post juste pour maintenir mon compte actif car j’ai lu quelque part que sans participation dans un délai donné, il serait inactif. @Raccoon

    Euh tout simplement non @Aurel 🙂

  • 1 Votes
    4 Messages
    89 Vues
    ChatGPT : le virage lucratif d’OpenAI, le laboratoire qui voulait “protéger l’humanité”

    Fondée pour “protéger l’humanité contre les dangers de l’IA”, et concurrencer le cerveau humain, l’organisation de recherche s’est peu à peu débarrassée de ses garde-fous éthiques et philantropiques.

    Combien étaient-ils à croire en OpenAI, ce jour-là ? Nous sommes en mai 2019, lors de l’enregistrement de StrictlyVC, une émission consacrée à la Silicon Valley. Devant un public d’initiés, Sam Altman, le président de l’entreprise, s’empêtre. Encore méconnue, sa structure, qui veut construire la première IA aussi intelligente que l’homme, vient de passer “à but lucratif”. Un tournant. Mais pour l’heure, OpenAI “n’a jamais généré de revenu” et n’a “aucune idée de comment faire”, confesse Altman. Il ajoute : “On demandera à notre IA”. Ses auditeurs rient. Etait-il sérieux ?

    Trois ans et demi plus tard, les machines d’OpenAI n’ont pas atteint un tel niveau. Mais l’entreprise a réussi à concevoir un système intelligent, en mesure d’écrire de sommaires mais convaincants discours, pitchs ou poésies. En test gratuit depuis fin 2022, ChatGPT a déjà acquis plusieurs millions d’utilisateurs, et devrait intégrer Bing, le moteur de recherche de Microsoft. Son équivalent pour l’image, Dall-E 2, fait patienter un million de clients sur liste d’attente. Les abonnements à ces outils devraient rapporter un milliard de dollars en 2024, selon l’organisation qui, à ses débuts, se voulait… philanthropique.

    Source: https://www.lexpress.fr/economie/high-tech/chatgpt-le-virage-lucratif-dopenai-le-laboratoire-qui-voulait-proteger-lhumanite-FERMX5QNMVFLRFE3A45T3JF7KU/