• 3 Votes
    9 Messages
    237 Vues

    perso voici mes créations… enfin, celles de mon ia :
    00019-993948132.png

    00016-1776305331.png

    00008-4166517086.png

  • 1 Votes
    6 Messages
    156 Vues

    @Ashura a dit dans J’ai créé un monstre : le père de l’IA quitte Google par peur de son invention :

    Il fallait y penser avant, c’est un problème connu depuis 30 ans, on savait que ca allait arriver

    Certes, mais comme le climat, ça arrive infiniment plus vite que prévu, et ça s’accélère…!

  • 2 Votes
    2 Messages
    66 Vues

    pour moi c’est un outil qui est tres bien pour les étudiants un peu comme une calculatrice

    bientot le brevet pour gépeté : https://www.presse-citron.net/le-sigle-gpt-sera-bientot-une-propriete-privee/

  • 0 Votes
    1 Messages
    75 Vues

    Dolly est un modèle d’IA gratuit et open source de type ChatGPT

    Dolly 2.0 pourrait déclencher une nouvelle vague de LLM entièrement open source similaire à ChatGPT.

    Mercredi, Databricks a publié Dolly 2.0, qui serait le premier modèle de langage large (LLM) open source suivant les instructions à usage commercial qui a été affiné sur un ensemble de données générées par l’homme. Cela pourrait servir de point de départ convaincant pour les concurrents homebrew ChatGPT.

    Databricks est une société américaine de logiciels d’entreprise fondée en 2013 par les créateurs d’ Apache Spark . Ils fournissent une plate-forme Web pour travailler avec Spark pour le Big Data et l’apprentissage automatique. En publiant Dolly, Databricks espère permettre aux organisations de créer et de personnaliser des LLM “sans payer pour l’accès à l’API ni partager de données avec des tiers”, selon le blog de lancement de Dolly .

    Dolly 2.0, son nouveau modèle de 12 milliards de paramètres, est basé sur la famille de modèles pythia d’EleutherAI et affiné exclusivement sur des données de formation (appelées “databricks-dolly-15k”) provenant des employés de Databricks. Ce calibrage lui donne des capacités plus conformes au ChatGPT d’OpenAI, qui est meilleur pour répondre aux questions et engager le dialogue en tant que chatbot qu’un LLM brut qui n’a pas été affiné.

    Dolly 1.0, sorti en mars, était confronté à des limitations concernant l’utilisation commerciale en raison des données de formation, qui contenaient la sortie de ChatGPT (grâce à Alpaca ) et étaient soumises aux conditions d’utilisation d’OpenAI. Pour résoudre ce problème, l’équipe de Databricks a cherché à créer un nouvel ensemble de données qui permettrait une utilisation commerciale.

    Pour ce faire, Databricks a organisé 13 000 démonstrations de comportement de suivi des instructions de la part de plus de 5 000 de ses employés entre mars et avril 2023. Pour inciter à la participation, ils ont organisé un concours et décrit sept tâches spécifiques pour la génération de données, y compris les questions-réponses ouvertes, les questions-réponses fermées. , extraction et synthèse d’informations de Wikipédia, brainstorming, classification et écriture créative.

    L’ensemble de données résultant, ainsi que les poids du modèle et le code de formation de Dolly, ont été publiés entièrement en open source sous une licence Creative Commons , permettant à quiconque d’utiliser, de modifier ou d’étendre l’ensemble de données à n’importe quelle fin, y compris des applications commerciales.

    En revanche, ChatGPT d’OpenAI est un modèle propriétaire qui oblige les utilisateurs à payer pour l’accès à l’API et à respecter des conditions de service spécifiques, ce qui limite potentiellement la flexibilité et les options de personnalisation pour les entreprises et les organisations. de Meta Le LLaMA , un modèle partiellement open source (avec des poids restreints) qui a récemment engendré une vague de produits dérivés après la fuite de ses poids sur BitTorrent, ne permet pas une utilisation commerciale.

    Sur Mastodon, le chercheur en intelligence artificielle Simon Willison a qualifié Dolly 2.0 de “très important”. Willison expérimente souvent des modèles de langage open source, dont Dolly . “L’une des choses les plus excitantes à propos de Dolly 2.0 est le jeu d’instructions de réglage fin, qui a été fabriqué à la main par 5 000 employés de Databricks et publié sous une licence CC”, a écrit Willison dans un toot Mastodon.

    Si la réaction enthousiaste au seul modèle LLaMA partiellement ouvert de Meta est une indication, Dolly 2.0 pourrait potentiellement déclencher une nouvelle vague de modèles de langage open source qui ne sont pas entravés par des limitations propriétaires ou des restrictions d’utilisation commerciale. réelle de Dolly soit encore connue Bien que la capacité de performance , d’autres améliorations pourraient permettre d’exécuter des LLM raisonnablement puissants sur des machines grand public locales.

    “Même si Dolly 2 n’est pas bon, je pense que nous verrons bientôt un tas de nouveaux projets utilisant ces données de formation”, a déclaré Willison à Ars. “Et certains d’entre eux pourraient produire quelque chose de vraiment utile.”

    Actuellement, les datas de Dolly sont disponibles sur Hugging Face, et l’ensemble de données databricks-dolly-15k se trouve sur GitHub.

    Source: https://arstechnica.com/information-technology/2023/04/a-really-big-deal-dolly-is-a-free-open-source-chatgpt-style-ai-model/

  • 3 Votes
    4 Messages
    190 Vues

    ChatGPT comme keygen, fallait y penser :hehe:

  • 2 Votes
    4 Messages
    120 Vues

    Et la pause, c’est vraiment par peur ou juste pour rattraper le retard de certaines sociétés ?

    De toute façon, ça se présente mal pour eux: https://planete-warez.net/topic/3473/sept-modèles-d-a-i-générative-en-open-source

  • 0 Votes
    4 Messages
    116 Vues

    @Violence je la trouve plus, je sais plus u je l’ai vu

  • 1 Votes
    4 Messages
    96 Vues

    D’un autre côté, on échange un poison contre un autre…

    Les personnes cultivées à l’esprit critique et non prédatrices, il n’y en a déjà pas beaucoup, alors submergées par des décérébrés, ce n’est pas un avenir qui chante.

    Remplacez les zombies d’un film d’horreur par la “masse” et vous aurez votre vision de l’avenir.

  • 0 Votes
    2 Messages
    57 Vues

    @duJambon
    Tiens, ils sont où les grands défenseurs de la planète ?
    Ils n’arrêtent pas de gueuler (avec raison) sur nos trop grandes consommations d’énergie mais en même temps ça s"extasie sur les performances de ces IA et là, c’est le silence radio parce que ça les intéresse…
    Encore une fois, c’est l’incohérence la plus totale…
    Bonne journée à toi…

  • 0 Votes
    3 Messages
    110 Vues

    @Orphancia ca on va en bouffer de toute façon

  • 0 Votes
    1 Messages
    57 Vues

    Apple semble être la seule entreprise à ne pas s’intéresser outre mesure aux conséquences de la montée en puissance ChatGPT. Pendant que Google et Microsoft multiplient les projets pour ravir la vedette à OpenAI, la firme de Cupertino brille par son silence.

    17522d59-f4a0-4f3e-a5bd-01585b870337-image.png

    Mais les choses pourraient très prochainement commencer par bouger du côté de la firme et principalement pour son assistant Siri. Lors du sommet sur l’IA organisé par l’entreprise le mois dernier, de nombreuses informations ont indiqué que plusieurs de ses ingénieurs, y compris des membres de l’équipe Siri, testaient des concepts générateurs de langage. Ce qui voudrait finalement dire qu’Apple n’est pas si désintéressé par l’IA générative comme on l’aurait cru.

    Connue pour être une marque avant-gardiste, Apple a donné l’impression à de nombreux observateurs qu’elle ne comptait pas (encore) se lancer dans la course à l’IA. Pour preuve, la société n’a jusque-là pas évoqué un projet grandeur nature dans le domaine de l’IA générative.

    Toutefois, comme le rapporte à présent BGR, la donne pourrait changer. Pour marquer son entrée sur ce nouveau marché, Apple prévoirait une refonte de son assistant Siri. Lancée il y a de cela dix ans, cette intelligence artificielle n’a que faiblement évolué.

    Elle aura certes, comme Chat GPT le fait actuellement, donné des idées au secteur avec l’arrivée sur le marché de Google Assistant et d’Amazon Alexa. Néanmoins, ses fonctions premières comme aider les utilisateurs à allumer ou éteindre les lumières, créer des rappels ou répondre à des appels paraissent aujourd’hui dépassées.

    Ainsi, à l’ère actuelle où l’IA générative bat tous les records d’audience dans les médias, le bon sens souhaiterait qu’Apple réinvente Siri. Mais cela ne sera pas une tâche facile. En effet, comme le souligne John Burkey, ancien ingénieur ayant travaillé sur l’assistant virtuel, Siri présente une « conception encombrante qui rendait l’ajout de nouvelles fonctionnalités fastidieux ».

    Comme sus évoqué, l’intégration de nouvelles fonctionnalités de type Chat GPT dans Siri ne sera pas une mince affaire. Cela ne remet toutefois pas en doute le savoir-faire ni le génie des ingénieurs de la société. Mais la potentielle mue de Siri pourrait bien se heurter à sa propre conception, qui aujourd’hui se révèle être un gros handicap.

    En effet, si l’on se réfère aux propos de John Burkey, les vastes connaissances de Siri en ont fait « une grosse boule de neige, car si quelqu’un veut ajouter un mot à la base de données de Siri, il va dans une grosse pile ». L’ingénieur chargé entre-temps d’améliorer l’assistant virtuel, en 2014, confesse par là s’être heurté à la complexité de l’architecture de Siri.

    Les ingénieurs actuels, s’ils tiennent à réussir ce pari, devront donc se frotter à l’importante base de données de Siri. Celle-ci contiendrait une liste impressionnante de mots dans près de deux douzaines de langues. À l’évidence, le chantier s’annonce titanesque, car il faudrait reconstruire de fond en comble la base de données de Siri.

    Dans tous les cas, il est déjà heureux de savoir que chez Apple, on travaille activement à l’amélioration de Siri afin qu’il puisse s’imprégner plus facilement du contexte dans lequel il est appelé à évoluer. Cela devrait, in fine, offrir aux utilisateurs des conversations dignes de ce nom.

    Sources: https://www.fredzone.org/lassistant-virtuel-dapple-pourrait-a-lavenir-integrer-des-fonctionnalites-de-type-chatgpt-rcj753
    et: https://bgr.com/tech/apple-engineers-are-testing-chatgpt-like-features-for-siri/

  • 0 Votes
    10 Messages
    210 Vues

    @Violence c’est foutu, on est en plein dedans et y’en aura partout maintenant

  • 1 Votes
    1 Messages
    82 Vues

    Les choses bougent à la vitesse de l’éclair dans AI Land. Vendredi, un développeur de logiciels nommé Georgi Gerganov a créé un outil appelé “llama.cpp” qui peut exécuter le nouveau modèle de langage d’IA de classe GPT-3 de Meta, LLaMA , localement sur un ordinateur portable Mac et aussi sous Windows également. Ensuite, quelqu’un l’a montré en cours d’exécution sur un téléphone Pixel 6, puis est venu un Raspberry Pi (bien que fonctionnant très lentement).

    Ce qui arrivera la semaine prochaine, personne ne le sait.

    Depuis le lancement de ChatGPT, certaines personnes ont été frustrées par les limites intégrées du modèle d’IA qui l’empêchent de discuter de sujets qu’OpenAI a jugés sensibles. Ainsi a commencé le rêve - dans certains milieux - d’un grand modèle de langage open source (LLM) que n’importe qui pourrait exécuter localement sans censure et sans payer de frais d’API à OpenAI.

    Des solutions open source existent (comme GPT-J), mais elles nécessitent beaucoup de RAM GPU et d’espace de stockage. D’autres alternatives open source ne pourraient pas se vanter de performances de niveau GPT-3 sur du matériel grand public facilement disponible.

    LLaMA, un LLM disponible dans des tailles de paramètres allant de 7B à 65B (c’est-à-dire “Bilions” en Anglais, comme dans “milliards de paramètres”, qui sont des nombres à virgule flottante stockés dans des matrices qui représentent ce que le modèle “sait”). LLaMA a fait une affirmation captivante : que ses modèles de plus petite taille pourraient correspondre au GPT-3 d’OpenAI , le modèle fondamental qui alimente ChatGPT, dans la qualité et la vitesse de sa sortie. Il n’y avait qu’un seul problème - Meta a publié le code open source LLaMA, mais il a réservé les données (les “connaissances” formées stockées dans un réseau de neurones) pour les chercheurs qualifiés uniquement.

    Les restrictions de Meta sur LLaMA n’ont pas duré longtemps, car le 2 mars, quelqu’un a divulgué les données LLaMA sur BitTorrent. Depuis lors, il y a eu une explosion de développement autour de LLaMA. Le chercheur indépendant en intelligence artificielle Simon Willison a comparé cette situation à une sortie de Stable Diffusion, un modèle de synthèse d’images open source lancé en août dernier (https://planete-warez.net/topic/3147/ia-stable-diffusion-ui-l-ia-auto-hébergée-pour-créer-des-images). Voici ce qu’il a écrit dans un article sur son blog :

    J’ai l’impression que cet événement de Stable Diffusion en août a déclenché toute une nouvelle vague d’intérêt pour l’IA générative, qui a ensuite été poussée à l’extrême par la sortie de ChatGPT fin novembre.

    Ce moment de diffusion stable se reproduit en ce moment, pour les grands modèles de langage, la technologie derrière ChatGPT elle-même. Ce matin, j’ai exécuté pour la première fois un modèle de langage de classe GPT-3 sur mon ordinateur portable personnel !

    Les trucs d’IA étaient déjà bizarres. C’est sur le point de devenir beaucoup plus bizarre.

    En règle générale, l’exécution de GPT-3 nécessite plusieurs A100 (de plus, les données de GPT-3 ne sont pas publiques), mais LLaMA a fait des vagues, car il pouvait fonctionner sur un seul GPU grand public costaud. Et maintenant, avec des optimisations qui réduisent la taille du modèle à l’aide d’une technique appelée quantification, LLaMA peut fonctionner sur un Mac M1 ou un GPU grand public Nvidia moindre.

    Les choses évoluent si vite qu’il est parfois difficile de suivre les derniers développements. (En ce qui concerne le rythme de progression de l’IA, un collègue journaliste de l’IA a déclaré à Ars : "C’est comme ces vidéos de chiens où vous renversez une caisse de balles de tennis dessus. [Ils] ne savent pas où chasser en premier et se perdent dans la confusion. ")

    Par exemple, voici une liste d’événements notables liés à LLaMA basée sur une chronologie que Willison a présentée dans un commentaire de Hacker News :

    24 février 2023 : Meta AI annonce LLaMA. 2 mars 2023 : Quelqu’un divulgue les modèles LLaMA via BitTorrent. 10 mars 2023 : Georgi Gerganov crée llama.cpp , qui peut fonctionner sur un Mac M1. 11 mars 2023 : Artem Andreenko exécute LLaMA 7B (lentement) sur un Raspberry Pi 4 , 4 Go de RAM, 10 sec/token. 12 mars 2023 : LLaMA 7B exécuté sur NPX, un outil d’exécution node.js. 13 mars 2023 : quelqu’un fait fonctionner llama.cpp sur un téléphone Pixel 6 , également très lentement. 13 mars 2023 : Stanford lance Alpaca 7B d’OpenAI text-davinci-003 mais fonctionne sur un matériel beaucoup moins puissant.

    Après avoir obtenu nous-mêmes les données LLaMA, nous avons suivi les instructions de Willison et avons fait fonctionner la version des paramètres 7B sur un Macbook Air M1, et elle fonctionne à une vitesse raisonnable. Vous l’appelez comme un script sur la ligne de commande avec une invite, et LLaMA fait de son mieux pour le terminer de manière raisonnable.

    329bbdd1-3dc7-474f-b41e-9a434a8aa8e9-image.png
    Une capture d’écran de LLaMA 7B en action sur un MacBook Air exécutant llama.cpp.

    Reste la question de savoir dans quelle mesure la quantification affecte la qualité de la sortie. Lors de nos tests, LLaMA 7B réduit à la quantification 4 bits était très impressionnant pour fonctionner sur un MacBook Air, mais toujours pas à la hauteur de ce que vous pourriez attendre de ChatGPT. Il est tout à fait possible que de meilleures techniques d’incitation génèrent de meilleurs résultats.

    De plus, les optimisations et les ajustements sont rapides lorsque tout le monde a la main sur le code et les données, même si LLaMA est toujours aux prises avec des assez restrictives conditions d’utilisation La sortie d’Alpaca aujourd’hui par Stanford prouve qu’un réglage fin (entraînement supplémentaire avec un objectif spécifique en tête) peut améliorer les performances, et il est encore tôt après la sortie de LLaMA.

    Au moment d’écrire ces lignes, l’exécution de LLaMA sur un Mac reste un exercice assez technique. Vous devez installer Python et Xcode et être familiarisé avec le travail en ligne de commande. Willison a de bonnes instructions étape par étape pour tous ceux qui souhaitent l’essayer. Mais cela pourrait bientôt changer à mesure que les développeurs continuent de coder.

    Quant aux implications d’avoir cette technologie dans la nature, personne ne le sait encore. Alors que certains s’inquiètent de l’impact de l’IA en tant qu’outil de spam et de désinformation, Willison déclare : “Cela ne sera pas inventé, donc je pense que notre priorité devrait être de trouver les moyens les plus constructifs possibles de l’utiliser.”

    À l’heure actuelle, notre seule garantie est que les choses vont changer rapidement.

    Source: https://arstechnica.com/information-technology/2023/03/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi/

  • 1 Votes
    3 Messages
    94 Vues

    @duJambon

    Pour les autres pays, ils ont confié la tâche à l’IA de Google, qui s’en acquitte très bien.

  • 5 Votes
    14 Messages
    441 Vues

    Merci 🙂

  • 1 Votes
    1 Messages
    53 Vues

    Récemment, une IA a réussi à décrypter le code mécanique de l’ADN. Ce qui reste impossible pour l’intelligence humaine. Et cet exploit n’est rien à côté de ce qu’est capable de réaliser la nouvelle technologie mise au point par Microsoft. Intitulée VALL-E, elle est capable de reproduire n’importe quel son en seulement trois secondes.

    Après avoir dévoilé précédemment des modèles d’IA capables de converser avec une personne, Microsoft est revenue cette fois-ci avec une technologie capable de reproduire la voix de personnes vivantes. Pour ce faire, l’outil est capable de parvenir à des résultats satisfaisants en se servant simplement d’un enregistrement de trois secondes provenant de la voix à reproduire.

    Ce qui suffit généralement à reproduire les émotions et les intonations de la personne dont il s’approprie la voix. Ce qui lui permet de créer à sa guise des enregistrements dans lesquels on retrouve même des mots que l’intéressé n’a jamais prononcés.

    Il faut dire qu’aucune intelligence artificielle n’avait jamais réussi à faire aussi mieux que VALL-E dans ce domaine. Pour atteindre ce niveau, l’outil a bénéficié d’un entrainement à partir de 60 000 heures de données vocales. Toutefois, l’IA n’est pas encore parfaite selon un article de l’université Cornell. Ce dernier a réussi à utiliser la technologie pour reproduire plusieurs échantillons de voix.

    Si certains sont très naturels, d’autres par contre sont trop robotiques. Ce qui pourrait néanmoins suffire pour le nouveau projet de livres audio narrés par l’IA d’Apple. Au grand dam des doubleurs de voix et des transcripteurs audio qui pourraient bientôt permettre leur travail.

    Les résultats obtenus grâce au VALL-E sont certes satisfaisants, mais sont encore loin d’être parfaits. À cet effet, Microsoft a indiqué qu’il travaillait à le rendre beaucoup plus performant.

    En attendant, on peut se demander si ce type de technologie ne va pas créer plus de problèmes qu’il n’en résout. Nul doute que les résultats que nous aurons grâce à eux dans les années seront proches de la perfection. De ce fait, s’ils tombent dans les mains de personnes mal intentionnées les conséquentes pourraient être terribles. Les faussaires pourraient l’utiliser par exemple pour se faire passer pour leurs victimes.

    Dans le monde de la politique, ils pourraient permettre à certains de faire dire à leurs adversaires de faux propos. On se souvient des deux citoyens russes qui avaient réussi à se faire passer au téléphone pour le président Emmanuel Macron afin de discuter sans problème avec le président polonais Andrzej Duda. Sans bien sûr parler des deepfakes qui font des dégâts immenses.

    Pour finir, il faut souligner que le VALL-E pose également des soucis de sécurité. Certaines entreprises, généralement les établissements financiers, se servent de la reconnaissance vocale pour contrôler l’identité des appelants. Si les voix générées par l’IA deviennent réalistes, elles pourraient sans aucun problème faire sauter ce type de verrou.

    Source: https://www.fredzone.org/nouvelle-ia-de-microsoft-415853

    Prochainement sur youtube: Dieu lui-même vous dit que la terre est plate.

  • 2 Votes
    6 Messages
    145 Vues

    @Pollux a dit dans Une action en justice vise la façon dont l’IA est conçue :

    Il me semble qu’en l’occurrence ce n’est pas tant Microsoft qui est en cause que le principe de machine learning.
    La question des droits d’auteurs est posée également à propos des IA générant des photos à partir d’autres photos.

    J’en ai parlé dans un autre topic, pour créer et utiliser une IA, il faut des données, beaucoup de données, Microsoft savait très bien ce qu’ils voulaient et ce qu’ils faisaient.

  • 1 Votes
    5 Messages
    175 Vues

    La Chine a beaucoup d’argent et les européens sont très cupides,donc les européens cèdent à la Chine leurs infrastructures stratégiques et voila comment la Chine fait main basse sur quelques-uns des plus grands ports européens…
    Petit à petit la Chine tisse la toile de sa route de la soie,mais évidemment ce n’est que du partenariat commercial et rien d’autre,c’est du gagnant/gagnant,c’est-à-dire … la Chine gagne deux fois.

  • 0 Votes
    7 Messages
    190 Vues

    Après le mariage virtuel, le divorce virtuel?
    Ca tombe bien pas besoin de pension alimentaire.

  • 1 Votes
    2 Messages
    146 Vues

    Faire des prédictions en physique sans connaitre la physique.