• 1 Votes
    4 Messages
    91 Vues

    D’un autre côté, on échange un poison contre un autre…

    Les personnes cultivées à l’esprit critique et non prédatrices, il n’y en a déjà pas beaucoup, alors submergées par des décérébrés, ce n’est pas un avenir qui chante.

    Remplacez les zombies d’un film d’horreur par la “masse” et vous aurez votre vision de l’avenir.

  • 0 Votes
    2 Messages
    46 Vues

    @duJambon
    Tiens, ils sont où les grands défenseurs de la planète ?
    Ils n’arrêtent pas de gueuler (avec raison) sur nos trop grandes consommations d’énergie mais en même temps ça s"extasie sur les performances de ces IA et là, c’est le silence radio parce que ça les intéresse…
    Encore une fois, c’est l’incohérence la plus totale…
    Bonne journée à toi…

  • 0 Votes
    3 Messages
    99 Vues

    @Orphancia ca on va en bouffer de toute façon

  • 0 Votes
    1 Messages
    46 Vues

    Apple semble être la seule entreprise à ne pas s’intéresser outre mesure aux conséquences de la montée en puissance ChatGPT. Pendant que Google et Microsoft multiplient les projets pour ravir la vedette à OpenAI, la firme de Cupertino brille par son silence.

    17522d59-f4a0-4f3e-a5bd-01585b870337-image.png

    Mais les choses pourraient très prochainement commencer par bouger du côté de la firme et principalement pour son assistant Siri. Lors du sommet sur l’IA organisé par l’entreprise le mois dernier, de nombreuses informations ont indiqué que plusieurs de ses ingénieurs, y compris des membres de l’équipe Siri, testaient des concepts générateurs de langage. Ce qui voudrait finalement dire qu’Apple n’est pas si désintéressé par l’IA générative comme on l’aurait cru.

    Connue pour être une marque avant-gardiste, Apple a donné l’impression à de nombreux observateurs qu’elle ne comptait pas (encore) se lancer dans la course à l’IA. Pour preuve, la société n’a jusque-là pas évoqué un projet grandeur nature dans le domaine de l’IA générative.

    Toutefois, comme le rapporte à présent BGR, la donne pourrait changer. Pour marquer son entrée sur ce nouveau marché, Apple prévoirait une refonte de son assistant Siri. Lancée il y a de cela dix ans, cette intelligence artificielle n’a que faiblement évolué.

    Elle aura certes, comme Chat GPT le fait actuellement, donné des idées au secteur avec l’arrivée sur le marché de Google Assistant et d’Amazon Alexa. Néanmoins, ses fonctions premières comme aider les utilisateurs à allumer ou éteindre les lumières, créer des rappels ou répondre à des appels paraissent aujourd’hui dépassées.

    Ainsi, à l’ère actuelle où l’IA générative bat tous les records d’audience dans les médias, le bon sens souhaiterait qu’Apple réinvente Siri. Mais cela ne sera pas une tâche facile. En effet, comme le souligne John Burkey, ancien ingénieur ayant travaillé sur l’assistant virtuel, Siri présente une « conception encombrante qui rendait l’ajout de nouvelles fonctionnalités fastidieux ».

    Comme sus évoqué, l’intégration de nouvelles fonctionnalités de type Chat GPT dans Siri ne sera pas une mince affaire. Cela ne remet toutefois pas en doute le savoir-faire ni le génie des ingénieurs de la société. Mais la potentielle mue de Siri pourrait bien se heurter à sa propre conception, qui aujourd’hui se révèle être un gros handicap.

    En effet, si l’on se réfère aux propos de John Burkey, les vastes connaissances de Siri en ont fait « une grosse boule de neige, car si quelqu’un veut ajouter un mot à la base de données de Siri, il va dans une grosse pile ». L’ingénieur chargé entre-temps d’améliorer l’assistant virtuel, en 2014, confesse par là s’être heurté à la complexité de l’architecture de Siri.

    Les ingénieurs actuels, s’ils tiennent à réussir ce pari, devront donc se frotter à l’importante base de données de Siri. Celle-ci contiendrait une liste impressionnante de mots dans près de deux douzaines de langues. À l’évidence, le chantier s’annonce titanesque, car il faudrait reconstruire de fond en comble la base de données de Siri.

    Dans tous les cas, il est déjà heureux de savoir que chez Apple, on travaille activement à l’amélioration de Siri afin qu’il puisse s’imprégner plus facilement du contexte dans lequel il est appelé à évoluer. Cela devrait, in fine, offrir aux utilisateurs des conversations dignes de ce nom.

    Sources: https://www.fredzone.org/lassistant-virtuel-dapple-pourrait-a-lavenir-integrer-des-fonctionnalites-de-type-chatgpt-rcj753
    et: https://bgr.com/tech/apple-engineers-are-testing-chatgpt-like-features-for-siri/

  • 0 Votes
    10 Messages
    183 Vues

    @Violence c’est foutu, on est en plein dedans et y’en aura partout maintenant

  • 1 Votes
    1 Messages
    73 Vues

    Les choses bougent à la vitesse de l’éclair dans AI Land. Vendredi, un développeur de logiciels nommé Georgi Gerganov a créé un outil appelé “llama.cpp” qui peut exécuter le nouveau modèle de langage d’IA de classe GPT-3 de Meta, LLaMA , localement sur un ordinateur portable Mac et aussi sous Windows également. Ensuite, quelqu’un l’a montré en cours d’exécution sur un téléphone Pixel 6, puis est venu un Raspberry Pi (bien que fonctionnant très lentement).

    Ce qui arrivera la semaine prochaine, personne ne le sait.

    Depuis le lancement de ChatGPT, certaines personnes ont été frustrées par les limites intégrées du modèle d’IA qui l’empêchent de discuter de sujets qu’OpenAI a jugés sensibles. Ainsi a commencé le rêve - dans certains milieux - d’un grand modèle de langage open source (LLM) que n’importe qui pourrait exécuter localement sans censure et sans payer de frais d’API à OpenAI.

    Des solutions open source existent (comme GPT-J), mais elles nécessitent beaucoup de RAM GPU et d’espace de stockage. D’autres alternatives open source ne pourraient pas se vanter de performances de niveau GPT-3 sur du matériel grand public facilement disponible.

    LLaMA, un LLM disponible dans des tailles de paramètres allant de 7B à 65B (c’est-à-dire “Bilions” en Anglais, comme dans “milliards de paramètres”, qui sont des nombres à virgule flottante stockés dans des matrices qui représentent ce que le modèle “sait”). LLaMA a fait une affirmation captivante : que ses modèles de plus petite taille pourraient correspondre au GPT-3 d’OpenAI , le modèle fondamental qui alimente ChatGPT, dans la qualité et la vitesse de sa sortie. Il n’y avait qu’un seul problème - Meta a publié le code open source LLaMA, mais il a réservé les données (les “connaissances” formées stockées dans un réseau de neurones) pour les chercheurs qualifiés uniquement.

    Les restrictions de Meta sur LLaMA n’ont pas duré longtemps, car le 2 mars, quelqu’un a divulgué les données LLaMA sur BitTorrent. Depuis lors, il y a eu une explosion de développement autour de LLaMA. Le chercheur indépendant en intelligence artificielle Simon Willison a comparé cette situation à une sortie de Stable Diffusion, un modèle de synthèse d’images open source lancé en août dernier (https://planete-warez.net/topic/3147/ia-stable-diffusion-ui-l-ia-auto-hébergée-pour-créer-des-images). Voici ce qu’il a écrit dans un article sur son blog :

    J’ai l’impression que cet événement de Stable Diffusion en août a déclenché toute une nouvelle vague d’intérêt pour l’IA générative, qui a ensuite été poussée à l’extrême par la sortie de ChatGPT fin novembre.

    Ce moment de diffusion stable se reproduit en ce moment, pour les grands modèles de langage, la technologie derrière ChatGPT elle-même. Ce matin, j’ai exécuté pour la première fois un modèle de langage de classe GPT-3 sur mon ordinateur portable personnel !

    Les trucs d’IA étaient déjà bizarres. C’est sur le point de devenir beaucoup plus bizarre.

    En règle générale, l’exécution de GPT-3 nécessite plusieurs A100 (de plus, les données de GPT-3 ne sont pas publiques), mais LLaMA a fait des vagues, car il pouvait fonctionner sur un seul GPU grand public costaud. Et maintenant, avec des optimisations qui réduisent la taille du modèle à l’aide d’une technique appelée quantification, LLaMA peut fonctionner sur un Mac M1 ou un GPU grand public Nvidia moindre.

    Les choses évoluent si vite qu’il est parfois difficile de suivre les derniers développements. (En ce qui concerne le rythme de progression de l’IA, un collègue journaliste de l’IA a déclaré à Ars : "C’est comme ces vidéos de chiens où vous renversez une caisse de balles de tennis dessus. [Ils] ne savent pas où chasser en premier et se perdent dans la confusion. ")

    Par exemple, voici une liste d’événements notables liés à LLaMA basée sur une chronologie que Willison a présentée dans un commentaire de Hacker News :

    24 février 2023 : Meta AI annonce LLaMA. 2 mars 2023 : Quelqu’un divulgue les modèles LLaMA via BitTorrent. 10 mars 2023 : Georgi Gerganov crée llama.cpp , qui peut fonctionner sur un Mac M1. 11 mars 2023 : Artem Andreenko exécute LLaMA 7B (lentement) sur un Raspberry Pi 4 , 4 Go de RAM, 10 sec/token. 12 mars 2023 : LLaMA 7B exécuté sur NPX, un outil d’exécution node.js. 13 mars 2023 : quelqu’un fait fonctionner llama.cpp sur un téléphone Pixel 6 , également très lentement. 13 mars 2023 : Stanford lance Alpaca 7B d’OpenAI text-davinci-003 mais fonctionne sur un matériel beaucoup moins puissant.

    Après avoir obtenu nous-mêmes les données LLaMA, nous avons suivi les instructions de Willison et avons fait fonctionner la version des paramètres 7B sur un Macbook Air M1, et elle fonctionne à une vitesse raisonnable. Vous l’appelez comme un script sur la ligne de commande avec une invite, et LLaMA fait de son mieux pour le terminer de manière raisonnable.

    329bbdd1-3dc7-474f-b41e-9a434a8aa8e9-image.png
    Une capture d’écran de LLaMA 7B en action sur un MacBook Air exécutant llama.cpp.

    Reste la question de savoir dans quelle mesure la quantification affecte la qualité de la sortie. Lors de nos tests, LLaMA 7B réduit à la quantification 4 bits était très impressionnant pour fonctionner sur un MacBook Air, mais toujours pas à la hauteur de ce que vous pourriez attendre de ChatGPT. Il est tout à fait possible que de meilleures techniques d’incitation génèrent de meilleurs résultats.

    De plus, les optimisations et les ajustements sont rapides lorsque tout le monde a la main sur le code et les données, même si LLaMA est toujours aux prises avec des assez restrictives conditions d’utilisation La sortie d’Alpaca aujourd’hui par Stanford prouve qu’un réglage fin (entraînement supplémentaire avec un objectif spécifique en tête) peut améliorer les performances, et il est encore tôt après la sortie de LLaMA.

    Au moment d’écrire ces lignes, l’exécution de LLaMA sur un Mac reste un exercice assez technique. Vous devez installer Python et Xcode et être familiarisé avec le travail en ligne de commande. Willison a de bonnes instructions étape par étape pour tous ceux qui souhaitent l’essayer. Mais cela pourrait bientôt changer à mesure que les développeurs continuent de coder.

    Quant aux implications d’avoir cette technologie dans la nature, personne ne le sait encore. Alors que certains s’inquiètent de l’impact de l’IA en tant qu’outil de spam et de désinformation, Willison déclare : “Cela ne sera pas inventé, donc je pense que notre priorité devrait être de trouver les moyens les plus constructifs possibles de l’utiliser.”

    À l’heure actuelle, notre seule garantie est que les choses vont changer rapidement.

    Source: https://arstechnica.com/information-technology/2023/03/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi/

  • 1 Votes
    3 Messages
    82 Vues

    @duJambon

    Pour les autres pays, ils ont confié la tâche à l’IA de Google, qui s’en acquitte très bien.

  • 5 Votes
    14 Messages
    401 Vues

    Merci 🙂

  • 1 Votes
    1 Messages
    44 Vues

    Récemment, une IA a réussi à décrypter le code mécanique de l’ADN. Ce qui reste impossible pour l’intelligence humaine. Et cet exploit n’est rien à côté de ce qu’est capable de réaliser la nouvelle technologie mise au point par Microsoft. Intitulée VALL-E, elle est capable de reproduire n’importe quel son en seulement trois secondes.

    Après avoir dévoilé précédemment des modèles d’IA capables de converser avec une personne, Microsoft est revenue cette fois-ci avec une technologie capable de reproduire la voix de personnes vivantes. Pour ce faire, l’outil est capable de parvenir à des résultats satisfaisants en se servant simplement d’un enregistrement de trois secondes provenant de la voix à reproduire.

    Ce qui suffit généralement à reproduire les émotions et les intonations de la personne dont il s’approprie la voix. Ce qui lui permet de créer à sa guise des enregistrements dans lesquels on retrouve même des mots que l’intéressé n’a jamais prononcés.

    Il faut dire qu’aucune intelligence artificielle n’avait jamais réussi à faire aussi mieux que VALL-E dans ce domaine. Pour atteindre ce niveau, l’outil a bénéficié d’un entrainement à partir de 60 000 heures de données vocales. Toutefois, l’IA n’est pas encore parfaite selon un article de l’université Cornell. Ce dernier a réussi à utiliser la technologie pour reproduire plusieurs échantillons de voix.

    Si certains sont très naturels, d’autres par contre sont trop robotiques. Ce qui pourrait néanmoins suffire pour le nouveau projet de livres audio narrés par l’IA d’Apple. Au grand dam des doubleurs de voix et des transcripteurs audio qui pourraient bientôt permettre leur travail.

    Les résultats obtenus grâce au VALL-E sont certes satisfaisants, mais sont encore loin d’être parfaits. À cet effet, Microsoft a indiqué qu’il travaillait à le rendre beaucoup plus performant.

    En attendant, on peut se demander si ce type de technologie ne va pas créer plus de problèmes qu’il n’en résout. Nul doute que les résultats que nous aurons grâce à eux dans les années seront proches de la perfection. De ce fait, s’ils tombent dans les mains de personnes mal intentionnées les conséquentes pourraient être terribles. Les faussaires pourraient l’utiliser par exemple pour se faire passer pour leurs victimes.

    Dans le monde de la politique, ils pourraient permettre à certains de faire dire à leurs adversaires de faux propos. On se souvient des deux citoyens russes qui avaient réussi à se faire passer au téléphone pour le président Emmanuel Macron afin de discuter sans problème avec le président polonais Andrzej Duda. Sans bien sûr parler des deepfakes qui font des dégâts immenses.

    Pour finir, il faut souligner que le VALL-E pose également des soucis de sécurité. Certaines entreprises, généralement les établissements financiers, se servent de la reconnaissance vocale pour contrôler l’identité des appelants. Si les voix générées par l’IA deviennent réalistes, elles pourraient sans aucun problème faire sauter ce type de verrou.

    Source: https://www.fredzone.org/nouvelle-ia-de-microsoft-415853

    Prochainement sur youtube: Dieu lui-même vous dit que la terre est plate.

  • 2 Votes
    6 Messages
    112 Vues

    @Pollux a dit dans Une action en justice vise la façon dont l’IA est conçue :

    Il me semble qu’en l’occurrence ce n’est pas tant Microsoft qui est en cause que le principe de machine learning.
    La question des droits d’auteurs est posée également à propos des IA générant des photos à partir d’autres photos.

    J’en ai parlé dans un autre topic, pour créer et utiliser une IA, il faut des données, beaucoup de données, Microsoft savait très bien ce qu’ils voulaient et ce qu’ils faisaient.

  • 1 Votes
    5 Messages
    160 Vues

    La Chine a beaucoup d’argent et les européens sont très cupides,donc les européens cèdent à la Chine leurs infrastructures stratégiques et voila comment la Chine fait main basse sur quelques-uns des plus grands ports européens…
    Petit à petit la Chine tisse la toile de sa route de la soie,mais évidemment ce n’est que du partenariat commercial et rien d’autre,c’est du gagnant/gagnant,c’est-à-dire … la Chine gagne deux fois.

  • 0 Votes
    7 Messages
    166 Vues

    Après le mariage virtuel, le divorce virtuel?
    Ca tombe bien pas besoin de pension alimentaire.

  • 1 Votes
    2 Messages
    141 Vues

    Faire des prédictions en physique sans connaitre la physique.

  • 0 Votes
    10 Messages
    327 Vues
    "Google construit la première Intelligence Artificielle forte, capable de combiner plusieurs tâches"

    La belle affaire ! Ma femme arrive à faire plusieurs tâches contrairement à moi :colgate: et on s’en vante pas nous qui venont de Strasbourg en germany… hein @Pollux :loool:

  • 1 Votes
    2 Messages
    184 Vues

    Et voila on arrive a un point ou les elites nous ont tellement montés les uns contre les autres que ca se balance sans vergogne

  • 1 Votes
    8 Messages
    285 Vues

    Le troisième oeil a besoin d’une consultation chez Afflelou :smile:

  • 1 Votes
    2 Messages
    146 Vues

    Skynet sort de ce corps d’ordinateur !

    Il va peut-être bientôt falloir inscrire les 3 lois d’Asimov dans les IA:

    Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.

    Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.

    Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième loi.

    Mais c’est loin d’être parfait, Asimov a passé pas mal d’années à décrire dans ses romans comment contourner ces lois.

    Souhaitons pour l’avenir plus de R. Daneel Olivaw que de Skynet.

  • 3 Votes
    3 Messages
    284 Vues

    Il ne suffit pas de connaître les concepts pour être capable de créer, de vraiment créer et d’exprimer une compréhension d’une manière artistique qui parle aux autres.

    La beauté, en particulier, est une chose qui exige de ressentir tout ce que la beauté transmet non seulement à vos yeux, mais aussi à votre être.

    Je pense que c’est quelque chose qu’elle ne peut pas encore faire.

    L’intelligence artificielle est assez capricieuse voir fantaisiste lorsqu’on lui demande de créer une scène un tant soit peu réaliste, et elle a certainement un penchant pour les interprétations surréalistes plus artistiques…

    Dernièrement, je me souviens avoir visionnée un clip vidéo avec Hiyao Miyazaki du Studio Ghibli.

    Dans cette vidéo, quelqu’un lui montre ce qu’une IA a réalisé en créant des mouvements pour un modèle humain, et son sentiment était plutôt percutant !

    La démonstration montrait à quoi ressemblerait le mouvement d’un corps utilisant sa tête comme une jambe, et les programmeurs étaient très fiers et confiants en disant “on pourrait utiliser cela pour un jeu vidéo de zombies”…^^

    Mais Miyazaki a répondu qu’il ressentait fortement que c’est une insulte à la vie elle-même, qu’il se sentait écœuré, et que la personne qui avait conçu cette expérience n’avait aucune idée de ce qu’était la douleur, car elle semblait affligeante et corporelle.

    Un petit conseil, vous feriez mieux de ne pas passer trop de temps avec ce genre d’intelligence artificielle, car elle essayera tôt ou tard de vous réduire en esclavage…