• 1 Votes
    1 Messages
    33 Vues

    Un développeur suggère de passer à Jitsi

    Zoom, la plateforme de visioconférence populaire, a récemment mis à jour ses conditions d’utilisation pour permettre l’utilisation des données des utilisateurs pour entraîner et améliorer ses algorithmes et modèles d’intelligence artificielle (IA). Cette décision a suscité des critiques et des inquiétudes de la part des défenseurs de la vie privée et des experts juridiques, qui estiment qu’elle constitue une atteinte aux droits et au consentement des utilisateurs. Face à cette situation, certains utilisateurs ont choisi de se tourner vers des offres concurrentes, parmi lesquelles Jitsi.

    Selon les nouvelles conditions d’utilisation, Zoom se réserve le droit de collecter, de stocker, de traiter, de partager et d’utiliser les données générées par le service (Service Generated Data), qui comprennent les données de télémétrie, les données d’utilisation du produit, les données de diagnostic et d’autres données similaires liées à l’utilisation des services ou du logiciel de Zoom par les utilisateurs. Zoom conserve tous les droits sur ces données et peut les utiliser pour tout objectif, dans la mesure et de la manière permises par la loi applicable.

    Ce qui soulève l’alarme, c’est la mention explicite du droit de Zoom d’utiliser ces données pour le machine learning et l’IA, y compris l’entraînement et le réglage des algorithmes et des modèles. Cela permet à Zoom d’entraîner son IA sur le contenu des clients sans offrir la possibilité de s’y opposer, une décision qui devrait susciter un débat important sur la vie privée et le consentement des utilisateurs.

    Citation Envoyé par Zoom

    10.2 Données générées par le service ; consentement à l’utilisation. Le Contenu client ne comprend aucune donnée de télémétrie, donnée d’utilisation des produits ou donnée de diagnostic, ni aucun contenu ou donnée similaire collecté ou généré par Zoom en lien avec votre utilisation des Services ou des Logiciels ou avec celle de vos Utilisateurs finaux (les « Données générées par le service »). En vertu de l’accord conclu entre vous et Zoom, tous les droits, titres et intérêts relatifs aux Données générées par le service, ainsi que tous les Droits exclusifs y afférents, sont exclusivement détenus et conservés par Zoom. Vous acceptez que Zoom compile et puisse compiler des Données générées par le service basées sur le Contenu client et l’utilisation des Services et des Logiciels. Vous consentez à l’accès, à l’utilisation, à la collecte, à la création, à la modification, à la distribution, au traitement, au partage, à la maintenance et au stockage des Données générées par le Service à quelque fin que ce soit, dans la mesure et de la manière autorisée par la Loi applicable, y compris à des fins de développement de produits et de services, de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique ou d’intelligence artificielle (y compris à des fins d’entraînement et de réglage des algorithmes et des modèles), de formation, de test et d’amélioration des Services, des Logiciels ou d’autres produits, services et logiciels de Zoom, ou de toute combinaison de ceux-ci, et sauf disposition contraire du présent Accord. Dans le cadre de ce qui précède, si, pour quelque raison que ce soit, Zoom ne bénéficie pas de certains droits sur lesdites Données générées par le Service en vertu de la présente Section 10.2 ou sauf disposition contraire du présent Accord, vous cédez et acceptez par les présentes de céder à Zoom en votre nom, inconditionnellement et irrévocablement, et vous veillerez à ce que vos Utilisateurs finaux cèdent et acceptent de céder à Zoom, inconditionnellement et irrévocablement, tous les droits, titres et intérêts liés aux Données générées par le Service, y compris tous les Droits exclusifs y afférents.

    En outre, selon la section 10.4 des nouvelles conditions d’utilisation, Zoom s’est assuré une licence perpétuelle, mondiale, non exclusive, libre de droits, sous-licenciable et transférable pour redistribuer, publier, accéder, utiliser, stocker, transmettre, examiner, divulguer, préserver, extraire, modifier, reproduire, partager, utiliser, afficher, copier, distribuer, traduire, transcrire, créer des œuvres dérivées et traiter le contenu des clients (Customer Content). Zoom justifie ces actions comme nécessaires pour fournir des services aux clients, soutenir les services et améliorer ses services, son logiciel ou d’autres produits.

    Citation Envoyé par Zoom

    10.4 Octroi de licence par le client. Vous acceptez d’octroyer et octroyez à Zoom par les présentes une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence, transférable et entièrement libérée dans le monde entier, ainsi que tous les autres droits requis ou nécessaires pour redistribuer, publier, importer, utiliser, stocker, transmettre, consulter, divulguer, conserver, extraire, modifier, reproduire, partager, utiliser, présenter, copier, distribuer, traduire, transcrire et traiter le Contenu client, et pour accéder à ce dernier, en créer des œuvres dérivées ou exécuter toutes les actions s’y rapportant : (i) de toutes les manières nécessaires pour permettre à Zoom de vous fournir les Services, y compris d’en assurer l’assistance ; (ii) à des fins de développement de produits et de services, de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, de formation, de test et d’amélioration des Services, des Logiciels ou d’autres produits, services et logiciels de Zoom, ou de toute combinaison de ceux-ci ; et (iii) dans tout autre but en lien avec une quelconque utilisation ou une autre action autorisée conformément à la Section 10.3. Si vous détenez des Droits exclusifs sur des Données générées par le service ou des Données anonymes agrégées, vous octroyez à Zoom par les présentes une licence perpétuelle, irrévocable, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence, transférable et entièrement libérée dans le monde entier, ainsi que tous les autres droits requis ou nécessaires pour permettre à Zoom d’exercer ses droits relatifs aux Données générées par le service et aux Données anonymes agrégées, selon le cas, conformément au présent Accord.

    L’analyse de Simon Phipps

    Simon Phipps est un expert en logiciels libres et en standards ouverts. Il partage ses réflexions sur divers sujets liés à l’informatique, à la politique, à la culture et à la société. Il évoque parfois ses différents projets et activités en ligne, comme son rôle de directeur des standards et des politiques à l’Open Source Initiative, son ancien poste de responsable des logiciels libres chez Sun Microsystems, ou encore son implication dans le Fediverse, un réseau social décentralisé basé sur le protocole ActivityPub.

    Il s’est intéressé à la situation de Zoom. Voici ce qu’il a indiqué à ce sujet :

    Dans les termes, « les données, le contenu, les fichiers, les documents ou d’autres matériaux » que vous utilisez dans une session Zoom (“Entrée du client”), ainsi que les enregistrements et les transcriptions, et tout autre paillettes que Zoom saupoudre dessus, sont appelés « Contenu client ».

    10.4(ii) vous voit ensuite accorder une large licence au Contenu Client « à des fins de développement de produits et de services, de marketing, d’analyse, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, de formation, de test, d’amélioration des Services, du Logiciel ou de Zoom, d’autres produits, services et logiciels, ou toute combinaison de ceux-ci ». 10.5 explique que cela peut très bien être effectué par un tiers.

    Si les éléments que vous avez partagés appartiennent à quelqu’un d’autre, 10.6 vous voit accepter que « vous êtes seul responsable du contenu client » et notamment d’obtenir le consentement des tiers et de fournir des avis conformément aux lois applicables à la combinaison de personnes impliquées. Marquer des choses comme confidentielles n’aide pas - 17.1 indique clairement que « le contenu du client n’est pas une information confidentielle du client » (c’est-à-dire qu’il n’est pas traité par Zoom comme partagé en toute confidentialité).

    En plus de tout cela, dans 10.6, vous « déclarez et garantissez que vous avez le droit de télécharger l’Entrée Client et que Zoom vous fournit, crée ou met à votre disposition tout Contenu Client, et que cette utilisation ou fourniture par vous, votre Fin L’utilisateur ou Zoom ne viole ni n’enfreint aucun droit d’un tiers. » Donc, selon 25(i) & (iii), vous les indemnisez s’ils entraînent leur IA avec l’IP de quelqu’un d’autre que vous possédez - par exemple, un dossier client dont vous discutez en interne, ou une affaire juridique sur laquelle vous travaillez sous privilège.

    Il n’y a pas de possibilité d’opt-out ou de contrôle de la portée à utiliser dans les conditions de formation à l’IA. Le directeur de l’exploitation de Zoom affirme que l’utilisation réelle des fonctionnalités d’IA est facultative, mais cela ne semble pas pertinent, car les conditions accordent à Zoom ces autorisations indépendamment et le contenu client existe, que vous utilisiez ou non les fonctionnalités d’IA.

    Ma lecture non-avocate suggère que c’est une chose exceptionnellement risquée pour quiconque d’accepter s’il est en possession d’une propriété intellectuelle ou sous NDA concernant les secrets de quelqu’un d’autre, et j’éviterai Zoom (même s’ils annulent les termes - ne peut pas prendre le chance sur les futurs changements comme celui-ci).

    Simon Phipps recommande Jitsi à la place de Zoom

    Jitsi est un logiciel libre et open source qui permet de faire des visioconférences en ligne. Il est compatible avec les navigateurs web et les applications mobiles. Il offre des fonctionnalités comme le chiffrement, le partage d’écran, le chat, les réactions, les sondages, et plus encore. Jitsi est utilisé par de nombreuses organisations et personnes pour communiquer à distance, que ce soit pour le travail, l’éducation, ou le divertissement.

    Jitsi est divisé en plusieurs composants, dont les principaux sont :

    Jitsi Meet : l’interface web et mobile qui permet de créer et de rejoindre des réunions. Jitsi Videobridge : le serveur qui gère les flux vidéo entre les participants. Jitsi Jicofo : le serveur qui coordonne les sessions et les ressources. Jitsi Jigasi : le serveur qui permet de se connecter à des services de téléphonie. Jitsi SIP Communicator : le client de bureau qui permet de faire des appels audio et vidéo.

    Jitsi peut être installé sur son propre serveur ou utilisé via un service hébergé comme Jitsi as a Service (JaaS) qui propose une solution clé en main pour intégrer Jitsi dans son site web ou son application1. Jitsi est également disponible sur Google Play et App Store4 pour les utilisateurs mobiles.

    Suite au tollé, Zoom fait des modifications dans sa communication

    Zoom ne forme pas ses modèles d’intelligence artificielle sur des chats audio, vidéo ou textuels à partir de l’application « sans le consentement du client », selon un article de blog publié lundi par le directeur des produits de Zoom, Smita Hashim.

    Dans son message, Hashim écrit également que « nos clients continuent de posséder et de contrôler leur contenu ». Hashim écrit que « notre intention était de préciser que les clients créent et possèdent leur propre contenu vidéo, audio et chat. Nous sommes autorisés à utiliser ce contenu client pour fournir des services à valeur ajoutée basés sur ce contenu, mais nos clients continuent de posséder et de contrôler leur contenu ».

    Après la première publication de cet article, Zoom a mis à jour ses conditions d’utilisation avec une déclaration similaire dans sa section 10.4 :

    « Nonobstant ce qui précède, Zoom n’utilisera pas de contenu audio, vidéo ou de chat pour former nos modèles d’intelligence artificielle sans votre consentement ».

    Sources : Simon Phipps, Zoom , developpez.com

    Et vous ?

    Quelle lecture en faites-vous ?

  • 2 Votes
    4 Messages
    80 Vues

    c’est pour sourcer l’origine et les differenciers des publications réelles en résumé ?

  • 2 Votes
    4 Messages
    103 Vues

    @michmich

    Il a tout de même vécu 5 siècles, les Big Tech ont encore quelques beaux jours devant elles :ahah:

  • 1 Votes
    1 Messages
    40 Vues

    C’est une bonne nouvelle pour les organismes de défense de droits numériques. Même si la loi n’est pas encore entrée en vigueur, le contenu du projet de loi affiche bien la volonté des commissions européennes à protéger les Européens contre les dérives de l’Intelligence artificielle. De la reconnaissance faciale à bien d’autres aspects de l’usage de l’IA, l’organisation a mis les verrous pour restreindre les types d’utilisation qui peuvent être faits sur les populations.

    Dans la nouvelle version du projet de loi, il est interdit de se servir de programmes de reconnaissance faciale de masse dans les lieux publics. De même, une interdiction d’usage est adressée pour les algorithmes de police prédictive servant à identifier à l’avance des personnes susceptibles d’être dangereuses pour la société. Ces interdictions visent à protéger l’usage qui est fait des données personnelles de la population. En effet, pour être efficaces, les logiciels de ces catégories ont forcément besoin d’avoir accès à des données personnelles.

    Au-delà de ces interdictions, le projet de loi a prévu la création d’une base de données accessible au public. Cette base de données servira de répertoire des systèmes d’IA « à haut risque » que déploient les autorités gouvernementales et publiques. Le but est d’informer les citoyens de l’Union européenne du moment et de la manière dont ces systèmes les impactent. C’est donc la carte de la transparence que l’UE a décidé de jouer avec ces citoyens. « Cette base de données devrait être librement et publiquement accessible, facilement compréhensible et lisible par une machine », précise le projet. « La base de données devrait également être conviviale et facile à parcourir avec des fonctionnalités de recherche permettant au minimum au grand public de rechercher dans la base de données des systèmes à haut risque spécifiques, des lieux, des catégories de risque [et] des mots-clés ».

    Le projet de loi a aussi prévu des dispositions visant à plus de contrôle pour l’« IA à usage général » ou les systèmes d’IA « fondateurs ». Même si la loi n’a pas vraiment défini ce type de système, il est évident qu’il s’agit des langages d’IA de grande échelle servant à diverses fins. Avec cette explication, il est clair que la législation s’adresse à des systèmes comme GPT-4, ChatGPT. Par extension, les générateurs d’images à base d’IA comme Stable Diffusion, Midjourney et DALL-E sont aussi concernés.

    Microsoft, Google, OpenAI et les autres créateurs de système d’IA à grande échelle devront évaluer et atténuer divers risques avant que leurs outils ne soient mis à disposition du public. La législation a cité les divers contrôles à effectuer pour évaluer les systèmes créés. Entre autres, il faudra évaluer les dommages causés à l’environnement par la formation de ces systèmes. En effet, la mise en place des systèmes d’IA à grande échelle consomme souvent beaucoup d’énergie.

    Le projet de loi oblige aussi les entreprises à divulguer « l’utilisation de données de formation protégées par la législation sur le droit d’auteur ».

    Le processus n’est pas encore à son terme pour ce projet de loi. Son entrée en vigueur est programmée pour 2024. Le projet de loi était en examen depuis des années, mais la course contre l’IA a obligé les législateurs à apporter des modifications de dernière minute. La commission du marché intérieur et la commission des libertés civiles ont déjà validé la nouvelle version du projet de loi.

    La démarche et le contenu du projet ont reçu un écho favorable de certains acteurs du domaine. « C’est une très bonne nouvelle », a déclaré à The Verge Daniel Leufer, analyste politique principal de l’organisation à but non lucratif Access Now. « Je pense que d’énormes changements positifs ont été apportés au texte. »

    Source: https://www.fredzone.org/ue-elabore-projet-loi-interdit-usage-ia-surveillance-biometriqu

    On peut rêver, mais si la loi sortait avant les jo de Paris… :lol:

  • 4 Votes
    2 Messages
    71 Vues

    J’avais lu à leurs sorties “No Logo” et “La stratégie du choc”, et je vois que Naomi Klein a toujours l’esprit aussi lucide.

  • 1 Votes
    3 Messages
    118 Vues

    Easy Diffusion 13 Go
    un temps certain pour faire une création… j’ai viré 🙂

  • 3 Votes
    9 Messages
    202 Vues

    perso voici mes créations… enfin, celles de mon ia :
    00019-993948132.png

    00016-1776305331.png

    00008-4166517086.png

  • 1 Votes
    6 Messages
    151 Vues

    @Ashura a dit dans J’ai créé un monstre : le père de l’IA quitte Google par peur de son invention :

    Il fallait y penser avant, c’est un problème connu depuis 30 ans, on savait que ca allait arriver

    Certes, mais comme le climat, ça arrive infiniment plus vite que prévu, et ça s’accélère…!

  • 2 Votes
    2 Messages
    48 Vues

    pour moi c’est un outil qui est tres bien pour les étudiants un peu comme une calculatrice

    bientot le brevet pour gépeté : https://www.presse-citron.net/le-sigle-gpt-sera-bientot-une-propriete-privee/

  • 0 Votes
    1 Messages
    60 Vues

    Dolly est un modèle d’IA gratuit et open source de type ChatGPT

    Dolly 2.0 pourrait déclencher une nouvelle vague de LLM entièrement open source similaire à ChatGPT.

    Mercredi, Databricks a publié Dolly 2.0, qui serait le premier modèle de langage large (LLM) open source suivant les instructions à usage commercial qui a été affiné sur un ensemble de données générées par l’homme. Cela pourrait servir de point de départ convaincant pour les concurrents homebrew ChatGPT.

    Databricks est une société américaine de logiciels d’entreprise fondée en 2013 par les créateurs d’ Apache Spark . Ils fournissent une plate-forme Web pour travailler avec Spark pour le Big Data et l’apprentissage automatique. En publiant Dolly, Databricks espère permettre aux organisations de créer et de personnaliser des LLM “sans payer pour l’accès à l’API ni partager de données avec des tiers”, selon le blog de lancement de Dolly .

    Dolly 2.0, son nouveau modèle de 12 milliards de paramètres, est basé sur la famille de modèles pythia d’EleutherAI et affiné exclusivement sur des données de formation (appelées “databricks-dolly-15k”) provenant des employés de Databricks. Ce calibrage lui donne des capacités plus conformes au ChatGPT d’OpenAI, qui est meilleur pour répondre aux questions et engager le dialogue en tant que chatbot qu’un LLM brut qui n’a pas été affiné.

    Dolly 1.0, sorti en mars, était confronté à des limitations concernant l’utilisation commerciale en raison des données de formation, qui contenaient la sortie de ChatGPT (grâce à Alpaca ) et étaient soumises aux conditions d’utilisation d’OpenAI. Pour résoudre ce problème, l’équipe de Databricks a cherché à créer un nouvel ensemble de données qui permettrait une utilisation commerciale.

    Pour ce faire, Databricks a organisé 13 000 démonstrations de comportement de suivi des instructions de la part de plus de 5 000 de ses employés entre mars et avril 2023. Pour inciter à la participation, ils ont organisé un concours et décrit sept tâches spécifiques pour la génération de données, y compris les questions-réponses ouvertes, les questions-réponses fermées. , extraction et synthèse d’informations de Wikipédia, brainstorming, classification et écriture créative.

    L’ensemble de données résultant, ainsi que les poids du modèle et le code de formation de Dolly, ont été publiés entièrement en open source sous une licence Creative Commons , permettant à quiconque d’utiliser, de modifier ou d’étendre l’ensemble de données à n’importe quelle fin, y compris des applications commerciales.

    En revanche, ChatGPT d’OpenAI est un modèle propriétaire qui oblige les utilisateurs à payer pour l’accès à l’API et à respecter des conditions de service spécifiques, ce qui limite potentiellement la flexibilité et les options de personnalisation pour les entreprises et les organisations. de Meta Le LLaMA , un modèle partiellement open source (avec des poids restreints) qui a récemment engendré une vague de produits dérivés après la fuite de ses poids sur BitTorrent, ne permet pas une utilisation commerciale.

    Sur Mastodon, le chercheur en intelligence artificielle Simon Willison a qualifié Dolly 2.0 de “très important”. Willison expérimente souvent des modèles de langage open source, dont Dolly . “L’une des choses les plus excitantes à propos de Dolly 2.0 est le jeu d’instructions de réglage fin, qui a été fabriqué à la main par 5 000 employés de Databricks et publié sous une licence CC”, a écrit Willison dans un toot Mastodon.

    Si la réaction enthousiaste au seul modèle LLaMA partiellement ouvert de Meta est une indication, Dolly 2.0 pourrait potentiellement déclencher une nouvelle vague de modèles de langage open source qui ne sont pas entravés par des limitations propriétaires ou des restrictions d’utilisation commerciale. réelle de Dolly soit encore connue Bien que la capacité de performance , d’autres améliorations pourraient permettre d’exécuter des LLM raisonnablement puissants sur des machines grand public locales.

    “Même si Dolly 2 n’est pas bon, je pense que nous verrons bientôt un tas de nouveaux projets utilisant ces données de formation”, a déclaré Willison à Ars. “Et certains d’entre eux pourraient produire quelque chose de vraiment utile.”

    Actuellement, les datas de Dolly sont disponibles sur Hugging Face, et l’ensemble de données databricks-dolly-15k se trouve sur GitHub.

    Source: https://arstechnica.com/information-technology/2023/04/a-really-big-deal-dolly-is-a-free-open-source-chatgpt-style-ai-model/

  • 3 Votes
    4 Messages
    157 Vues

    ChatGPT comme keygen, fallait y penser :hehe:

  • 2 Votes
    4 Messages
    79 Vues

    Et la pause, c’est vraiment par peur ou juste pour rattraper le retard de certaines sociétés ?

    De toute façon, ça se présente mal pour eux: https://planete-warez.net/topic/3473/sept-modèles-d-a-i-générative-en-open-source

  • 0 Votes
    4 Messages
    78 Vues

    @Violence je la trouve plus, je sais plus u je l’ai vu

  • 1 Votes
    4 Messages
    65 Vues

    D’un autre côté, on échange un poison contre un autre…

    Les personnes cultivées à l’esprit critique et non prédatrices, il n’y en a déjà pas beaucoup, alors submergées par des décérébrés, ce n’est pas un avenir qui chante.

    Remplacez les zombies d’un film d’horreur par la “masse” et vous aurez votre vision de l’avenir.

  • 0 Votes
    2 Messages
    40 Vues

    @duJambon
    Tiens, ils sont où les grands défenseurs de la planète ?
    Ils n’arrêtent pas de gueuler (avec raison) sur nos trop grandes consommations d’énergie mais en même temps ça s"extasie sur les performances de ces IA et là, c’est le silence radio parce que ça les intéresse…
    Encore une fois, c’est l’incohérence la plus totale…
    Bonne journée à toi…

  • 0 Votes
    3 Messages
    85 Vues

    @Orphancia ca on va en bouffer de toute façon

  • 0 Votes
    1 Messages
    34 Vues

    Apple semble être la seule entreprise à ne pas s’intéresser outre mesure aux conséquences de la montée en puissance ChatGPT. Pendant que Google et Microsoft multiplient les projets pour ravir la vedette à OpenAI, la firme de Cupertino brille par son silence.

    17522d59-f4a0-4f3e-a5bd-01585b870337-image.png

    Mais les choses pourraient très prochainement commencer par bouger du côté de la firme et principalement pour son assistant Siri. Lors du sommet sur l’IA organisé par l’entreprise le mois dernier, de nombreuses informations ont indiqué que plusieurs de ses ingénieurs, y compris des membres de l’équipe Siri, testaient des concepts générateurs de langage. Ce qui voudrait finalement dire qu’Apple n’est pas si désintéressé par l’IA générative comme on l’aurait cru.

    Connue pour être une marque avant-gardiste, Apple a donné l’impression à de nombreux observateurs qu’elle ne comptait pas (encore) se lancer dans la course à l’IA. Pour preuve, la société n’a jusque-là pas évoqué un projet grandeur nature dans le domaine de l’IA générative.

    Toutefois, comme le rapporte à présent BGR, la donne pourrait changer. Pour marquer son entrée sur ce nouveau marché, Apple prévoirait une refonte de son assistant Siri. Lancée il y a de cela dix ans, cette intelligence artificielle n’a que faiblement évolué.

    Elle aura certes, comme Chat GPT le fait actuellement, donné des idées au secteur avec l’arrivée sur le marché de Google Assistant et d’Amazon Alexa. Néanmoins, ses fonctions premières comme aider les utilisateurs à allumer ou éteindre les lumières, créer des rappels ou répondre à des appels paraissent aujourd’hui dépassées.

    Ainsi, à l’ère actuelle où l’IA générative bat tous les records d’audience dans les médias, le bon sens souhaiterait qu’Apple réinvente Siri. Mais cela ne sera pas une tâche facile. En effet, comme le souligne John Burkey, ancien ingénieur ayant travaillé sur l’assistant virtuel, Siri présente une « conception encombrante qui rendait l’ajout de nouvelles fonctionnalités fastidieux ».

    Comme sus évoqué, l’intégration de nouvelles fonctionnalités de type Chat GPT dans Siri ne sera pas une mince affaire. Cela ne remet toutefois pas en doute le savoir-faire ni le génie des ingénieurs de la société. Mais la potentielle mue de Siri pourrait bien se heurter à sa propre conception, qui aujourd’hui se révèle être un gros handicap.

    En effet, si l’on se réfère aux propos de John Burkey, les vastes connaissances de Siri en ont fait « une grosse boule de neige, car si quelqu’un veut ajouter un mot à la base de données de Siri, il va dans une grosse pile ». L’ingénieur chargé entre-temps d’améliorer l’assistant virtuel, en 2014, confesse par là s’être heurté à la complexité de l’architecture de Siri.

    Les ingénieurs actuels, s’ils tiennent à réussir ce pari, devront donc se frotter à l’importante base de données de Siri. Celle-ci contiendrait une liste impressionnante de mots dans près de deux douzaines de langues. À l’évidence, le chantier s’annonce titanesque, car il faudrait reconstruire de fond en comble la base de données de Siri.

    Dans tous les cas, il est déjà heureux de savoir que chez Apple, on travaille activement à l’amélioration de Siri afin qu’il puisse s’imprégner plus facilement du contexte dans lequel il est appelé à évoluer. Cela devrait, in fine, offrir aux utilisateurs des conversations dignes de ce nom.

    Sources: https://www.fredzone.org/lassistant-virtuel-dapple-pourrait-a-lavenir-integrer-des-fonctionnalites-de-type-chatgpt-rcj753
    et: https://bgr.com/tech/apple-engineers-are-testing-chatgpt-like-features-for-siri/

  • 0 Votes
    10 Messages
    145 Vues

    @Violence c’est foutu, on est en plein dedans et y’en aura partout maintenant

  • 1 Votes
    1 Messages
    62 Vues

    Les choses bougent à la vitesse de l’éclair dans AI Land. Vendredi, un développeur de logiciels nommé Georgi Gerganov a créé un outil appelé “llama.cpp” qui peut exécuter le nouveau modèle de langage d’IA de classe GPT-3 de Meta, LLaMA , localement sur un ordinateur portable Mac et aussi sous Windows également. Ensuite, quelqu’un l’a montré en cours d’exécution sur un téléphone Pixel 6, puis est venu un Raspberry Pi (bien que fonctionnant très lentement).

    Ce qui arrivera la semaine prochaine, personne ne le sait.

    Depuis le lancement de ChatGPT, certaines personnes ont été frustrées par les limites intégrées du modèle d’IA qui l’empêchent de discuter de sujets qu’OpenAI a jugés sensibles. Ainsi a commencé le rêve - dans certains milieux - d’un grand modèle de langage open source (LLM) que n’importe qui pourrait exécuter localement sans censure et sans payer de frais d’API à OpenAI.

    Des solutions open source existent (comme GPT-J), mais elles nécessitent beaucoup de RAM GPU et d’espace de stockage. D’autres alternatives open source ne pourraient pas se vanter de performances de niveau GPT-3 sur du matériel grand public facilement disponible.

    LLaMA, un LLM disponible dans des tailles de paramètres allant de 7B à 65B (c’est-à-dire “Bilions” en Anglais, comme dans “milliards de paramètres”, qui sont des nombres à virgule flottante stockés dans des matrices qui représentent ce que le modèle “sait”). LLaMA a fait une affirmation captivante : que ses modèles de plus petite taille pourraient correspondre au GPT-3 d’OpenAI , le modèle fondamental qui alimente ChatGPT, dans la qualité et la vitesse de sa sortie. Il n’y avait qu’un seul problème - Meta a publié le code open source LLaMA, mais il a réservé les données (les “connaissances” formées stockées dans un réseau de neurones) pour les chercheurs qualifiés uniquement.

    Les restrictions de Meta sur LLaMA n’ont pas duré longtemps, car le 2 mars, quelqu’un a divulgué les données LLaMA sur BitTorrent. Depuis lors, il y a eu une explosion de développement autour de LLaMA. Le chercheur indépendant en intelligence artificielle Simon Willison a comparé cette situation à une sortie de Stable Diffusion, un modèle de synthèse d’images open source lancé en août dernier (https://planete-warez.net/topic/3147/ia-stable-diffusion-ui-l-ia-auto-hébergée-pour-créer-des-images). Voici ce qu’il a écrit dans un article sur son blog :

    J’ai l’impression que cet événement de Stable Diffusion en août a déclenché toute une nouvelle vague d’intérêt pour l’IA générative, qui a ensuite été poussée à l’extrême par la sortie de ChatGPT fin novembre.

    Ce moment de diffusion stable se reproduit en ce moment, pour les grands modèles de langage, la technologie derrière ChatGPT elle-même. Ce matin, j’ai exécuté pour la première fois un modèle de langage de classe GPT-3 sur mon ordinateur portable personnel !

    Les trucs d’IA étaient déjà bizarres. C’est sur le point de devenir beaucoup plus bizarre.

    En règle générale, l’exécution de GPT-3 nécessite plusieurs A100 (de plus, les données de GPT-3 ne sont pas publiques), mais LLaMA a fait des vagues, car il pouvait fonctionner sur un seul GPU grand public costaud. Et maintenant, avec des optimisations qui réduisent la taille du modèle à l’aide d’une technique appelée quantification, LLaMA peut fonctionner sur un Mac M1 ou un GPU grand public Nvidia moindre.

    Les choses évoluent si vite qu’il est parfois difficile de suivre les derniers développements. (En ce qui concerne le rythme de progression de l’IA, un collègue journaliste de l’IA a déclaré à Ars : "C’est comme ces vidéos de chiens où vous renversez une caisse de balles de tennis dessus. [Ils] ne savent pas où chasser en premier et se perdent dans la confusion. ")

    Par exemple, voici une liste d’événements notables liés à LLaMA basée sur une chronologie que Willison a présentée dans un commentaire de Hacker News :

    24 février 2023 : Meta AI annonce LLaMA. 2 mars 2023 : Quelqu’un divulgue les modèles LLaMA via BitTorrent. 10 mars 2023 : Georgi Gerganov crée llama.cpp , qui peut fonctionner sur un Mac M1. 11 mars 2023 : Artem Andreenko exécute LLaMA 7B (lentement) sur un Raspberry Pi 4 , 4 Go de RAM, 10 sec/token. 12 mars 2023 : LLaMA 7B exécuté sur NPX, un outil d’exécution node.js. 13 mars 2023 : quelqu’un fait fonctionner llama.cpp sur un téléphone Pixel 6 , également très lentement. 13 mars 2023 : Stanford lance Alpaca 7B d’OpenAI text-davinci-003 mais fonctionne sur un matériel beaucoup moins puissant.

    Après avoir obtenu nous-mêmes les données LLaMA, nous avons suivi les instructions de Willison et avons fait fonctionner la version des paramètres 7B sur un Macbook Air M1, et elle fonctionne à une vitesse raisonnable. Vous l’appelez comme un script sur la ligne de commande avec une invite, et LLaMA fait de son mieux pour le terminer de manière raisonnable.

    329bbdd1-3dc7-474f-b41e-9a434a8aa8e9-image.png
    Une capture d’écran de LLaMA 7B en action sur un MacBook Air exécutant llama.cpp.

    Reste la question de savoir dans quelle mesure la quantification affecte la qualité de la sortie. Lors de nos tests, LLaMA 7B réduit à la quantification 4 bits était très impressionnant pour fonctionner sur un MacBook Air, mais toujours pas à la hauteur de ce que vous pourriez attendre de ChatGPT. Il est tout à fait possible que de meilleures techniques d’incitation génèrent de meilleurs résultats.

    De plus, les optimisations et les ajustements sont rapides lorsque tout le monde a la main sur le code et les données, même si LLaMA est toujours aux prises avec des assez restrictives conditions d’utilisation La sortie d’Alpaca aujourd’hui par Stanford prouve qu’un réglage fin (entraînement supplémentaire avec un objectif spécifique en tête) peut améliorer les performances, et il est encore tôt après la sortie de LLaMA.

    Au moment d’écrire ces lignes, l’exécution de LLaMA sur un Mac reste un exercice assez technique. Vous devez installer Python et Xcode et être familiarisé avec le travail en ligne de commande. Willison a de bonnes instructions étape par étape pour tous ceux qui souhaitent l’essayer. Mais cela pourrait bientôt changer à mesure que les développeurs continuent de coder.

    Quant aux implications d’avoir cette technologie dans la nature, personne ne le sait encore. Alors que certains s’inquiètent de l’impact de l’IA en tant qu’outil de spam et de désinformation, Willison déclare : “Cela ne sera pas inventé, donc je pense que notre priorité devrait être de trouver les moyens les plus constructifs possibles de l’utiliser.”

    À l’heure actuelle, notre seule garantie est que les choses vont changer rapidement.

    Source: https://arstechnica.com/information-technology/2023/03/you-can-now-run-a-gpt-3-level-ai-model-on-your-laptop-phone-and-raspberry-pi/

  • 1 Votes
    3 Messages
    63 Vues

    @duJambon

    Pour les autres pays, ils ont confié la tâche à l’IA de Google, qui s’en acquitte très bien.