• 3 Votes
    16 Messages
    293 Vues

    @Indigostar a dit dans Quand Midjourney n'arrive pas à représenter un médecin noir soignant des enfants blancs :

    ils saupoudrent le tout de greenwashing…

    C’est clair genre c’est super cool, c’est RGPD data en Suisse tout ça mais en plus, tt est hébergé sur des serveurs alimentés par de l’énergie renouvelable donc tt va bien 😆

    J’ai quand même hâte que tt cela soit réglementé un minimum… En général, on se réveille mais au dernier moment mais on se réveille 🙂

  • 2 Votes
    9 Messages
    207 Vues

    @Violence tu sais quoi, j’avais un doute avant même de citer Westworld (qui dépote quand même) ^^, je me suis dit " Ça doit être Mrs Davis mais bon étant donné que même Westworld est une pépite, je tente ma chance" 😂 .

  • 4 Votes
    2 Messages
    90 Vues

    je pense comme lui !

  • 1 Votes
    1 Messages
    44 Vues

    Des chercheurs et chercheuses de l’Université de Californie à Irvine ont montré que les humains étaient maintenant plus lents et moins efficaces que des bots pour résoudre des CAPTCHA.

    Les tâches de reconnaissance d’images réputées inaccessibles pour les machines deviennent maintenant plus simples pour elles que pour les humains. Des chercheurs de l’Université de Californie à Irvine (UC Irvine) ont en effet comparé les performances des humains avec celles des algorithmes de résolution de CAPTCHA et ont montré que la machine était, la plupart du temps, meilleure et plus rapide. Ils ont présenté leurs résultats à la conférence USENIX Security en ce mois d’août (PDF).

    Au départ, les CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) ont bien été inventés pour résoudre des problèmes de sécurité et éviter que des programmes malveillants se fassent passer pour des utilisateurs.

    « Un captcha est un programme qui peut générer et noter des tests que (A) la plupart des humains peuvent réussir, mais que (B) les programmes informatiques actuels ne passent pas », expliquaient les chercheurs Luis von Ahn, Manuel Blum, Nicholas J. Hopper, et John Langfor dans leur article fondateur (PDF) sur le sujet titré « CAPTCHA : utiliser des problèmes d’IA difficiles pour la sécurité ». Cette fonctionnalité a permis pendant des années de bloquer spams et aspirateurs de données à l’entrée de nombreux formulaires de sites web.

    De l’aide à la numérisation à l’apprentissage pour le Deep learning

    Mais en 2007, Luis von Ahn et Ben Maurer ont cofondé reCAPTCHA, une entreprise qui proposait d’utiliser les CAPTCHA pour faire faire des tâches de reconnaissances d’images que les systèmes de l’époque n’étaient pas capables d’effectuer. L’idée a d’abord été appliquée à la numérisation de livres pour Internet Archive.

    Le site avait scanné 20 000 livres, mais les logiciels d’OCR n’étaient pas capables de reconnaître tous les mots, notamment quand une page était en mauvais état. TechCrunch expliquait à l’époque qu’ « à l’instar d’une application Mechanical Turk, ReCaptcha fait appel à des humains pour traduire des images de mots scannés qu’un ordinateur ne pourrait pas comprendre ».

    Le système proposait deux mots distordus par un algorithme : un déjà reconnu par la machine et un autre qui ne l’était pas. Ainsi, les mots illisibles automatiquement pouvaient petit à petit être numérisés. Luis von Ahn et Ben Maurer estimaient à 60 millions le nombre de CAPTCHA résolus chaque jour et Techcrunch les ramenaient à plus de 160 000 heures humaines par jour (soit environ 19 ans).

    En 2009, Google a acheté reCaptcha y voyant une autre opportunité. Non seulement, reCaptcha permettait de remplacer la machine par des humains quand elle n’arrivait pas à décoder un mot dans un texte scanné, mais il permettait d’ « apprendre aux ordinateurs à lire », comme l’expliquait l’entreprise sur son blog au moment du rachat.

    Le principe a ensuite été élargi à la reconnaissance de formes dans des photos, comme des chats, des passages piétons ou des voitures, etc. La multinationale trouvait ici une véritable petite usine à étiqueter gratuitement des images et se concocter une bibliothèque d’entrainement pour ses algorithmes d’intelligence artificielle qu’elle était en train de développer.

    Des tests obsolètes

    Mais quatorze ans après cet achat, ce qui devait arriver est en train d’arriver. Les algorithmes d’intelligence artificielle de Google et de ses concurrents, entraînés grâce à ce genre de bibliothèques, deviennent de plus en plus efficaces et menacent la pertinence de la première fonctionnalité des CAPTCHA.

    La chercheuse Ai Enkoji et ses collègues de l’Université de Californie à Irvine ont travaillé avec Yoshimichi Nakatsuka de l’École polytechnique fédérale de Zurich et Andrew Paverd de Microsoft pour comparer les capacités des humains et celles des bots dans la résolution de CAPTCHA.

    Ils ont donc analysé les 200 sites les plus importants du web pour savoir combien d’entre eux utilisaient des CAPTCHA et quels types ils utilisaient, puis ont payé à la tâche (quelques dizaines de cents à quelques dollars) 1 400 personnes sur Amazon Mechanical Turk pour résoudre 10 types de CAPTCHA différents.

    Travail du clic et régulation de l’IA agitent la conférence FAccT

    Comparant dans le tableau ci-dessous les performances des participants à celles obtenues par des bots développés par d’autres chercheurs et spécifiques à chaque CAPTCHA, ils expliquent que « ces résultats suggèrent que les robots peuvent surpasser les humains, à la fois en termes de temps de résolution et de précision, pour tous ces types de CAPTCHA ».

    An Empirical Study & Evaluation of Modern CAPTCHAs
    Crédits : Ai Enkoji et al.

    On peut même voir que la version reCAPTCHA de Google qui demande de cliquer sur une case à côté de la phrase « Je ne suis pas un robot  » est réussie à 100 % par le bot avec une vitesse beaucoup plus rapide que les humains qui, eux, ne la réussissent pas tout le temps. Cette nouvelle version qui promettait de remplacer efficacement les classiques tâches de catégorisation d’image en analysant le comportement de l’utilisateur sur la page ne remplit pas le contrat.

    Internet Archive est maintenant une source des IA

    Les GAFAM ont massivement utilisé ces petits outils pour protéger les données des utilisateurs et récupérer des données d’entrainement. Depuis quelque temps, ils voient bien leur fragilité. L’année dernière, Apple mettait en place un système pour les utilisateurs de ses appareils permettant d’être authentifié automatiquement, sans passer par l’épreuve du CAPTCHA. Mais ce genre de systèmes suppose de se reposer sur du matériel identifié et peut poser des questions sur la protection des données privées.

    Les CAPTCHA ont par contre réussi à merveille ce qui n’était pas leur tâche originelle : l’entrainement des IA. Elles sont maintenant capables de les résoudre mais aussi, avec l’ajout d’entrainements par des « data workers » et sur les millions de livres d’Internet Archive qu’ils ont aidé à numériser, les IA génératives peuvent créer de nouveaux textes.

    Source : nextinpact.com

  • 1 Votes
    2 Messages
    78 Vues

    Les premières dérives… avant les méfaits.

  • 0 Votes
    3 Messages
    86 Vues

    Il ne faut pas laisser de côté se qu’on nomme élégamment “La fuite des cerveaux” Des personnes prometteuses dans des domaines très pointus mais qui n’ont aucun soutien de nos institutions ou si peu.
    Attirées par la reconnaissance de leurs compétences et les pont d’or qui leurs sont proposées partent à l’étranger.

  • 2 Votes
    1 Messages
    39 Vues

    Le GH200 est un nouveau processeur de Nvidia conçu pour doper les modèles d’intelligence artificielle. Avec ce lancement, la société veut consolider sa position dominante face à la concurrence de plus en plus vive dans le secteur du matériel IA : AMD, Google et Amazon veulent leur part de ce gâteau de plus en plus gros !

    Nvidia, leader du marché des puces IA avec plus de 80 % de part de marché, a levé le voile sur le GH200 qui possède le même GPU que le H100, son processeur IA haut de gamme actuel. Ce nouveau processeur est couplé avec 141 Go de mémoire et un processeur central ARM doté de 72 cœurs.

    Nvidia trône en majesté au sommet du marché

    Jensen Huang, le CEO de Nvidia, a présenté cette nouvelle puce comme un accélérateur du développement à grande échelle des centres de données mondiaux. La disponibilité est prévue pour le deuxième trimestre 2024, avec des échantillons disponibles avant la fin de cette année.

    Le GH200 est particulièrement doué pour tout ce qui est lié à l’inférence, étape coûteuse en calcul qui nécessite une grande puissance de traitement chaque fois que le logiciel fonctionne. Avec une mémoire plus importante, ce processeur permettra à de plus grands modèles d’IA de fonctionner sur un seul système. Jensen Huang l’a promis : « l’inférence de grands modèles de langage sera beaucoup moins coûteuse ».

    L’annonce de Nvidia survient alors que la concurrence s’intensifie dans le domaine du matériel IA. Récemment, AMD a annoncé son propre processeur destiné aux traitements d’intelligence artificielle, le MI300X, qui peut supporter 192 Go de mémoire. Il est justement vendu sur ses capacités d’inférence IA. Google et Amazon développent également leurs propres puces IA personnalisées pour l’inférence. La rareté des puces de Nvidia, très demandées par les géants de la technologie, les fournisseurs de cloud et les startups, ajoute à la pression sur l’entreprise qui veut absolument maintenir son avance. Ian Buck, vice-président de Nvidia, a souligné l’importance de la mémoire plus grande, permettant au modèle de demeurer sur un seul GPU, sans nécessiter de systèmes ou de GPU multiples pour fonctionner.

    Avec le GH200, Nvidia cherche à répondre aux besoins de plus en plus pressants des entreprises qui font commerce de l’intelligence artificielle. De quoi assurer la place de numéro 1 du constructeur, qui veut éviter de se reposer sur ses lauriers : la concurrence investit elle aussi lourdement dans la recherche et le développement de solutions tout aussi performantes. L’explosion de l’intelligence artificielle générative (ChatGPT, Dall-E, Bard…) offre un boulevard à Nvidia pour vendre ses solutions de calcul de l’IA, comme cela avait été le cas d’ailleurs pendant la « bulle » des NFT. Nvidia a décidément le chic de se retrouver toujours au cœur des nouveautés technologiques.

    – Source

  • 1 Votes
    1 Messages
    41 Vues

    Un développeur suggère de passer à Jitsi

    Zoom, la plateforme de visioconférence populaire, a récemment mis à jour ses conditions d’utilisation pour permettre l’utilisation des données des utilisateurs pour entraîner et améliorer ses algorithmes et modèles d’intelligence artificielle (IA). Cette décision a suscité des critiques et des inquiétudes de la part des défenseurs de la vie privée et des experts juridiques, qui estiment qu’elle constitue une atteinte aux droits et au consentement des utilisateurs. Face à cette situation, certains utilisateurs ont choisi de se tourner vers des offres concurrentes, parmi lesquelles Jitsi.

    Selon les nouvelles conditions d’utilisation, Zoom se réserve le droit de collecter, de stocker, de traiter, de partager et d’utiliser les données générées par le service (Service Generated Data), qui comprennent les données de télémétrie, les données d’utilisation du produit, les données de diagnostic et d’autres données similaires liées à l’utilisation des services ou du logiciel de Zoom par les utilisateurs. Zoom conserve tous les droits sur ces données et peut les utiliser pour tout objectif, dans la mesure et de la manière permises par la loi applicable.

    Ce qui soulève l’alarme, c’est la mention explicite du droit de Zoom d’utiliser ces données pour le machine learning et l’IA, y compris l’entraînement et le réglage des algorithmes et des modèles. Cela permet à Zoom d’entraîner son IA sur le contenu des clients sans offrir la possibilité de s’y opposer, une décision qui devrait susciter un débat important sur la vie privée et le consentement des utilisateurs.

    Citation Envoyé par Zoom

    10.2 Données générées par le service ; consentement à l’utilisation. Le Contenu client ne comprend aucune donnée de télémétrie, donnée d’utilisation des produits ou donnée de diagnostic, ni aucun contenu ou donnée similaire collecté ou généré par Zoom en lien avec votre utilisation des Services ou des Logiciels ou avec celle de vos Utilisateurs finaux (les « Données générées par le service »). En vertu de l’accord conclu entre vous et Zoom, tous les droits, titres et intérêts relatifs aux Données générées par le service, ainsi que tous les Droits exclusifs y afférents, sont exclusivement détenus et conservés par Zoom. Vous acceptez que Zoom compile et puisse compiler des Données générées par le service basées sur le Contenu client et l’utilisation des Services et des Logiciels. Vous consentez à l’accès, à l’utilisation, à la collecte, à la création, à la modification, à la distribution, au traitement, au partage, à la maintenance et au stockage des Données générées par le Service à quelque fin que ce soit, dans la mesure et de la manière autorisée par la Loi applicable, y compris à des fins de développement de produits et de services, de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique ou d’intelligence artificielle (y compris à des fins d’entraînement et de réglage des algorithmes et des modèles), de formation, de test et d’amélioration des Services, des Logiciels ou d’autres produits, services et logiciels de Zoom, ou de toute combinaison de ceux-ci, et sauf disposition contraire du présent Accord. Dans le cadre de ce qui précède, si, pour quelque raison que ce soit, Zoom ne bénéficie pas de certains droits sur lesdites Données générées par le Service en vertu de la présente Section 10.2 ou sauf disposition contraire du présent Accord, vous cédez et acceptez par les présentes de céder à Zoom en votre nom, inconditionnellement et irrévocablement, et vous veillerez à ce que vos Utilisateurs finaux cèdent et acceptent de céder à Zoom, inconditionnellement et irrévocablement, tous les droits, titres et intérêts liés aux Données générées par le Service, y compris tous les Droits exclusifs y afférents.

    En outre, selon la section 10.4 des nouvelles conditions d’utilisation, Zoom s’est assuré une licence perpétuelle, mondiale, non exclusive, libre de droits, sous-licenciable et transférable pour redistribuer, publier, accéder, utiliser, stocker, transmettre, examiner, divulguer, préserver, extraire, modifier, reproduire, partager, utiliser, afficher, copier, distribuer, traduire, transcrire, créer des œuvres dérivées et traiter le contenu des clients (Customer Content). Zoom justifie ces actions comme nécessaires pour fournir des services aux clients, soutenir les services et améliorer ses services, son logiciel ou d’autres produits.

    Citation Envoyé par Zoom

    10.4 Octroi de licence par le client. Vous acceptez d’octroyer et octroyez à Zoom par les présentes une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence, transférable et entièrement libérée dans le monde entier, ainsi que tous les autres droits requis ou nécessaires pour redistribuer, publier, importer, utiliser, stocker, transmettre, consulter, divulguer, conserver, extraire, modifier, reproduire, partager, utiliser, présenter, copier, distribuer, traduire, transcrire et traiter le Contenu client, et pour accéder à ce dernier, en créer des œuvres dérivées ou exécuter toutes les actions s’y rapportant : (i) de toutes les manières nécessaires pour permettre à Zoom de vous fournir les Services, y compris d’en assurer l’assistance ; (ii) à des fins de développement de produits et de services, de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, de formation, de test et d’amélioration des Services, des Logiciels ou d’autres produits, services et logiciels de Zoom, ou de toute combinaison de ceux-ci ; et (iii) dans tout autre but en lien avec une quelconque utilisation ou une autre action autorisée conformément à la Section 10.3. Si vous détenez des Droits exclusifs sur des Données générées par le service ou des Données anonymes agrégées, vous octroyez à Zoom par les présentes une licence perpétuelle, irrévocable, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence, transférable et entièrement libérée dans le monde entier, ainsi que tous les autres droits requis ou nécessaires pour permettre à Zoom d’exercer ses droits relatifs aux Données générées par le service et aux Données anonymes agrégées, selon le cas, conformément au présent Accord.

    L’analyse de Simon Phipps

    Simon Phipps est un expert en logiciels libres et en standards ouverts. Il partage ses réflexions sur divers sujets liés à l’informatique, à la politique, à la culture et à la société. Il évoque parfois ses différents projets et activités en ligne, comme son rôle de directeur des standards et des politiques à l’Open Source Initiative, son ancien poste de responsable des logiciels libres chez Sun Microsystems, ou encore son implication dans le Fediverse, un réseau social décentralisé basé sur le protocole ActivityPub.

    Il s’est intéressé à la situation de Zoom. Voici ce qu’il a indiqué à ce sujet :

    Dans les termes, « les données, le contenu, les fichiers, les documents ou d’autres matériaux » que vous utilisez dans une session Zoom (“Entrée du client”), ainsi que les enregistrements et les transcriptions, et tout autre paillettes que Zoom saupoudre dessus, sont appelés « Contenu client ».

    10.4(ii) vous voit ensuite accorder une large licence au Contenu Client « à des fins de développement de produits et de services, de marketing, d’analyse, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, de formation, de test, d’amélioration des Services, du Logiciel ou de Zoom, d’autres produits, services et logiciels, ou toute combinaison de ceux-ci ». 10.5 explique que cela peut très bien être effectué par un tiers.

    Si les éléments que vous avez partagés appartiennent à quelqu’un d’autre, 10.6 vous voit accepter que « vous êtes seul responsable du contenu client » et notamment d’obtenir le consentement des tiers et de fournir des avis conformément aux lois applicables à la combinaison de personnes impliquées. Marquer des choses comme confidentielles n’aide pas - 17.1 indique clairement que « le contenu du client n’est pas une information confidentielle du client » (c’est-à-dire qu’il n’est pas traité par Zoom comme partagé en toute confidentialité).

    En plus de tout cela, dans 10.6, vous « déclarez et garantissez que vous avez le droit de télécharger l’Entrée Client et que Zoom vous fournit, crée ou met à votre disposition tout Contenu Client, et que cette utilisation ou fourniture par vous, votre Fin L’utilisateur ou Zoom ne viole ni n’enfreint aucun droit d’un tiers. » Donc, selon 25(i) & (iii), vous les indemnisez s’ils entraînent leur IA avec l’IP de quelqu’un d’autre que vous possédez - par exemple, un dossier client dont vous discutez en interne, ou une affaire juridique sur laquelle vous travaillez sous privilège.

    Il n’y a pas de possibilité d’opt-out ou de contrôle de la portée à utiliser dans les conditions de formation à l’IA. Le directeur de l’exploitation de Zoom affirme que l’utilisation réelle des fonctionnalités d’IA est facultative, mais cela ne semble pas pertinent, car les conditions accordent à Zoom ces autorisations indépendamment et le contenu client existe, que vous utilisiez ou non les fonctionnalités d’IA.

    Ma lecture non-avocate suggère que c’est une chose exceptionnellement risquée pour quiconque d’accepter s’il est en possession d’une propriété intellectuelle ou sous NDA concernant les secrets de quelqu’un d’autre, et j’éviterai Zoom (même s’ils annulent les termes - ne peut pas prendre le chance sur les futurs changements comme celui-ci).

    Simon Phipps recommande Jitsi à la place de Zoom

    Jitsi est un logiciel libre et open source qui permet de faire des visioconférences en ligne. Il est compatible avec les navigateurs web et les applications mobiles. Il offre des fonctionnalités comme le chiffrement, le partage d’écran, le chat, les réactions, les sondages, et plus encore. Jitsi est utilisé par de nombreuses organisations et personnes pour communiquer à distance, que ce soit pour le travail, l’éducation, ou le divertissement.

    Jitsi est divisé en plusieurs composants, dont les principaux sont :

    Jitsi Meet : l’interface web et mobile qui permet de créer et de rejoindre des réunions. Jitsi Videobridge : le serveur qui gère les flux vidéo entre les participants. Jitsi Jicofo : le serveur qui coordonne les sessions et les ressources. Jitsi Jigasi : le serveur qui permet de se connecter à des services de téléphonie. Jitsi SIP Communicator : le client de bureau qui permet de faire des appels audio et vidéo.

    Jitsi peut être installé sur son propre serveur ou utilisé via un service hébergé comme Jitsi as a Service (JaaS) qui propose une solution clé en main pour intégrer Jitsi dans son site web ou son application1. Jitsi est également disponible sur Google Play et App Store4 pour les utilisateurs mobiles.

    Suite au tollé, Zoom fait des modifications dans sa communication

    Zoom ne forme pas ses modèles d’intelligence artificielle sur des chats audio, vidéo ou textuels à partir de l’application « sans le consentement du client », selon un article de blog publié lundi par le directeur des produits de Zoom, Smita Hashim.

    Dans son message, Hashim écrit également que « nos clients continuent de posséder et de contrôler leur contenu ». Hashim écrit que « notre intention était de préciser que les clients créent et possèdent leur propre contenu vidéo, audio et chat. Nous sommes autorisés à utiliser ce contenu client pour fournir des services à valeur ajoutée basés sur ce contenu, mais nos clients continuent de posséder et de contrôler leur contenu ».

    Après la première publication de cet article, Zoom a mis à jour ses conditions d’utilisation avec une déclaration similaire dans sa section 10.4 :

    « Nonobstant ce qui précède, Zoom n’utilisera pas de contenu audio, vidéo ou de chat pour former nos modèles d’intelligence artificielle sans votre consentement ».

    Sources : Simon Phipps, Zoom , developpez.com

    Et vous ?

    Quelle lecture en faites-vous ?

  • 2 Votes
    4 Messages
    98 Vues

    c’est pour sourcer l’origine et les differenciers des publications réelles en résumé ?

  • 2 Votes
    4 Messages
    130 Vues

    @michmich

    Il a tout de même vécu 5 siècles, les Big Tech ont encore quelques beaux jours devant elles :ahah:

  • 1 Votes
    1 Messages
    49 Vues

    C’est une bonne nouvelle pour les organismes de défense de droits numériques. Même si la loi n’est pas encore entrée en vigueur, le contenu du projet de loi affiche bien la volonté des commissions européennes à protéger les Européens contre les dérives de l’Intelligence artificielle. De la reconnaissance faciale à bien d’autres aspects de l’usage de l’IA, l’organisation a mis les verrous pour restreindre les types d’utilisation qui peuvent être faits sur les populations.

    Dans la nouvelle version du projet de loi, il est interdit de se servir de programmes de reconnaissance faciale de masse dans les lieux publics. De même, une interdiction d’usage est adressée pour les algorithmes de police prédictive servant à identifier à l’avance des personnes susceptibles d’être dangereuses pour la société. Ces interdictions visent à protéger l’usage qui est fait des données personnelles de la population. En effet, pour être efficaces, les logiciels de ces catégories ont forcément besoin d’avoir accès à des données personnelles.

    Au-delà de ces interdictions, le projet de loi a prévu la création d’une base de données accessible au public. Cette base de données servira de répertoire des systèmes d’IA « à haut risque » que déploient les autorités gouvernementales et publiques. Le but est d’informer les citoyens de l’Union européenne du moment et de la manière dont ces systèmes les impactent. C’est donc la carte de la transparence que l’UE a décidé de jouer avec ces citoyens. « Cette base de données devrait être librement et publiquement accessible, facilement compréhensible et lisible par une machine », précise le projet. « La base de données devrait également être conviviale et facile à parcourir avec des fonctionnalités de recherche permettant au minimum au grand public de rechercher dans la base de données des systèmes à haut risque spécifiques, des lieux, des catégories de risque [et] des mots-clés ».

    Le projet de loi a aussi prévu des dispositions visant à plus de contrôle pour l’« IA à usage général » ou les systèmes d’IA « fondateurs ». Même si la loi n’a pas vraiment défini ce type de système, il est évident qu’il s’agit des langages d’IA de grande échelle servant à diverses fins. Avec cette explication, il est clair que la législation s’adresse à des systèmes comme GPT-4, ChatGPT. Par extension, les générateurs d’images à base d’IA comme Stable Diffusion, Midjourney et DALL-E sont aussi concernés.

    Microsoft, Google, OpenAI et les autres créateurs de système d’IA à grande échelle devront évaluer et atténuer divers risques avant que leurs outils ne soient mis à disposition du public. La législation a cité les divers contrôles à effectuer pour évaluer les systèmes créés. Entre autres, il faudra évaluer les dommages causés à l’environnement par la formation de ces systèmes. En effet, la mise en place des systèmes d’IA à grande échelle consomme souvent beaucoup d’énergie.

    Le projet de loi oblige aussi les entreprises à divulguer « l’utilisation de données de formation protégées par la législation sur le droit d’auteur ».

    Le processus n’est pas encore à son terme pour ce projet de loi. Son entrée en vigueur est programmée pour 2024. Le projet de loi était en examen depuis des années, mais la course contre l’IA a obligé les législateurs à apporter des modifications de dernière minute. La commission du marché intérieur et la commission des libertés civiles ont déjà validé la nouvelle version du projet de loi.

    La démarche et le contenu du projet ont reçu un écho favorable de certains acteurs du domaine. « C’est une très bonne nouvelle », a déclaré à The Verge Daniel Leufer, analyste politique principal de l’organisation à but non lucratif Access Now. « Je pense que d’énormes changements positifs ont été apportés au texte. »

    Source: https://www.fredzone.org/ue-elabore-projet-loi-interdit-usage-ia-surveillance-biometriqu

    On peut rêver, mais si la loi sortait avant les jo de Paris… :lol:

  • 4 Votes
    2 Messages
    88 Vues

    J’avais lu à leurs sorties “No Logo” et “La stratégie du choc”, et je vois que Naomi Klein a toujours l’esprit aussi lucide.

  • 1 Votes
    3 Messages
    135 Vues

    Easy Diffusion 13 Go
    un temps certain pour faire une création… j’ai viré 🙂

  • 3 Votes
    9 Messages
    226 Vues

    perso voici mes créations… enfin, celles de mon ia :
    00019-993948132.png

    00016-1776305331.png

    00008-4166517086.png

  • 1 Votes
    6 Messages
    156 Vues

    @Ashura a dit dans J’ai créé un monstre : le père de l’IA quitte Google par peur de son invention :

    Il fallait y penser avant, c’est un problème connu depuis 30 ans, on savait que ca allait arriver

    Certes, mais comme le climat, ça arrive infiniment plus vite que prévu, et ça s’accélère…!

  • 2 Votes
    2 Messages
    64 Vues

    pour moi c’est un outil qui est tres bien pour les étudiants un peu comme une calculatrice

    bientot le brevet pour gépeté : https://www.presse-citron.net/le-sigle-gpt-sera-bientot-une-propriete-privee/

  • 0 Votes
    1 Messages
    69 Vues

    Dolly est un modèle d’IA gratuit et open source de type ChatGPT

    Dolly 2.0 pourrait déclencher une nouvelle vague de LLM entièrement open source similaire à ChatGPT.

    Mercredi, Databricks a publié Dolly 2.0, qui serait le premier modèle de langage large (LLM) open source suivant les instructions à usage commercial qui a été affiné sur un ensemble de données générées par l’homme. Cela pourrait servir de point de départ convaincant pour les concurrents homebrew ChatGPT.

    Databricks est une société américaine de logiciels d’entreprise fondée en 2013 par les créateurs d’ Apache Spark . Ils fournissent une plate-forme Web pour travailler avec Spark pour le Big Data et l’apprentissage automatique. En publiant Dolly, Databricks espère permettre aux organisations de créer et de personnaliser des LLM “sans payer pour l’accès à l’API ni partager de données avec des tiers”, selon le blog de lancement de Dolly .

    Dolly 2.0, son nouveau modèle de 12 milliards de paramètres, est basé sur la famille de modèles pythia d’EleutherAI et affiné exclusivement sur des données de formation (appelées “databricks-dolly-15k”) provenant des employés de Databricks. Ce calibrage lui donne des capacités plus conformes au ChatGPT d’OpenAI, qui est meilleur pour répondre aux questions et engager le dialogue en tant que chatbot qu’un LLM brut qui n’a pas été affiné.

    Dolly 1.0, sorti en mars, était confronté à des limitations concernant l’utilisation commerciale en raison des données de formation, qui contenaient la sortie de ChatGPT (grâce à Alpaca ) et étaient soumises aux conditions d’utilisation d’OpenAI. Pour résoudre ce problème, l’équipe de Databricks a cherché à créer un nouvel ensemble de données qui permettrait une utilisation commerciale.

    Pour ce faire, Databricks a organisé 13 000 démonstrations de comportement de suivi des instructions de la part de plus de 5 000 de ses employés entre mars et avril 2023. Pour inciter à la participation, ils ont organisé un concours et décrit sept tâches spécifiques pour la génération de données, y compris les questions-réponses ouvertes, les questions-réponses fermées. , extraction et synthèse d’informations de Wikipédia, brainstorming, classification et écriture créative.

    L’ensemble de données résultant, ainsi que les poids du modèle et le code de formation de Dolly, ont été publiés entièrement en open source sous une licence Creative Commons , permettant à quiconque d’utiliser, de modifier ou d’étendre l’ensemble de données à n’importe quelle fin, y compris des applications commerciales.

    En revanche, ChatGPT d’OpenAI est un modèle propriétaire qui oblige les utilisateurs à payer pour l’accès à l’API et à respecter des conditions de service spécifiques, ce qui limite potentiellement la flexibilité et les options de personnalisation pour les entreprises et les organisations. de Meta Le LLaMA , un modèle partiellement open source (avec des poids restreints) qui a récemment engendré une vague de produits dérivés après la fuite de ses poids sur BitTorrent, ne permet pas une utilisation commerciale.

    Sur Mastodon, le chercheur en intelligence artificielle Simon Willison a qualifié Dolly 2.0 de “très important”. Willison expérimente souvent des modèles de langage open source, dont Dolly . “L’une des choses les plus excitantes à propos de Dolly 2.0 est le jeu d’instructions de réglage fin, qui a été fabriqué à la main par 5 000 employés de Databricks et publié sous une licence CC”, a écrit Willison dans un toot Mastodon.

    Si la réaction enthousiaste au seul modèle LLaMA partiellement ouvert de Meta est une indication, Dolly 2.0 pourrait potentiellement déclencher une nouvelle vague de modèles de langage open source qui ne sont pas entravés par des limitations propriétaires ou des restrictions d’utilisation commerciale. réelle de Dolly soit encore connue Bien que la capacité de performance , d’autres améliorations pourraient permettre d’exécuter des LLM raisonnablement puissants sur des machines grand public locales.

    “Même si Dolly 2 n’est pas bon, je pense que nous verrons bientôt un tas de nouveaux projets utilisant ces données de formation”, a déclaré Willison à Ars. “Et certains d’entre eux pourraient produire quelque chose de vraiment utile.”

    Actuellement, les datas de Dolly sont disponibles sur Hugging Face, et l’ensemble de données databricks-dolly-15k se trouve sur GitHub.

    Source: https://arstechnica.com/information-technology/2023/04/a-really-big-deal-dolly-is-a-free-open-source-chatgpt-style-ai-model/

  • 3 Votes
    4 Messages
    183 Vues

    ChatGPT comme keygen, fallait y penser :hehe:

  • 2 Votes
    4 Messages
    103 Vues

    Et la pause, c’est vraiment par peur ou juste pour rattraper le retard de certaines sociétés ?

    De toute façon, ça se présente mal pour eux: https://planete-warez.net/topic/3473/sept-modèles-d-a-i-générative-en-open-source

  • 0 Votes
    4 Messages
    102 Vues

    @Violence je la trouve plus, je sais plus u je l’ai vu