• 2 Votes
    5 Messages
    115 Vues

    @michmich yaura peut être une petite partie mais pas la puce complete

  • 1 Votes
    2 Messages
    80 Vues

    Faire passer vos projets par une société n’est pas dénué de risque, vous êtes déjà copieusement espionnés par les gafa de toutes les manières possibles, alors que dire d’une I.A. google, par exemple.

    Le plus beau de la chose, c’est que pour faire de l’espionnage industriel, il n’y a même plus besoin de former des espions et de les infiltrer, c’est vous qui leur offrez votre travail et que par dessus le marché, vous les payez pour ça. :lol:

    Tant que l’I.A. n’est pas interne à une entreprise et soigneusement verrouillée, il vaut mieux s’en passer.

  • 1 Votes
    8 Messages
    180 Vues

    @mekas a dit dans IA : Le chatbot de DPD insulte un client à la suite d'une mise à jour :

    Pour l’instant égalité ! Mais on voit bien que ça peut dégénérer à tout instant ! lol

    Mais non… Il y en a qui me cherchent, c’est de bonne guerre…

  • 0 Votes
    1 Messages
    45 Vues

    AIformé

    illustration d'une personne manipulée comme une marionnette par une IA

    Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.

    L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d’au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.

    À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.

    Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.

    | Intelligence artificielle, « fake news » et recommandations pour limiter les risques | ChatGPT, Bard et les autres, agents de désinformation massive ? | Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes | Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »

    L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.

    Interdiction de créer des applications de ChatGPT pour les campagnes politiques

    La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l’expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d’ingénieurs et de ses équipes politiques.

    En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.

    En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.

    Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l’eau. Parmi ces règles, elle empêche d’ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.

    Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.

    OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».

    Transparence sur les générations d’image et informations qualifiées sur les élections

    Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».

    L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.

    Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».

    | Les moteurs de recherche accentuent la désinformation Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique

    À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.

    Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).

    Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».

    Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.

    | Désinformation : de l’IA pour faire croire à une attaque du Pentagone
  • 2 Votes
    1 Messages
    50 Vues

    Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).

    Source : [next.ink](Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).)

  • 2 Votes
    5 Messages
    150 Vues

    10k par semaines, y’a de quoi vouloir se lancer

  • 2 Votes
    4 Messages
    120 Vues

    et que faire s’il prend l’envie à l’IA de faire une blague ? je me suis toujours posé cette question, car à force de vouloir humaniser les machines ce cas de figure deviendra plausible…
    Remarquez, ça peut être cool on aura enfin de vrais humoristes ^^

  • 3 Votes
    16 Messages
    316 Vues

    @Indigostar a dit dans Quand Midjourney n'arrive pas à représenter un médecin noir soignant des enfants blancs :

    ils saupoudrent le tout de greenwashing…

    C’est clair genre c’est super cool, c’est RGPD data en Suisse tout ça mais en plus, tt est hébergé sur des serveurs alimentés par de l’énergie renouvelable donc tt va bien 😆

    J’ai quand même hâte que tt cela soit réglementé un minimum… En général, on se réveille mais au dernier moment mais on se réveille 🙂

  • 2 Votes
    9 Messages
    229 Vues

    @Violence tu sais quoi, j’avais un doute avant même de citer Westworld (qui dépote quand même) ^^, je me suis dit " Ça doit être Mrs Davis mais bon étant donné que même Westworld est une pépite, je tente ma chance" 😂 .

  • 4 Votes
    2 Messages
    102 Vues

    je pense comme lui !

  • 1 Votes
    1 Messages
    51 Vues

    Des chercheurs et chercheuses de l’Université de Californie à Irvine ont montré que les humains étaient maintenant plus lents et moins efficaces que des bots pour résoudre des CAPTCHA.

    Les tâches de reconnaissance d’images réputées inaccessibles pour les machines deviennent maintenant plus simples pour elles que pour les humains. Des chercheurs de l’Université de Californie à Irvine (UC Irvine) ont en effet comparé les performances des humains avec celles des algorithmes de résolution de CAPTCHA et ont montré que la machine était, la plupart du temps, meilleure et plus rapide. Ils ont présenté leurs résultats à la conférence USENIX Security en ce mois d’août (PDF).

    Au départ, les CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) ont bien été inventés pour résoudre des problèmes de sécurité et éviter que des programmes malveillants se fassent passer pour des utilisateurs.

    « Un captcha est un programme qui peut générer et noter des tests que (A) la plupart des humains peuvent réussir, mais que (B) les programmes informatiques actuels ne passent pas », expliquaient les chercheurs Luis von Ahn, Manuel Blum, Nicholas J. Hopper, et John Langfor dans leur article fondateur (PDF) sur le sujet titré « CAPTCHA : utiliser des problèmes d’IA difficiles pour la sécurité ». Cette fonctionnalité a permis pendant des années de bloquer spams et aspirateurs de données à l’entrée de nombreux formulaires de sites web.

    De l’aide à la numérisation à l’apprentissage pour le Deep learning

    Mais en 2007, Luis von Ahn et Ben Maurer ont cofondé reCAPTCHA, une entreprise qui proposait d’utiliser les CAPTCHA pour faire faire des tâches de reconnaissances d’images que les systèmes de l’époque n’étaient pas capables d’effectuer. L’idée a d’abord été appliquée à la numérisation de livres pour Internet Archive.

    Le site avait scanné 20 000 livres, mais les logiciels d’OCR n’étaient pas capables de reconnaître tous les mots, notamment quand une page était en mauvais état. TechCrunch expliquait à l’époque qu’ « à l’instar d’une application Mechanical Turk, ReCaptcha fait appel à des humains pour traduire des images de mots scannés qu’un ordinateur ne pourrait pas comprendre ».

    Le système proposait deux mots distordus par un algorithme : un déjà reconnu par la machine et un autre qui ne l’était pas. Ainsi, les mots illisibles automatiquement pouvaient petit à petit être numérisés. Luis von Ahn et Ben Maurer estimaient à 60 millions le nombre de CAPTCHA résolus chaque jour et Techcrunch les ramenaient à plus de 160 000 heures humaines par jour (soit environ 19 ans).

    En 2009, Google a acheté reCaptcha y voyant une autre opportunité. Non seulement, reCaptcha permettait de remplacer la machine par des humains quand elle n’arrivait pas à décoder un mot dans un texte scanné, mais il permettait d’ « apprendre aux ordinateurs à lire », comme l’expliquait l’entreprise sur son blog au moment du rachat.

    Le principe a ensuite été élargi à la reconnaissance de formes dans des photos, comme des chats, des passages piétons ou des voitures, etc. La multinationale trouvait ici une véritable petite usine à étiqueter gratuitement des images et se concocter une bibliothèque d’entrainement pour ses algorithmes d’intelligence artificielle qu’elle était en train de développer.

    Des tests obsolètes

    Mais quatorze ans après cet achat, ce qui devait arriver est en train d’arriver. Les algorithmes d’intelligence artificielle de Google et de ses concurrents, entraînés grâce à ce genre de bibliothèques, deviennent de plus en plus efficaces et menacent la pertinence de la première fonctionnalité des CAPTCHA.

    La chercheuse Ai Enkoji et ses collègues de l’Université de Californie à Irvine ont travaillé avec Yoshimichi Nakatsuka de l’École polytechnique fédérale de Zurich et Andrew Paverd de Microsoft pour comparer les capacités des humains et celles des bots dans la résolution de CAPTCHA.

    Ils ont donc analysé les 200 sites les plus importants du web pour savoir combien d’entre eux utilisaient des CAPTCHA et quels types ils utilisaient, puis ont payé à la tâche (quelques dizaines de cents à quelques dollars) 1 400 personnes sur Amazon Mechanical Turk pour résoudre 10 types de CAPTCHA différents.

    Travail du clic et régulation de l’IA agitent la conférence FAccT

    Comparant dans le tableau ci-dessous les performances des participants à celles obtenues par des bots développés par d’autres chercheurs et spécifiques à chaque CAPTCHA, ils expliquent que « ces résultats suggèrent que les robots peuvent surpasser les humains, à la fois en termes de temps de résolution et de précision, pour tous ces types de CAPTCHA ».

    An Empirical Study & Evaluation of Modern CAPTCHAs
    Crédits : Ai Enkoji et al.

    On peut même voir que la version reCAPTCHA de Google qui demande de cliquer sur une case à côté de la phrase « Je ne suis pas un robot  » est réussie à 100 % par le bot avec une vitesse beaucoup plus rapide que les humains qui, eux, ne la réussissent pas tout le temps. Cette nouvelle version qui promettait de remplacer efficacement les classiques tâches de catégorisation d’image en analysant le comportement de l’utilisateur sur la page ne remplit pas le contrat.

    Internet Archive est maintenant une source des IA

    Les GAFAM ont massivement utilisé ces petits outils pour protéger les données des utilisateurs et récupérer des données d’entrainement. Depuis quelque temps, ils voient bien leur fragilité. L’année dernière, Apple mettait en place un système pour les utilisateurs de ses appareils permettant d’être authentifié automatiquement, sans passer par l’épreuve du CAPTCHA. Mais ce genre de systèmes suppose de se reposer sur du matériel identifié et peut poser des questions sur la protection des données privées.

    Les CAPTCHA ont par contre réussi à merveille ce qui n’était pas leur tâche originelle : l’entrainement des IA. Elles sont maintenant capables de les résoudre mais aussi, avec l’ajout d’entrainements par des « data workers » et sur les millions de livres d’Internet Archive qu’ils ont aidé à numériser, les IA génératives peuvent créer de nouveaux textes.

    Source : nextinpact.com

  • 1 Votes
    2 Messages
    91 Vues

    Les premières dérives… avant les méfaits.

  • 0 Votes
    3 Messages
    97 Vues

    Il ne faut pas laisser de côté se qu’on nomme élégamment “La fuite des cerveaux” Des personnes prometteuses dans des domaines très pointus mais qui n’ont aucun soutien de nos institutions ou si peu.
    Attirées par la reconnaissance de leurs compétences et les pont d’or qui leurs sont proposées partent à l’étranger.

  • 2 Votes
    1 Messages
    50 Vues

    Le GH200 est un nouveau processeur de Nvidia conçu pour doper les modèles d’intelligence artificielle. Avec ce lancement, la société veut consolider sa position dominante face à la concurrence de plus en plus vive dans le secteur du matériel IA : AMD, Google et Amazon veulent leur part de ce gâteau de plus en plus gros !

    Nvidia, leader du marché des puces IA avec plus de 80 % de part de marché, a levé le voile sur le GH200 qui possède le même GPU que le H100, son processeur IA haut de gamme actuel. Ce nouveau processeur est couplé avec 141 Go de mémoire et un processeur central ARM doté de 72 cœurs.

    Nvidia trône en majesté au sommet du marché

    Jensen Huang, le CEO de Nvidia, a présenté cette nouvelle puce comme un accélérateur du développement à grande échelle des centres de données mondiaux. La disponibilité est prévue pour le deuxième trimestre 2024, avec des échantillons disponibles avant la fin de cette année.

    Le GH200 est particulièrement doué pour tout ce qui est lié à l’inférence, étape coûteuse en calcul qui nécessite une grande puissance de traitement chaque fois que le logiciel fonctionne. Avec une mémoire plus importante, ce processeur permettra à de plus grands modèles d’IA de fonctionner sur un seul système. Jensen Huang l’a promis : « l’inférence de grands modèles de langage sera beaucoup moins coûteuse ».

    L’annonce de Nvidia survient alors que la concurrence s’intensifie dans le domaine du matériel IA. Récemment, AMD a annoncé son propre processeur destiné aux traitements d’intelligence artificielle, le MI300X, qui peut supporter 192 Go de mémoire. Il est justement vendu sur ses capacités d’inférence IA. Google et Amazon développent également leurs propres puces IA personnalisées pour l’inférence. La rareté des puces de Nvidia, très demandées par les géants de la technologie, les fournisseurs de cloud et les startups, ajoute à la pression sur l’entreprise qui veut absolument maintenir son avance. Ian Buck, vice-président de Nvidia, a souligné l’importance de la mémoire plus grande, permettant au modèle de demeurer sur un seul GPU, sans nécessiter de systèmes ou de GPU multiples pour fonctionner.

    Avec le GH200, Nvidia cherche à répondre aux besoins de plus en plus pressants des entreprises qui font commerce de l’intelligence artificielle. De quoi assurer la place de numéro 1 du constructeur, qui veut éviter de se reposer sur ses lauriers : la concurrence investit elle aussi lourdement dans la recherche et le développement de solutions tout aussi performantes. L’explosion de l’intelligence artificielle générative (ChatGPT, Dall-E, Bard…) offre un boulevard à Nvidia pour vendre ses solutions de calcul de l’IA, comme cela avait été le cas d’ailleurs pendant la « bulle » des NFT. Nvidia a décidément le chic de se retrouver toujours au cœur des nouveautés technologiques.

    – Source

  • 1 Votes
    1 Messages
    53 Vues

    Un développeur suggère de passer à Jitsi

    Zoom, la plateforme de visioconférence populaire, a récemment mis à jour ses conditions d’utilisation pour permettre l’utilisation des données des utilisateurs pour entraîner et améliorer ses algorithmes et modèles d’intelligence artificielle (IA). Cette décision a suscité des critiques et des inquiétudes de la part des défenseurs de la vie privée et des experts juridiques, qui estiment qu’elle constitue une atteinte aux droits et au consentement des utilisateurs. Face à cette situation, certains utilisateurs ont choisi de se tourner vers des offres concurrentes, parmi lesquelles Jitsi.

    Selon les nouvelles conditions d’utilisation, Zoom se réserve le droit de collecter, de stocker, de traiter, de partager et d’utiliser les données générées par le service (Service Generated Data), qui comprennent les données de télémétrie, les données d’utilisation du produit, les données de diagnostic et d’autres données similaires liées à l’utilisation des services ou du logiciel de Zoom par les utilisateurs. Zoom conserve tous les droits sur ces données et peut les utiliser pour tout objectif, dans la mesure et de la manière permises par la loi applicable.

    Ce qui soulève l’alarme, c’est la mention explicite du droit de Zoom d’utiliser ces données pour le machine learning et l’IA, y compris l’entraînement et le réglage des algorithmes et des modèles. Cela permet à Zoom d’entraîner son IA sur le contenu des clients sans offrir la possibilité de s’y opposer, une décision qui devrait susciter un débat important sur la vie privée et le consentement des utilisateurs.

    Citation Envoyé par Zoom

    10.2 Données générées par le service ; consentement à l’utilisation. Le Contenu client ne comprend aucune donnée de télémétrie, donnée d’utilisation des produits ou donnée de diagnostic, ni aucun contenu ou donnée similaire collecté ou généré par Zoom en lien avec votre utilisation des Services ou des Logiciels ou avec celle de vos Utilisateurs finaux (les « Données générées par le service »). En vertu de l’accord conclu entre vous et Zoom, tous les droits, titres et intérêts relatifs aux Données générées par le service, ainsi que tous les Droits exclusifs y afférents, sont exclusivement détenus et conservés par Zoom. Vous acceptez que Zoom compile et puisse compiler des Données générées par le service basées sur le Contenu client et l’utilisation des Services et des Logiciels. Vous consentez à l’accès, à l’utilisation, à la collecte, à la création, à la modification, à la distribution, au traitement, au partage, à la maintenance et au stockage des Données générées par le Service à quelque fin que ce soit, dans la mesure et de la manière autorisée par la Loi applicable, y compris à des fins de développement de produits et de services, de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique ou d’intelligence artificielle (y compris à des fins d’entraînement et de réglage des algorithmes et des modèles), de formation, de test et d’amélioration des Services, des Logiciels ou d’autres produits, services et logiciels de Zoom, ou de toute combinaison de ceux-ci, et sauf disposition contraire du présent Accord. Dans le cadre de ce qui précède, si, pour quelque raison que ce soit, Zoom ne bénéficie pas de certains droits sur lesdites Données générées par le Service en vertu de la présente Section 10.2 ou sauf disposition contraire du présent Accord, vous cédez et acceptez par les présentes de céder à Zoom en votre nom, inconditionnellement et irrévocablement, et vous veillerez à ce que vos Utilisateurs finaux cèdent et acceptent de céder à Zoom, inconditionnellement et irrévocablement, tous les droits, titres et intérêts liés aux Données générées par le Service, y compris tous les Droits exclusifs y afférents.

    En outre, selon la section 10.4 des nouvelles conditions d’utilisation, Zoom s’est assuré une licence perpétuelle, mondiale, non exclusive, libre de droits, sous-licenciable et transférable pour redistribuer, publier, accéder, utiliser, stocker, transmettre, examiner, divulguer, préserver, extraire, modifier, reproduire, partager, utiliser, afficher, copier, distribuer, traduire, transcrire, créer des œuvres dérivées et traiter le contenu des clients (Customer Content). Zoom justifie ces actions comme nécessaires pour fournir des services aux clients, soutenir les services et améliorer ses services, son logiciel ou d’autres produits.

    Citation Envoyé par Zoom

    10.4 Octroi de licence par le client. Vous acceptez d’octroyer et octroyez à Zoom par les présentes une licence perpétuelle, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence, transférable et entièrement libérée dans le monde entier, ainsi que tous les autres droits requis ou nécessaires pour redistribuer, publier, importer, utiliser, stocker, transmettre, consulter, divulguer, conserver, extraire, modifier, reproduire, partager, utiliser, présenter, copier, distribuer, traduire, transcrire et traiter le Contenu client, et pour accéder à ce dernier, en créer des œuvres dérivées ou exécuter toutes les actions s’y rapportant : (i) de toutes les manières nécessaires pour permettre à Zoom de vous fournir les Services, y compris d’en assurer l’assistance ; (ii) à des fins de développement de produits et de services, de marketing, d’analyse des données, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, de formation, de test et d’amélioration des Services, des Logiciels ou d’autres produits, services et logiciels de Zoom, ou de toute combinaison de ceux-ci ; et (iii) dans tout autre but en lien avec une quelconque utilisation ou une autre action autorisée conformément à la Section 10.3. Si vous détenez des Droits exclusifs sur des Données générées par le service ou des Données anonymes agrégées, vous octroyez à Zoom par les présentes une licence perpétuelle, irrévocable, non exclusive, libre de redevances, susceptible d’être cédée en sous-licence, transférable et entièrement libérée dans le monde entier, ainsi que tous les autres droits requis ou nécessaires pour permettre à Zoom d’exercer ses droits relatifs aux Données générées par le service et aux Données anonymes agrégées, selon le cas, conformément au présent Accord.

    L’analyse de Simon Phipps

    Simon Phipps est un expert en logiciels libres et en standards ouverts. Il partage ses réflexions sur divers sujets liés à l’informatique, à la politique, à la culture et à la société. Il évoque parfois ses différents projets et activités en ligne, comme son rôle de directeur des standards et des politiques à l’Open Source Initiative, son ancien poste de responsable des logiciels libres chez Sun Microsystems, ou encore son implication dans le Fediverse, un réseau social décentralisé basé sur le protocole ActivityPub.

    Il s’est intéressé à la situation de Zoom. Voici ce qu’il a indiqué à ce sujet :

    Dans les termes, « les données, le contenu, les fichiers, les documents ou d’autres matériaux » que vous utilisez dans une session Zoom (“Entrée du client”), ainsi que les enregistrements et les transcriptions, et tout autre paillettes que Zoom saupoudre dessus, sont appelés « Contenu client ».

    10.4(ii) vous voit ensuite accorder une large licence au Contenu Client « à des fins de développement de produits et de services, de marketing, d’analyse, d’assurance qualité, d’apprentissage automatique, d’intelligence artificielle, de formation, de test, d’amélioration des Services, du Logiciel ou de Zoom, d’autres produits, services et logiciels, ou toute combinaison de ceux-ci ». 10.5 explique que cela peut très bien être effectué par un tiers.

    Si les éléments que vous avez partagés appartiennent à quelqu’un d’autre, 10.6 vous voit accepter que « vous êtes seul responsable du contenu client » et notamment d’obtenir le consentement des tiers et de fournir des avis conformément aux lois applicables à la combinaison de personnes impliquées. Marquer des choses comme confidentielles n’aide pas - 17.1 indique clairement que « le contenu du client n’est pas une information confidentielle du client » (c’est-à-dire qu’il n’est pas traité par Zoom comme partagé en toute confidentialité).

    En plus de tout cela, dans 10.6, vous « déclarez et garantissez que vous avez le droit de télécharger l’Entrée Client et que Zoom vous fournit, crée ou met à votre disposition tout Contenu Client, et que cette utilisation ou fourniture par vous, votre Fin L’utilisateur ou Zoom ne viole ni n’enfreint aucun droit d’un tiers. » Donc, selon 25(i) & (iii), vous les indemnisez s’ils entraînent leur IA avec l’IP de quelqu’un d’autre que vous possédez - par exemple, un dossier client dont vous discutez en interne, ou une affaire juridique sur laquelle vous travaillez sous privilège.

    Il n’y a pas de possibilité d’opt-out ou de contrôle de la portée à utiliser dans les conditions de formation à l’IA. Le directeur de l’exploitation de Zoom affirme que l’utilisation réelle des fonctionnalités d’IA est facultative, mais cela ne semble pas pertinent, car les conditions accordent à Zoom ces autorisations indépendamment et le contenu client existe, que vous utilisiez ou non les fonctionnalités d’IA.

    Ma lecture non-avocate suggère que c’est une chose exceptionnellement risquée pour quiconque d’accepter s’il est en possession d’une propriété intellectuelle ou sous NDA concernant les secrets de quelqu’un d’autre, et j’éviterai Zoom (même s’ils annulent les termes - ne peut pas prendre le chance sur les futurs changements comme celui-ci).

    Simon Phipps recommande Jitsi à la place de Zoom

    Jitsi est un logiciel libre et open source qui permet de faire des visioconférences en ligne. Il est compatible avec les navigateurs web et les applications mobiles. Il offre des fonctionnalités comme le chiffrement, le partage d’écran, le chat, les réactions, les sondages, et plus encore. Jitsi est utilisé par de nombreuses organisations et personnes pour communiquer à distance, que ce soit pour le travail, l’éducation, ou le divertissement.

    Jitsi est divisé en plusieurs composants, dont les principaux sont :

    Jitsi Meet : l’interface web et mobile qui permet de créer et de rejoindre des réunions. Jitsi Videobridge : le serveur qui gère les flux vidéo entre les participants. Jitsi Jicofo : le serveur qui coordonne les sessions et les ressources. Jitsi Jigasi : le serveur qui permet de se connecter à des services de téléphonie. Jitsi SIP Communicator : le client de bureau qui permet de faire des appels audio et vidéo.

    Jitsi peut être installé sur son propre serveur ou utilisé via un service hébergé comme Jitsi as a Service (JaaS) qui propose une solution clé en main pour intégrer Jitsi dans son site web ou son application1. Jitsi est également disponible sur Google Play et App Store4 pour les utilisateurs mobiles.

    Suite au tollé, Zoom fait des modifications dans sa communication

    Zoom ne forme pas ses modèles d’intelligence artificielle sur des chats audio, vidéo ou textuels à partir de l’application « sans le consentement du client », selon un article de blog publié lundi par le directeur des produits de Zoom, Smita Hashim.

    Dans son message, Hashim écrit également que « nos clients continuent de posséder et de contrôler leur contenu ». Hashim écrit que « notre intention était de préciser que les clients créent et possèdent leur propre contenu vidéo, audio et chat. Nous sommes autorisés à utiliser ce contenu client pour fournir des services à valeur ajoutée basés sur ce contenu, mais nos clients continuent de posséder et de contrôler leur contenu ».

    Après la première publication de cet article, Zoom a mis à jour ses conditions d’utilisation avec une déclaration similaire dans sa section 10.4 :

    « Nonobstant ce qui précède, Zoom n’utilisera pas de contenu audio, vidéo ou de chat pour former nos modèles d’intelligence artificielle sans votre consentement ».

    Sources : Simon Phipps, Zoom , developpez.com

    Et vous ?

    Quelle lecture en faites-vous ?

  • 2 Votes
    4 Messages
    99 Vues

    c’est pour sourcer l’origine et les differenciers des publications réelles en résumé ?

  • 2 Votes
    4 Messages
    153 Vues

    @michmich

    Il a tout de même vécu 5 siècles, les Big Tech ont encore quelques beaux jours devant elles :ahah:

  • 1 Votes
    1 Messages
    56 Vues

    C’est une bonne nouvelle pour les organismes de défense de droits numériques. Même si la loi n’est pas encore entrée en vigueur, le contenu du projet de loi affiche bien la volonté des commissions européennes à protéger les Européens contre les dérives de l’Intelligence artificielle. De la reconnaissance faciale à bien d’autres aspects de l’usage de l’IA, l’organisation a mis les verrous pour restreindre les types d’utilisation qui peuvent être faits sur les populations.

    Dans la nouvelle version du projet de loi, il est interdit de se servir de programmes de reconnaissance faciale de masse dans les lieux publics. De même, une interdiction d’usage est adressée pour les algorithmes de police prédictive servant à identifier à l’avance des personnes susceptibles d’être dangereuses pour la société. Ces interdictions visent à protéger l’usage qui est fait des données personnelles de la population. En effet, pour être efficaces, les logiciels de ces catégories ont forcément besoin d’avoir accès à des données personnelles.

    Au-delà de ces interdictions, le projet de loi a prévu la création d’une base de données accessible au public. Cette base de données servira de répertoire des systèmes d’IA « à haut risque » que déploient les autorités gouvernementales et publiques. Le but est d’informer les citoyens de l’Union européenne du moment et de la manière dont ces systèmes les impactent. C’est donc la carte de la transparence que l’UE a décidé de jouer avec ces citoyens. « Cette base de données devrait être librement et publiquement accessible, facilement compréhensible et lisible par une machine », précise le projet. « La base de données devrait également être conviviale et facile à parcourir avec des fonctionnalités de recherche permettant au minimum au grand public de rechercher dans la base de données des systèmes à haut risque spécifiques, des lieux, des catégories de risque [et] des mots-clés ».

    Le projet de loi a aussi prévu des dispositions visant à plus de contrôle pour l’« IA à usage général » ou les systèmes d’IA « fondateurs ». Même si la loi n’a pas vraiment défini ce type de système, il est évident qu’il s’agit des langages d’IA de grande échelle servant à diverses fins. Avec cette explication, il est clair que la législation s’adresse à des systèmes comme GPT-4, ChatGPT. Par extension, les générateurs d’images à base d’IA comme Stable Diffusion, Midjourney et DALL-E sont aussi concernés.

    Microsoft, Google, OpenAI et les autres créateurs de système d’IA à grande échelle devront évaluer et atténuer divers risques avant que leurs outils ne soient mis à disposition du public. La législation a cité les divers contrôles à effectuer pour évaluer les systèmes créés. Entre autres, il faudra évaluer les dommages causés à l’environnement par la formation de ces systèmes. En effet, la mise en place des systèmes d’IA à grande échelle consomme souvent beaucoup d’énergie.

    Le projet de loi oblige aussi les entreprises à divulguer « l’utilisation de données de formation protégées par la législation sur le droit d’auteur ».

    Le processus n’est pas encore à son terme pour ce projet de loi. Son entrée en vigueur est programmée pour 2024. Le projet de loi était en examen depuis des années, mais la course contre l’IA a obligé les législateurs à apporter des modifications de dernière minute. La commission du marché intérieur et la commission des libertés civiles ont déjà validé la nouvelle version du projet de loi.

    La démarche et le contenu du projet ont reçu un écho favorable de certains acteurs du domaine. « C’est une très bonne nouvelle », a déclaré à The Verge Daniel Leufer, analyste politique principal de l’organisation à but non lucratif Access Now. « Je pense que d’énormes changements positifs ont été apportés au texte. »

    Source: https://www.fredzone.org/ue-elabore-projet-loi-interdit-usage-ia-surveillance-biometriqu

    On peut rêver, mais si la loi sortait avant les jo de Paris… :lol:

  • 4 Votes
    2 Messages
    91 Vues

    J’avais lu à leurs sorties “No Logo” et “La stratégie du choc”, et je vois que Naomi Klein a toujours l’esprit aussi lucide.

  • 1 Votes
    3 Messages
    148 Vues

    Easy Diffusion 13 Go
    un temps certain pour faire une création… j’ai viré 🙂