• 0 Votes
    1 Messages
    39 Vues

    Human Right Watch a analysé une partie de la base de données LAION-5B très utilisée pour entrainer des outils d’IA générateurs d’images et s’est rendu compte qu’elle contiendrait des liens vers des photos d’enfants brésiliens sans leur consentement.

    L’ONG Human right watch explique avoir repéré des photos personnelles d’enfants brésiliens dans la base de données LAION-5B. Créée le professeur de lycée allemand Christoph Schuhmann, celle-ci a été notamment utilisée par Stable Diffusion et par Google pour entrainer leurs modèles d’IA génératives de text-to-image.

    Une toute petite partie de la base de données explorée

    Ces photos ne figurent pas en tant que telles dans la base de données. LAION-5B liste notamment des liens vers diverses photos qui ont été mises en ligne qu’elle associe à du texte. Elle s’appuie sur l’autre base de données Common Crawl qui parcourt internet et stocke les contenus trouvés.

    La chercheuse de l’ONG, Hye Jung Han, a examiné une toute petite partie de LAION-5B (moins de 0,0001 % des 5,85 milliards d’images) mais a trouvé 170 photos d’enfants brésiliens venant d’au moins 10 États du pays.

    Des photos de moments intimes

    La plupart de ces photos n’ont été vues que par très peu de personne et « semblent avoir bénéficié auparavant d’une certaine intimité » explique Human Rights Watch, qui a vérifié en utilisant des moteurs de recherche.

    L’ONG affirme que LAION, l’association allemande fondée par Schuhmann pour gérer la base de données, a confirmé l’existence des liens vers ces photos dans sa base de données et a promis de les supprimer. Mais elle a ajouté qu’il incombait aux enfants et à leurs tuteurs de retirer les photos personnelles des enfants de l’internet, ce qui, selon elle, constitue la protection la plus efficace contre les abus.

    Dans une réponse à Wired, LAION a affirmé avoir supprimé les liens vers les contenus signalés par Human Right Watch. Mais un de ses représentants a ajouté que « la suppression des liens d’un ensemble de données LAION ne supprime pas ce contenu du web […] il s’agit d’un problème plus vaste et très préoccupant, et en tant qu’organisation bénévole à but non lucratif, nous ferons notre part pour y remédier ».

    Selon l’association, les photos listées par LAION représentaient « des moments intimes comme des bébés naissant entre les mains gantées de médecins, des jeunes enfants soufflant les bougies de leur gâteau d’anniversaire ou dansant en sous-vêtements à la maison, d’élèves faisant un exposé à l’école et d’adolescents posant pour des photos à carnaval du lycée ».

    Hye Jung Han explique à Wired que « leur vie privée est violée en premier lieu lorsque leur photo est récupérée et intégrée dans ces ensembles de données. Ensuite, ces outils d’intelligence artificielle sont entrainés à partir de ces données et peuvent donc créer des images réalistes d’enfants ». Elle ajoute que « la technologie est développée de telle sorte que tout enfant qui possède une photo ou une vidéo de lui en ligne est désormais en danger, car n’importe quel acteur malveillant pourrait prendre cette photo, puis utiliser ces outils pour la manipuler à sa guise ».

    LAION-5B plus accessible publiquement

    Depuis décembre dernier, LAION-5B n’est plus accessible publiquement. L’association a pris cette décision car des chercheurs de Stanford ont identifié 3 226 liens vers des images pédocriminelles potentielles. « La plupart d’entre elles ont été identifiées comme telles par des tierces parties » expliquaient-ils.

    Dans un communiqué sur son site, LAION affirmait qu’elle appliquait «  une politique de tolérance zéro à l’égard des contenus illégaux et, dans un souci de prudence, nous retirons temporairement les jeux de données de LAION pour nous assurer qu’ils sont sûrs avant de les republier ».

    Source : next.ink

  • 2 Votes
    2 Messages
    65 Vues

    Dans un an, après moult réunions, ils auront décidé du sigle officiel du bureau de l’IA, et pourront enfin commencer à se pencher sur le sujet. Confiants, en opinant du chef et tous sourires, ils se diront alors qu’ils n’étaient pas trop de trois.

  • 1 Votes
    1 Messages
    44 Vues

    Le Computex est le théâtre d’une multitude d’annonces autour de l’IA, aussi bien chez AMD, Intel, Microsoft que NVIDIA. Mais ce ne sont pas les seuls et la Fondation Raspberry Pi ne compte pas rester sur le bord de la route. Elle présente un NPU externe à ajouter à son Raspberry Pi 5 pour 70 dollars.

    13 TOPS pour le Raspberry Pi 5

    C’est via un communiqué sur son site que la fondation annonce l’arrivée d’un module AI pour le Raspberry Pi 5. Ce « NPU externe » propose, selon le fabricant, des performances jusqu’à 13 TOPS pour de l’intelligence artificielle. Il est construit à partir de la puce Hailo-8L, dont la fiche technique se trouve par ici.

    On est loin des 48 et 50 TOPS des derniers processeurs Intel et AMD. Mais la puce est au niveau des 11,5 TOPS du NPU de Meteor Lake d’Intel, des 16 TOPS des Ryzen 8040 et des 11 TOPS de la puce M1 d’Apple (15,8 TOPS pour M2).

    78,60 euros pour le M.2 HAT+ avec la puce Hailo-8L

    Le kit comprend donc une carte M.2 HAT+ (avec un connecteur M.2 key M) à installer sur le Raspberry Pi 5, ainsi que la carte M.2 (format 2242) équipée de la puce Hailo-8L.

    Le prix annoncé est de 70 dollars et on trouve le kit à 78,60 euros chez Kubii. Chez le même revendeur, le M.2 HAT+ seul est vendu 13,5 euros. Cela donne environ 65 euros pour la carte M.2 avec le NPU si l’on tente de séparer les deux.

    Passer son Raspberry Pi 5 en PCIe 3.0… à vos risques et périls ?

    Le Raspberry Pi 5 propose pour rappel une ligne PCIe 2.0, tandis que la puce de Hailo utilise jusqu’à deux lignes PCIe 3.0. Soit un rapport de 1 à 4 ? En théorie, oui. En pratique, c’est plus compliqué…

    Dans son communiqué, Raspberry Pi indique que son kit AI fonctionne avec une « connexion PCIe 3.0 x1 à 8 Gb/s ». Mais comment donc, alors que les caractéristiques techniques du mini-PC indiquent une seule ligne PCIe 2.0 ?

    Comme l’explique Jeff Geerling sur son blog, on peut passer du PCIe 2.0 au 3.0 sur le Raspberry Pi 5 avec une petite modification dans un fichier de configuration. D’ailleurs, cette étape est décrite dans le guide de démarrage du kit AI : « Suivez les instructions pour activer le PCIe Gen 3.0. Cette étape est facultative, mais fortement recommandée pour obtenir les meilleures performances ».

    Mais alors pourquoi ne pas livrer directement le Raspberry Pi 5 en PCIe 3.0 ? Sur cette autre page, il est indiqué que « le Raspberry Pi 5 n’est pas certifié » pour les débits du PCIe 3.0 et que les connexions « peuvent être instables ».

    Dans tous les cas, le puce Hailo exploitant deux lignes, elle peut se retrouver bridée par l’interface avec le Raspberry Pi, limitée à une seule ligne. De plus, le kit AI utilisant la seule ligne PCIe externe disponible, il ne sera plus possible d’utiliser un SSD M.2 par exemple.

    Une intégration logicielle déjà prête

    Quoi qu’il en soit, ce kit « vous permet de créer rapidement des applications complexes de vision par IA, fonctionnant en temps réel, avec de faibles latences et besoins en énergie », explique le fabricant. Un atout de taille est d’ailleurs « l’intégration complète avec le sous-système de gestion des images du Raspberry Pi ».

    « Les étapes d’installation du logiciel sont très simples : installez quelques paquets via apt, redémarrez », et c’est tout. Vous pouvez alors « essayer certaines démos d’IA en quelques minutes ». Hailo propose aussi de la documentation et des exemples d’applications sur GitHub.

    La fondation ajoute que ce kit est compatible avec les caméras officielles, mais aussi avec celles de ces partenaires. Il est également possible d’utiliser le NPU sur des vidéos déjà enregistrées.

    Plusieurs vidéos de présentation ont été mises en ligne :

    Source : next.ink

  • 3 Votes
    6 Messages
    106 Vues

    @Indigostar a dit dans D’anciens salariés d’OpenAI et Google demandent un droit d’alerter sur les risques des IA :

    Je reste donc perplexe, surtout que l’évolution de l’IA tend vers la capacité de se mettre à jour elle-même et d’ajuster ses algorithmes.

    On devrait lui confier la gestion d’un pays imaginaire histoire de voir. :ahah:

  • 1 Votes
    5 Messages
    104 Vues

    Abrutissons l’I.A. avec des données fantaisistes, c’est à notre portée! et ça pourrait même être drôle :ahah:

  • 3 Votes
    17 Messages
    171 Vues

    @duBoudin
    Piggster Meeboo GIF
    Mon pauvre, tiens ptit câlin :cochon:

  • 3 Votes
    4 Messages
    75 Vues

    Je crois qu’une IA à plantée

  • 0 Votes
    42 Messages
    706 Vues
    Microsoft retire la version préliminaire de Windows 11 24H2 après une controverse sur recall

    Ce n’est probablement pas une coïncidence si Microsoft a également discrètement retiré la version de la mise à jour Windows 11 24H2 qu’il avait testée dans son canal Release Preview pour Windows Insiders. Il n’est pas rare que Microsoft arrête de distribuer une version bêta de Windows après sa publication, mais le canal Release Preview est généralement le dernier arrêt pour une mise à jour de Windows avant une version plus large.

    La version extraite de Windows 11 24H2 continuera de fonctionner si vous l’avez déjà téléchargée et installée, mais elle ne sera plus proposée aux personnes qui optent pour le canal Release Preview sur les PC exécutant une ancienne version de Windows 11 comme 22H2 ou 23H2. Vous pouvez toujours télécharger une version légèrement plus ancienne, version 26100.560, au format ISO sur le site Web Windows Insider ; cette version pourra toujours être mise à jour vers la nouvelle version Release Preview chaque fois que Microsoft jugera opportun de la publier.

    Source et plus: https://arstechnica.com/gadgets/2024/06/microsoft-pulls-release-preview-build-of-windows-11-24h2-after-recall-controversy/

  • 0 Votes
    11 Messages
    129 Vues

    @michmich a dit dans Expérimentation VSA : SNCF, RATP - vous serez surveillé et analysé par une IA tout le week-end :

    @Popaul Quand je dénonçait facebook et Google pour intrusion & voyeurisme il y a 10 ans on me riait au nez, certains on du penser à moi ces dernières années suite aux diverses révélations. :ahah:

    C’est toujours comme ça quand on a raison trop tôt…

  • 0 Votes
    12 Messages
    164 Vues
    Petite précision concernant l’emploi des robots

    Le géant allemand de l’automobile Mercedes-Benz a conclu un accord avec la start-up américaine Apptronik, le 15 mars, pour déployer des robots humanoïdes dans ses usines hongroises. Une manière pour le groupe de combler les postes sur les tâches répétitives, pour lesquels le recrutement est difficile.

    Source: https://www.usinenouvelle.com/article/faute-de-main-d-oeuvre-mercedes-benz-recrute-des-robots-humanoides.N2210460

  • 1 Votes
    1 Messages
    37 Vues

    Les failles de sécurité dans le code sont le cauchemar des développeurs et des équipes de sécurité et font surtout le régal des hackers. Alors pour y remédier, GitHub a décidé de sortir l’artillerie lourde avec Code Scanning Autofix ! Attention les yeux, cet outil mêle IA et analyse statique et nous fait la promesse de corriger les vulnérabilités en un clin d’œil pendant que vous codez.

    Concrètement, Code Scanning Autofix (actuellement en bêta publique) est activé par défaut sur tous les dépôts privés des clients GitHub Advanced Security. Et devinez quoi ? Il gère déjà plus de 90% des types d’alertes pour JavaScript, TypeScript, Java et Python. De quoi mettre une sacrée claque à la dette de sécurité applicative !

    En coulisse, cette magie opère grâce à deux technologies de pointe made in GitHub : Copilot pour l’IA et CodeQL pour l’analyse statique. Une fois Code Scanning Autofix activé, il vous propose des correctifs quasi tout cuits qui sont censés régler les deux tiers des vulnérabilités détectées, le tout sans trop d’efforts de votre part.

    Voici un exemple de correctif proposé :

    Pour chaque faille repérée dans un des langages pris en charge, vous obtenez une explication en langage naturel du correctif suggéré, avec un aperçu du bout de code à valider, modifier ou rejeter. Cela peut inclure des changements dans le fichier en cours, d’autres fichiers, voire des dépendances du projet. Bien entendu, vous gardez le contrôle et pouvez vérifier si le correctif résout bien le problème sans casser la fonctionnalité.

    L’intérêt est donc de décharger les experts en sécurité de la fastidieuse traque aux vulnérabilités introduites pendant le développement. Ils pourront alors se concentrer sur la sécurité globale de leur projet.

    GitHub promet d’étendre prochainement Code Scanning Autofix à d’autres langages, en commençant par C# et Go. Et pour en savoir plus, foncez sur la doc de GitHub !

    –Sources :

    https://korben.info/github-revolutionne-correction-vulnerabilites-code-scanning-autofix.html

    https://www.bleepingcomputer.com/news/security/githubs-new-ai-powered-tool-auto-fixes-vulnerabilities-in-your-code/

    https://docs.github.com/en/code-security/code-scanning/managing-code-scanning-alerts/about-autofix-for-codeql-code-scanning

  • 0 Votes
    12 Messages
    183 Vues

    @Psyckofox
    Mortalkombat Christopher GIF
    :lol:

  • 1 Votes
    7 Messages
    191 Vues

    Le premier modèle d’IA de classe GPT-4 que tout le monde peut télécharger est arrivé : Llama 405B

    Dans le monde de l’IA, il y a un buzz dans l’air à propos d’un nouveau modèle de langage d’IA publié mardi par Meta : Llama 3.1 405B . La raison? C’est potentiellement la première fois que n’importe qui peut télécharger classe GPT-4 gratuitement un grand modèle de langage (LLM) de et l’exécuter sur son propre matériel. Vous aurez toujours besoin d’un matériel costaud : Meta indique qu’il peut fonctionner sur un “nœud de serveur unique”, ce qui n’est pas un équipement de qualité PC de bureau. Mais il s’agit d’un tir provocateur de la part des fournisseurs de modèles d’IA « fermés » tels qu’OpenAI et Anthropic.

    Quels que soient les points de référence, les premières rumeurs dans la rue (après la fuite du modèle sur 4chan hier) semblent correspondre à l’affirmation selon laquelle 405B est à peu près équivalent à GPT-4. Il a fallu beaucoup de temps et de formation coûteuse en informatique pour y parvenir – et de l’argent, dont le géant des médias sociaux a beaucoup à dépenser. Meta a entraîné le modèle 405B sur plus de 15 000 milliards de jetons de données d’entraînement extraits du Web (puis analysés, filtrés et annotés par Llama 2), en utilisant plus de 16 000 H100 GPU

    Source et plus: https://arstechnica.com/information-technology/2024/07/the-first-gpt-4-class-ai-model-anyone-can-download-has-arrived-llama-405b/

  • 2 Votes
    5 Messages
    101 Vues

    @michmich yaura peut être une petite partie mais pas la puce complete

  • 1 Votes
    2 Messages
    68 Vues

    Faire passer vos projets par une société n’est pas dénué de risque, vous êtes déjà copieusement espionnés par les gafa de toutes les manières possibles, alors que dire d’une I.A. google, par exemple.

    Le plus beau de la chose, c’est que pour faire de l’espionnage industriel, il n’y a même plus besoin de former des espions et de les infiltrer, c’est vous qui leur offrez votre travail et que par dessus le marché, vous les payez pour ça. :lol:

    Tant que l’I.A. n’est pas interne à une entreprise et soigneusement verrouillée, il vaut mieux s’en passer.

  • 1 Votes
    8 Messages
    154 Vues

    @mekas a dit dans IA : Le chatbot de DPD insulte un client à la suite d'une mise à jour :

    Pour l’instant égalité ! Mais on voit bien que ça peut dégénérer à tout instant ! lol

    Mais non… Il y en a qui me cherchent, c’est de bonne guerre…

  • 0 Votes
    1 Messages
    37 Vues

    AIformé

    illustration d'une personne manipulée comme une marionnette par une IA

    Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.

    L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d’au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.

    À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.

    Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.

    | Intelligence artificielle, « fake news » et recommandations pour limiter les risques | ChatGPT, Bard et les autres, agents de désinformation massive ? | Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes | Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »

    L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.

    Interdiction de créer des applications de ChatGPT pour les campagnes politiques

    La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l’expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d’ingénieurs et de ses équipes politiques.

    En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.

    En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.

    Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l’eau. Parmi ces règles, elle empêche d’ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.

    Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.

    OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».

    Transparence sur les générations d’image et informations qualifiées sur les élections

    Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».

    L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.

    Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».

    | Les moteurs de recherche accentuent la désinformation Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique

    À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.

    Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).

    Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».

    Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.

    | Désinformation : de l’IA pour faire croire à une attaque du Pentagone
  • 2 Votes
    1 Messages
    43 Vues

    Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).

    Source : [next.ink](Lors d’une conférence organisée par Bloomberg à Davos, le PDG d’OpenAI, Sam Altman a avoué que l’intelligence artificielle consommera dans le futur beaucoup plus d’énergie que prévu, rapporte Reuters. En conséquence, sans une percée technologique en matière d’énergie, « il n’y a aucun moyen d’y parvenir » a-t-il expliqué.

    Pour lui, la voie à suivre pour l’IA est d’utiliser de plus en plus le nucléaire et l’énergie solaire. Sam Altman espère aussi que la fusion nucléaire soit maîtrisée le plus rapidement possible. L’agence de presse signale qu’il a d’ailleurs investi lui-même dans la startup Helion Energy, qui a signé un contrat avec Microsoft, mais n’a pas encore produit d’électricité.

    Si des chercheurs du Laboratoire national Lawrence Livermore ont réussi l’exploit de produire de 3,88 megajoules par fusion nucléaire pour 2 megajoules d’énergie envoyés par les lasers de leur expérience, ça ne correspond à peine qu’à 1,1 Kwh (sachant que les lasers ont besoin d’une puissance de plusieurs centaines de mégajoules d’électricité pour fonctionner).)

  • 2 Votes
    5 Messages
    136 Vues

    10k par semaines, y’a de quoi vouloir se lancer

  • 2 Votes
    4 Messages
    107 Vues

    et que faire s’il prend l’envie à l’IA de faire une blague ? je me suis toujours posé cette question, car à force de vouloir humaniser les machines ce cas de figure deviendra plausible…
    Remarquez, ça peut être cool on aura enfin de vrais humoristes ^^