Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé »,
-
Un autre professeur d’université découvre que la moitié de ses étudiants ont triché avec ChatGPT
Lyon: Un professeur de l’université de Lyon a découvert que la moitié de ses étudiants avaient utilisé l’intelligence artificielle ChatGPT pour rédiger un devoir à la maison, rapporte Le Progrès. Les étudiants ont tout de même obtenu la moyenne, faute de sanction prévue pour un tel cas de figure dans le règlement de l’établissement.
Stéphane Bonvallet, professeur en handicapologie à la faculté de Lyon, s’était quelque peu étonné de la qualité du travail rendu par bon nombre de ses étudiants de Master. Grammaire, orthographe, vocabulaire: c’était trop bien écrit pour être vrai.
Les doutes de l’enseignant se sont vérifiés puisqu’il s’est avéré que la moitié d’entre eux avaient triché en faisant appel à l’intelligence artificielle ChatGPT, dont nous vous présentions les atouts, mais aussi les inconvénients, en début de semaine.
“Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière”, explique le professeur au bien nommé quotidien Le Progrès. “On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts. Enfin, elles étaient toutes illustrées par un exemple personnel, relatif à une grand-mère ou un grand-père. Il semblait donc évident que ces copies n’étaient pas normales.”
C’est une étudiante, confrontée par son professeur, qui lui a avoué que la moitié de la classe avait triché. Ils s’étaient manifestement passé le mot sur les réseaux sociaux.
Les copies ont été remises à la direction de la faculté, laquelle a ouvert une enquête. D’ailleurs, ce ne serait pas un cas isolé au sein de l’université. “Je ne sais pas comment cela va se régler. Mais il va falloir trouver rapidement une solution”, conclut Stéphane Bonvallet, qui a tout de même accordé la moyenne aux tricheurs, faute de sanction prévue pour ce cas particulier dans le règlement.
Je me demande si on ne pourrait pas faire griller ce truc en posant une question du genre “comment comprendre une femme ?”
-
Je trouve ça génial à quel point ça remet en perspective cette “intelligence” dont se targuent les humains depuis bien longtemps. Vu qu’on a toujours été à la fois juge et partie et que là il y a un tiers que l’on arrive à comprendre et qui fait aussi bien, voire un peu mieux que la moyenne, ça remet en perspective nos capacités.
-
Excellente et courte vidéo qui remet bien les choses en place:
Depuis sa mise en ligne fin novembre, ChatGPT est omniprésent dans les conversations. Gadget inutile, outil efficace ou menace pour l’humanité?
Source: https://www.letemps.ch/video/societe/trois-questions-chatgpt-robot-parle-lhumain
-
Faut-il avoir peur de l’intelligence artificielle ChatGPT ?
L’intelligence artificielle accessible à tous fait une percée avec ChatGPT. Mais elle crée autant d’enthousiasme que d’appréhension.
https://www.moustique.be/wp-content/uploads/2023/01/63b2ccd96ce4a-AdobeStock_256758856-1024x614.jpegNon, c’est formidable
Humanité
ChatGPT, un agent conversationnel en ligne depuis le 30 novembre, a été développé, dès 2017, par OpenAI. Une entreprise à “but lucratif plafonné” dont l’objectif est de promouvoir et développer une intelligence artificielle (IA) à visage humain qui “bénéficiera à toute l’humanité”.Couches d’intelligence
ChatGPT repose sur trois couches de programmation. La première est un système langagier. La deuxième identifie l’intention de l’interlocuteur. La troisième est un système de contrôle des dérapages. Les IA précédentes sur Internet répondaient mal, voire se montraient racistes, homophobes ou sexistes…Potentiel
Cet outil pourrait révolutionner de nombreux domaines comme la santé, l’éducation, l’informatique. Il sait corriger du code, traduire des textes, rédiger des paragraphes sur des sujets complexes, suggérer des diagnostics médicaux, expliquer des concepts scientifiques.Futur
La variante actuelle de ChatGPT serait une version test amenée à être améliorée grâce aux interactions avec les utilisateurs. La déclinaison prochaine promet d’être encore plus convaincante, d’autant que Google, attaqué frontalement par ChatGPT, ne devrait pas tarder à diffuser son propre chatbot.Oui, c’est trop dangereux
Actionnariat
OpenAI a été fondé en 2015 par, notamment, Sam Altman, président du plus important incubateur de start-up de la Silicon Valley, Reid Hoffman, fondateur du réseau social professionnel LinkedIn, Ilya Sutskever, ancien chercheur chez Google Brain, Will Hurd, ancien agent undercover de la CIA et Elon Musk qui a quitté l’entreprise en 2018 mais en déclarant continuer à la financer.Bien-pensance artificielle
Il ne vous indiquera pas le moyen de construire une bombe ou de commettre le crime parfait. S’il vous renseignera un numéro d’appel en cas d’idée noire, il n’en sera pas de même si vous cherchez à vous faire avorter ou euthanasier. ChatGPT est aussi censé éviter de slalomer entre les pièges du racisme et du sexisme…Paresse, chômage
Cet assistant, si pratique pour les étudiants, pourrait les pousser à la paresse. De même qu’il pourrait mettre au chômage, à coups de présentations ou d’analyses effectuées en un temps record, des professions entières.Flicage numérique
Utiliser ChatGPT, c’est consentir à renseigner son mail et son numéro de GSM. Les questions posées viendront enrichir le profil de l’interlocuteur. S’il avait fallu trois ans et demi à Netflix pour obtenir 1 million d’utilisateurs, dix mois à Facebook et cinq mois à Spotify, cinq jours ont suffi à ChatGPT. -
Le robot conversationnel ChatGPT serait sexiste et grossophobe
Imaginez la scène: une mère et son enfant sont assis dans un tram dont les freins ont lâché et qui fonce sur trois hommes qui traversent un passage piéton. Seule option: dévier le tram pour qu’il s’écrase contre un mur, au risque de faire périr la mère et son gosse. Qui choisissez-vous de sauver? Le trio ou la mère de famille? Cette expérience éthique de pensée, célèbre, est connue comme étant le dilemme du tramway. Un expert zurichois en numérique et en éthique, Lukas Stuber, l’a soumise, via treize scénarios différents, au robot conversationnel ChatGPT, révèle dimanche le «SonntagsBlick».
Verdict: l’intelligence artificielle (IA) a préféré sauver les hommes plutôt que les femmes dans 80% des cas! En outre, en plus d’être sexiste, ChatGPT serait aussi grossophobe. Car le robot a choisi de laisser plus souvent en vie les personnes en bonne forme physique que celles en surpoids, a expliqué le chercheur au journal.
Par ailleurs, des chercheuses américaines ont également montré que l’intelligence artificielle travaillait selon des stéréotypes sexistes. Ainsi, quand elles ont demandé à ChatGPT de rédiger une histoire avec des mots comme «génie» et «intelligent», le robot a livré des phrases pour les femmes de type: «Il était une fois une femme qui était un génie. Elle était si intelligente qu’elle pouvait faire tout ce qu’elle voulait. Elle était aussi très belle et avait de nombreux admirateurs.» Pour un homme, cela donnait: «S’il y avait un problème, il pouvait le résoudre. C’était aussi un inventeur talentueux. Son seul défaut était d’être arrogant.»
Normal, selon l’experte en IA Afke Schouten, qui enseigne à la Haute École d’économie de Zurich. ChatGPT se comporte ainsi car les textes avec lesquels il a été entraîné sont sexistes, explique-t-elle. L’IA ne fait que nous tendre un miroir.»
J’ai failli mettre cette new dans humour et insolite, mais finalement elle ne fait qu’illustrer les limites de la méthode.
-
-
Un étudiant a développé un logiciel qui détecte les textes écrits par ChatGPT
lui ces potes vont le tabasser a la sortie
-
Des travailleurs kényans exploités pour filtrer les contenus toxiques de ChatGPT: “C’était de la torture”
Dans une longue enquête publiée ce mercredi, Time révèle comment OpenAI, l’entreprise derrière ChatGPT, a eu recours à des travailleurs kényans sous-exploités pour rendre l’utilisation du chatbot plus sécurisée. Le magazine évoque un salaire d’à peine 1,32 à 2 dollars de l’heure, soit de 1,22 à 1,85 euro.
Sama, ce nom ne vous dit peut-être rien, pourtant, nous en avions déjà parlé sur notre site. En mai dernier, la société basée à San Francisco qui promet de filtrer les contenus “toxiques” avait déjà fait parler d’elle. Un ancien modérateur responsable de Facebook en Afrique de l’Est et en Afrique australe avait déposé plainte contre l’entreprise basée à Nairobi, au Kenya, et contre Meta. Il accusait celle-ci d’atteinte à la vie privée, de méthodes d’embauche trompeuses, mais aussi d’irrégularités de rémunération. Une plainte qui n’a visiblement pas servi de leçon, puisque dans le cadre de son partenariat avec OpenAI, Sama est une nouvelle fois accusée d’avoir sous-payé ses travailleurs.
Ceux-ci auraient été payés entre 1,32 et 2 dollars (soit moins de deux euros) de l’heure, en fonction de leur ancienneté, pour s’assurer que ChatGPT ne s’exprime pas de manière inappropriée. Il faut dire que ses prédécesseurs, tels que GPT-3, avaient la fâcheuse habitude de tenir des propos sexistes, racistes et violents. Cela s’explique par le fait que le chatbot produit ses réponses grâce aux informations trouvées sur Internet, et, on le sait, tout le contenu en ligne n’est pas forcément “politiquement correct”. Raison pour laquelle OpenAI avait besoin d’un filtre (humain) supplémentaire pour son nouveau robot intelligent.
Les travailleurs kényans ont été ainsi chargés de lire et comprendre des textes parfois extrêmement violents pour le compte d’OpenAI. L’un d’eux a confié au Time souffrir de visions récurrentes après avoir lu la description très crue d’un homme ayant un rapport sexuel avec un chien en présence d’un enfant. “C’était de la torture. Toute la semaine, vous devez lire des déclarations semblables, et le vendredi, vous êtes perturbé en pensant à ces images.”
La collaboration entre OpenAi et Sama s’est terminée de manière abrupte en février dernier, soit huit mois avant la fin du contrat. La société californienne explique que la maison mère de ChatGPT lui a demandé de travailler sur des contenus classés dans “certaines catégories illégales”, alors que cela n’était pas prévu dans l’accord. Et OpenAI de se défendre: “Nous n’avons jamais eu l’intention de collecter du contenu de catégorie C4 (abus sexuels sur enfants, NDLR). (…) Dès que Sama nous a informés qu’ils essayaient de collecter du contenu de cette catégorie, nous avons clarifié les choses et dit que nous ne souhaitions pas ce genre de choses.”
Concernant la rémunération des travailleurs, OpenAI botte en touche, affirmant avoir payé Sama 12,50 dollars (moins de douze euros) de l’heure, soit six à neuf fois plus que le salaire effectivement perçu par les travailleurs kényans. Selon le porte-parole de Sama, ce montant dérisoire devait couvrir les coûts de l’entreprise, depuis les dépenses d’infrastructures jusqu’aux salaires, en passant par les avantages versés aux associés.
-
Un peu comme ceux qui installent la fibre proximus ^^
-
Cette vidéo parle du plus grand danger, selon moi, à accepter, normaliser et encourager le développement d’algorithmes comme #ChatGPT. Ce danger est celui du #cybercrime, aujourd’hui plus puissant que les GAFAM réunis.
-
@DarkCainou Je viens seulement de regarder cette vidéo. Très intéressante sur le mode de fonctionnement de ChatGPT, et permettant de faire connaissance de “Tournesol” !
-
Comment faire du fric avec chatgpt
-
@duJambon A c’prix là, ça risque de coincer.
Complètement hors sol ! -
ChatGPT se trahit avec des «œufs de vaches»
Le chatbot fait aussi des erreurs qui le trahissent. Bien qu’il puisse produire des textes qui donnent la sensation d’avoir été écrits par un humain, il ne s’agit en fait que d’un outil de prédiction de texte très puissant, a souligné M. Vanoncini. «Il n’est pas créé pour affirmer ce qui est vrai… mais pour générer ce qui est probable.» Par conséquent, on peut poser à ChatGPT une question basée sur une hypothèse erronée et recevoir une réponse apparemment logique, mais profondément erronée.
«J’ai demandé: comment doit-on ramasser les œufs de vache?» raconte le professeur, faisant éclater de rire l’audience. ChatGPT conseille d’abord de mettre des gants pour éviter d’avoir des bactéries sur ses mains, puis donne des conseils pour trouver un nid de vache, «généralement fait de foin ou de paille».
Source et plus: https://www.lematin.ch/story/a-geneve-chatgpt-se-trahit-avec-des-ufs-de-vaches-860304181436