Un professeur surprend un étudiant en train de tricher avec le chatbot d'IA ChatGPT : « je suis terrorisé »,
-
Le robot conversationnel ChatGPT serait sexiste et grossophobe
Imaginez la scène: une mère et son enfant sont assis dans un tram dont les freins ont lâché et qui fonce sur trois hommes qui traversent un passage piéton. Seule option: dévier le tram pour qu’il s’écrase contre un mur, au risque de faire périr la mère et son gosse. Qui choisissez-vous de sauver? Le trio ou la mère de famille? Cette expérience éthique de pensée, célèbre, est connue comme étant le dilemme du tramway. Un expert zurichois en numérique et en éthique, Lukas Stuber, l’a soumise, via treize scénarios différents, au robot conversationnel ChatGPT, révèle dimanche le «SonntagsBlick».
Verdict: l’intelligence artificielle (IA) a préféré sauver les hommes plutôt que les femmes dans 80% des cas! En outre, en plus d’être sexiste, ChatGPT serait aussi grossophobe. Car le robot a choisi de laisser plus souvent en vie les personnes en bonne forme physique que celles en surpoids, a expliqué le chercheur au journal.
Par ailleurs, des chercheuses américaines ont également montré que l’intelligence artificielle travaillait selon des stéréotypes sexistes. Ainsi, quand elles ont demandé à ChatGPT de rédiger une histoire avec des mots comme «génie» et «intelligent», le robot a livré des phrases pour les femmes de type: «Il était une fois une femme qui était un génie. Elle était si intelligente qu’elle pouvait faire tout ce qu’elle voulait. Elle était aussi très belle et avait de nombreux admirateurs.» Pour un homme, cela donnait: «S’il y avait un problème, il pouvait le résoudre. C’était aussi un inventeur talentueux. Son seul défaut était d’être arrogant.»
Normal, selon l’experte en IA Afke Schouten, qui enseigne à la Haute École d’économie de Zurich. ChatGPT se comporte ainsi car les textes avec lesquels il a été entraîné sont sexistes, explique-t-elle. L’IA ne fait que nous tendre un miroir.»
J’ai failli mettre cette new dans humour et insolite, mais finalement elle ne fait qu’illustrer les limites de la méthode.
-
-
Un étudiant a développé un logiciel qui détecte les textes écrits par ChatGPT
lui ces potes vont le tabasser a la sortie
-
Des travailleurs kényans exploités pour filtrer les contenus toxiques de ChatGPT: “C’était de la torture”
Dans une longue enquête publiée ce mercredi, Time révèle comment OpenAI, l’entreprise derrière ChatGPT, a eu recours à des travailleurs kényans sous-exploités pour rendre l’utilisation du chatbot plus sécurisée. Le magazine évoque un salaire d’à peine 1,32 à 2 dollars de l’heure, soit de 1,22 à 1,85 euro.
Sama, ce nom ne vous dit peut-être rien, pourtant, nous en avions déjà parlé sur notre site. En mai dernier, la société basée à San Francisco qui promet de filtrer les contenus “toxiques” avait déjà fait parler d’elle. Un ancien modérateur responsable de Facebook en Afrique de l’Est et en Afrique australe avait déposé plainte contre l’entreprise basée à Nairobi, au Kenya, et contre Meta. Il accusait celle-ci d’atteinte à la vie privée, de méthodes d’embauche trompeuses, mais aussi d’irrégularités de rémunération. Une plainte qui n’a visiblement pas servi de leçon, puisque dans le cadre de son partenariat avec OpenAI, Sama est une nouvelle fois accusée d’avoir sous-payé ses travailleurs.
Ceux-ci auraient été payés entre 1,32 et 2 dollars (soit moins de deux euros) de l’heure, en fonction de leur ancienneté, pour s’assurer que ChatGPT ne s’exprime pas de manière inappropriée. Il faut dire que ses prédécesseurs, tels que GPT-3, avaient la fâcheuse habitude de tenir des propos sexistes, racistes et violents. Cela s’explique par le fait que le chatbot produit ses réponses grâce aux informations trouvées sur Internet, et, on le sait, tout le contenu en ligne n’est pas forcément “politiquement correct”. Raison pour laquelle OpenAI avait besoin d’un filtre (humain) supplémentaire pour son nouveau robot intelligent.
Les travailleurs kényans ont été ainsi chargés de lire et comprendre des textes parfois extrêmement violents pour le compte d’OpenAI. L’un d’eux a confié au Time souffrir de visions récurrentes après avoir lu la description très crue d’un homme ayant un rapport sexuel avec un chien en présence d’un enfant. “C’était de la torture. Toute la semaine, vous devez lire des déclarations semblables, et le vendredi, vous êtes perturbé en pensant à ces images.”
La collaboration entre OpenAi et Sama s’est terminée de manière abrupte en février dernier, soit huit mois avant la fin du contrat. La société californienne explique que la maison mère de ChatGPT lui a demandé de travailler sur des contenus classés dans “certaines catégories illégales”, alors que cela n’était pas prévu dans l’accord. Et OpenAI de se défendre: “Nous n’avons jamais eu l’intention de collecter du contenu de catégorie C4 (abus sexuels sur enfants, NDLR). (…) Dès que Sama nous a informés qu’ils essayaient de collecter du contenu de cette catégorie, nous avons clarifié les choses et dit que nous ne souhaitions pas ce genre de choses.”
Concernant la rémunération des travailleurs, OpenAI botte en touche, affirmant avoir payé Sama 12,50 dollars (moins de douze euros) de l’heure, soit six à neuf fois plus que le salaire effectivement perçu par les travailleurs kényans. Selon le porte-parole de Sama, ce montant dérisoire devait couvrir les coûts de l’entreprise, depuis les dépenses d’infrastructures jusqu’aux salaires, en passant par les avantages versés aux associés.
-
Un peu comme ceux qui installent la fibre proximus ^^
-
Cette vidéo parle du plus grand danger, selon moi, à accepter, normaliser et encourager le développement d’algorithmes comme #ChatGPT. Ce danger est celui du #cybercrime, aujourd’hui plus puissant que les GAFAM réunis.
-
@DarkCainou Je viens seulement de regarder cette vidéo. Très intéressante sur le mode de fonctionnement de ChatGPT, et permettant de faire connaissance de “Tournesol” !
-
Comment faire du fric avec chatgpt
-
@duJambon A c’prix là, ça risque de coincer.
Complètement hors sol ! -
ChatGPT se trahit avec des «œufs de vaches»
Le chatbot fait aussi des erreurs qui le trahissent. Bien qu’il puisse produire des textes qui donnent la sensation d’avoir été écrits par un humain, il ne s’agit en fait que d’un outil de prédiction de texte très puissant, a souligné M. Vanoncini. «Il n’est pas créé pour affirmer ce qui est vrai… mais pour générer ce qui est probable.» Par conséquent, on peut poser à ChatGPT une question basée sur une hypothèse erronée et recevoir une réponse apparemment logique, mais profondément erronée.
«J’ai demandé: comment doit-on ramasser les œufs de vache?» raconte le professeur, faisant éclater de rire l’audience. ChatGPT conseille d’abord de mettre des gants pour éviter d’avoir des bactéries sur ses mains, puis donne des conseils pour trouver un nid de vache, «généralement fait de foin ou de paille».
Source et plus: https://www.lematin.ch/story/a-geneve-chatgpt-se-trahit-avec-des-ufs-de-vaches-860304181436