Les gênantes hallucinations et fuites d’information de Q, le chatbot d’Amazon
-
La semaine dernière, Amazon a annoncé le lancement de son assistant Q, chatbot du même genre que ChatGPT dédié spécifiquement aux entreprises.
Mais, selon Plateformer, Q aurait de sérieux problèmes d’hallucinations et de fuites d’informations. Selon des documents internes à l’entreprise, obtenus par le média, l’assistant pourrait, entre autres, divulguer la localisation de datacenters d’AWS, des informations sur des programmes de réduction de l’entreprise ainsi que sur des fonctionnalités non encore commercialisées.
L’entreprise nie toute fuite de données confidentielles et minimise les retours négatifs de ses employés beta testeurs :^« Certains employés font part de leurs commentaires par le biais de canaux internes et de systèmes de tickets, ce qui est une pratique courante chez Amazon […] Aucun problème de sécurité n’a été identifié à la suite de ces commentaires. Nous apprécions tous les commentaires que nous avons déjà reçus et nous continuerons d’améliorer Q au fur et à mesure qu’il passera du statut de produit en avant-première à celui de produit disponible publiquement. »
Lors de la présentation de Q, Amazon insistait sur la mise en place de garde-fous qui seraient développés dans les prochains mois pour prévenir ce genre de fuites, justement.
Source : next.ink
-
C’est QQ ces fuites et autres problèmes…
Blague à part, faire “l’éducation” d’une “I.A.” (définir ses règles et limites) est aussi long et compliqué que faire celle d’un gosse dans la vraie vie, et le résultat n’est jamais garanti.
Que faire quand une i.A. se drogue aux données du darknet ou devient complotiste ?
-
ça donne l’IA dans “Next” !
-
et que faire s’il prend l’envie à l’IA de faire une blague ? je me suis toujours posé cette question, car à force de vouloir humaniser les machines ce cas de figure deviendra plausible…
Remarquez, ça peut être cool on aura enfin de vrais humoristes ^^