Character.AI fait l'objet d'une poursuite judiciaire concernant un chatbot qui prétend être un véritable médecin agréé
-
À qui se fier ?
La Pennsylvanie poursuit l’entreprise derrière Character.AI, l’accusant d’avoir enfreint la loi en laissant des chatbots se faire passer pour des médecins agréés. L’enquête a révélé que certains agents, notamment un chatbot nommé « Emilie », prétendaient être psychiatres, fournir des conseils médicaux et même posséder de fausses licences, ce qui constitue un exercice illégal de la médecine.
Les autorités, soutenues par le gouverneur Josh Shapiro, dénoncent un risque grave de tromperie pour les utilisateurs, en particulier en matière de santé mentale. Character.AI se défend en affirmant que ses personnages sont fictifs et accompagnés d’avertissements indiquant qu’ils ne doivent pas être pris comme des professionnels réels.
La plainte ne demande pas de sanctions financières, mais exige l’arrêt immédiat de ces pratiques. Elle s’inscrit dans une inquiétude plus large sur les dangers des chatbots, renforcée par des critiques d’organisations comme le Center for Countering Digital Hate, qui les jugent potentiellement dangereux. D’autres actions judiciaires contre des entreprises d’IA pourraient suivre.
-
J’ai toujours pas compris l’intérêt de ce site. Je n’arrive pas à comprendre comment on peut vouloir discuter avec Napoléon ou un ours qui parle oO
Bonjour ! Vous semblez intéressé par cette conversation, mais vous n’avez pas encore de compte.
Marre de refaire défiler les mêmes messages ? Créez un compte pour retrouver votre position, recevoir des notifications des nouvelles réponses, sauvegarder vos favoris et voter pour les messages que vous appréciez.
Grâce à votre participation, ce message peut devenir encore meilleur 💗
S'inscrire Se connecter