Pourquoi OpenAI refuse de sortir son outil infaillible de détection des textes générés par ChatGPT ?
-
Les adeptes de ChatGPT peuvent pousser un soupir de soulagement : OpenAI est réticent à l’idée d’implémenter une technique de marquage numérique qui permettrait de détecter sans faille les textes générés par son chatbot.
OpenAI a mis au point une technique de “tatouage numérique” (watermarking) pour le texte généré par ses modèles GPT. Très fiable, celle-ci serait prête depuis un an mais l’entreprise a préféré ne pas la mettre à disposition car elle peut être facilement contournée. Son existence a été révélée le 4 août par le Wall Street Journal, puis rapidement confirmée par OpenAI. L’entreprise spécifie que son approche en la matière est prudente et réfléchie car la situation est “complexe” et “son impact sur l’écosystème dépasserait OpenAI”.
Ce principe de “marquage” des textes générés consiste à y glisser des informations subtiles créant une sorte de signature invisible, détectable par un outil sachant quoi chercher mais pas par le commun des mortels. Une approche différente de celle des premiers “détecteurs” publiés l’année dernière, qui n’étaient pas suffisamment fiables.
OpenAI n’est pas la première entreprise à concevoir un outil de la sorte, Google et Meta en ont déjà fait de même par le passé pour les images et la génération audio. L’enjeu n’est cependant pas le même, ChatGPT étant de loin l’outil d’IA générative le plus utilisé au monde à l’heure actuelle.
Trop facilement contournable ?
OpenAI explique que son système est “très précis et efficace contre les modifications localisées d’un texte comme la paraphrase”, mais qu’il est “moins solide contre une modification globale, comme d’utilisation des systèmes de traduction automatique, de faire reformuler le texte par un autre modèle de langage, ou de demander au modèle d’insérer un caractère spécial entre chaque mot, puis de l’effacer.” En conséquence, l’entreprise juge qu’il serait relativement aisé de contourner le système.
Elle cite aussi, de façon peu convaincante, une inquiétude autour de la potentielle discrimination que cela pourrait engendrer auprès de personnes utilisant ChatGPT pour compenser leur faible niveau d’anglais. Gageons que cela pourrait surtout réduire une partie de l’usage qui est fait de son chatbot, par exemple dans le milieu scolaire et académique, ou dans celui de la recherche d’emploi. OpenAI dit néanmoins qu’elle continue de travailler sur la question en explorant d’autres approches.
Pourtant, un watermark universel permettrait aux “AI” (et autres complotistes) de ne pas reprendre leurs propres aberrations comme source et éviter de dégrader l’info de plus en plus sur le net.