AIformé
illustration d'une personne manipulée comme une marionnette par une IA
Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.
L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d’au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.
À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.
Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.
|
Intelligence artificielle, « fake news » et recommandations pour limiter les risques
|
ChatGPT, Bard et les autres, agents de désinformation massive ?
|
Un an après l’adoption du DSA, les acteurs de la lutte contre la désinformation entre espoir et inquiétudes
|
Rumman Chowdhury : « il faut investir autant dans la protection des utilisateurs que dans le développement de l’IA »
L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.
Interdiction de créer des applications de ChatGPT pour les campagnes politiques
La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l’expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d’ingénieurs et de ses équipes politiques.
En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.
En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.
Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l’eau. Parmi ces règles, elle empêche d’ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.
Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.
OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».
Transparence sur les générations d’image et informations qualifiées sur les élections
Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».
L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.
Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».
|
Les moteurs de recherche accentuent la désinformation
Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique
À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.
Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).
Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».
Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.
|
Désinformation : de l’IA pour faire croire à une attaque du Pentagone