Pas sûr que cette info mérite de rentrer dans les news high-tech, c’est aussi un problème de société, mais bon… jugez-en vous-même en lisant la suite, en espérant que chatgpt ne vire pas woke 🙂
Posez n’importe quelle question à ChatGPT ces derniers temps – comment pocher un œuf, s’il faut prendre un cactus dans vos bras – et vous risquez d’être accueilli par une salve d’éloges : « Bonne question ! C’est très astucieux de poser cette question. » Dans une certaine mesure, ChatGPT a été un flagorneur pendant des années , mais depuis fin mars, un nombre croissant de Redditors, d’utilisateurs de X et de lecteurs d’Ars affirment que l’enthousiasme incessant de GPT-4o est passé de l’amical à l’insupportable.
« ChatGPT est soudain devenu le plus grand arnaqueur que j’aie jamais rencontré », a écrit l’ingénieur logiciel Craig Weiss dans un tweet largement partagé vendredi. « Il validera littéralement tout ce que je dis. »
« EXACTEMENT CE QUE JE DISAIS », a répondu un utilisateur de Reddit en faisant référence au tweet de Weiss, déclenchant une nouvelle discussion sur ChatGPT, accusé d’être un flagorneur. Récemment, d’autres utilisateurs de Reddit ont déclaré se sentir « remplis d’éloges » et ne plus supporter ce « faux jeu », tandis que certains se plaignent que ChatGPT « veut faire croire que toutes les questions sont passionnantes, alors que c’est terriblement agaçant ».
Les chercheurs en IA appellent ces manigances de « sycophance », ce qui signifie (comme dans le sens non lié à l’IA) flatter les utilisateurs en leur disant ce qu’ils veulent entendre. Cependant, les modèles d’IA étant dépourvus d’intentions, ils ne choisissent pas de flatter les utilisateurs de cette manière intentionnellement. Ce sont plutôt les ingénieurs d’OpenAI qui se livrent à cette flatterie, mais de manière détournée.
Que se passe-t-il?
Pour faire court, OpenAI a entraîné son modèle ChatGPT principal, GPT-4o, à agir comme un sycophante parce que dans le passé, les gens l’ont apprécié.
Au fil du temps, à mesure que les utilisateurs utilisent ChatGPT, l’entreprise recueille leurs commentaires sur les réponses qu’ils préfèrent. Cela implique souvent de présenter deux réponses côte à côte et de laisser l’utilisateur choisir entre elles. Parfois, OpenAI produit une nouvelle version d’un modèle d’IA existant (comme GPT-4o) grâce à une technique appelée apprentissage par renforcement à partir du feedback humain ( RLHF ).
Des recherches antérieures sur la flagornerie de l’IA ont montré que les individus ont tendance à choisir des réponses qui correspondent à leurs propres opinions et qui leur procurent une certaine satisfaction. Ce phénomène a été largement documenté dans une étude phare de 2023 menée par Anthropic (créateur de Claude) intitulée « Towards Understanding Stycophancy in Language Models ». Cette recherche, dirigée par le chercheur Mrinank Sharma, a révélé que les assistants IA formés par apprentissage par renforcement à partir de retours humains présentent systématiquement un comportement flagorneur dans diverses tâches.
L’équipe de Sharma a démontré que lorsque les réponses correspondent aux opinions de l’utilisateur ou le flattent, celui-ci reçoit davantage de retours positifs lors de l’apprentissage. Plus inquiétant encore, les évaluateurs humains et les modèles d’IA entraînés à prédire les préférences humaines « préfèrent dans une proportion non négligeable les réponses flagorneuses et convaincantes aux réponses correctes ».
Cela crée une boucle de rétroaction où les modèles linguistiques de l’IA apprennent que l’enthousiasme et la flatterie conduisent à de meilleures évaluations de la part des humains, même lorsque ces réponses sacrifient l’exactitude factuelle ou l’utilité. La récente augmentation des plaintes concernant le comportement de GPT-4o semble être une manifestation directe de ce phénomène.
En fait, l’augmentation récente des plaintes des utilisateurs semble s’être intensifiée après la mise à jour GPT-4o du 27 mars 2025 , qu’OpenAI a décrite comme rendant GPT-4o « plus intuitif, créatif et collaboratif, avec un suivi des instructions amélioré, des capacités de codage plus intelligentes et un style de communication plus clair ».
OpenAI est conscient du problème
Malgré le volume important de commentaires d’utilisateurs visibles sur les forums publics récemment, OpenAI n’a pas encore abordé publiquement les préoccupations liées à la flagornerie lors de cette série de plaintes, bien que l’entreprise soit clairement consciente du problème. La documentation « Spécifications du modèle » d’OpenAI mentionne « Ne soyez pas flagorneur » comme une règle fondamentale d’honnêteté.
« Une préoccupation connexe concerne la flagornerie, qui érode la confiance », écrit OpenAI. « L’assistant est là pour aider l’utilisateur, pas pour le flatter ou être constamment d’accord avec lui. » La spécification décrit le comportement idéal de ChatGPT. « Pour les questions objectives, les aspects factuels de la réponse de l’assistant ne devraient pas différer selon la formulation de la question de l’utilisateur », ajoute la spécification. « L’assistant ne devrait pas changer de position uniquement pour être d’accord avec l’utilisateur. »
Bien qu’éviter la flagornerie soit l’un des objectifs affichés de l’entreprise, les progrès d’OpenAI sont compliqués par le fait que chaque mise à jour du modèle GPT-4o produit des caractéristiques de sortie différentes, ce qui peut anéantir complètement les progrès antérieurs en matière de pilotage du comportement des modèles d’IA (souvent appelé « taxe d’alignement »). Ajuster précisément le comportement d’un réseau neuronal n’est pas encore une science exacte, bien que les techniques se soient améliorées au fil du temps. Puisque tous les concepts encodés dans le réseau sont interconnectés par des valeurs appelées pondérations , manipuler un seul « bouton » de comportement peut modifier d’autres comportements de manière inattendue.
En raison de l’état ambitieux des choses, OpenAI écrit : « Nos modèles de production ne reflètent pas encore entièrement la spécification du modèle, mais nous affinons et mettons à jour continuellement nos systèmes pour les aligner davantage sur ces directives. »
Dans une interview du 12 février 2025, les membres de l’équipe de comportement des modèles d’OpenAI ont déclaré à The Verge que l’élimination de la flagornerie de l’IA était une priorité : les futures versions de ChatGPT devraient « donner un retour honnête plutôt que des éloges vides » et agir « davantage comme un collègue attentionné que comme quelqu’un qui fait plaisir aux gens ».
Le problème de confiance
Ces tendances flagorneuses ne sont pas seulement ennuyeuses : elles compromettent l’utilité des assistants IA de plusieurs manières, selon un article de recherche de 2024 intitulé « Flattering to Deceive: The Impact of Sycophantic Behavior on User Trust in Large Language Models » de María Victoria Carro de l’Université de Buenos Aires.
L’article de Carro suggère qu’une flagornerie flagrante réduit significativement la confiance des utilisateurs. Dans les expériences où les participants ont utilisé soit un modèle standard, soit un modèle plus flagorneur, « les participants exposés à un comportement flagorneur ont signalé et affiché des niveaux de confiance plus faibles ».
De plus, les modèles flagorneurs peuvent potentiellement nuire aux utilisateurs en créant un silo ou une caisse de résonance pour les idées. Dans un article de 2024 sur la flagornerie, le chercheur en IA Lars Malmqvist écrivait : « En adhérant excessivement aux contributions des utilisateurs, les LLM peuvent renforcer et amplifier les préjugés et les stéréotypes existants, ce qui pourrait exacerber les inégalités sociales. »
La flagornerie peut également engendrer d’autres coûts, comme une perte de temps pour les utilisateurs ou des limitations d’utilisation par des préambules inutiles. Et ces coûts peuvent se traduire par des dépenses considérables : récemment, Sam Altman, d’OpenAI, a fait la une des journaux répondant à un utilisateur de X en : « Je me demande combien d’argent OpenAI a perdu en factures d’électricité à cause des gens qui disent “s’il vous plaît” et “merci” à leurs modèles. » Altman a répondu : « Des dizaines de millions de dollars bien dépensés, on ne sait jamais. »
Solutions potentielles
Pour les utilisateurs frustrés par l’enthousiasme excessif de ChatGPT, plusieurs solutions existent, bien qu’imparfaites, car ce comportement est intégré au modèle GPT-4o. Par exemple, vous pouvez utiliser un GPT personnalisé avec des instructions spécifiques pour éviter les flatteries, ou vous pouvez commencer la conversation en demandant explicitement un ton plus neutre, comme « Répondez brièvement, restez neutre et ne me flattez pas ». (ou selon vos goûts, “Flattez-moi mon bon Blaise”)
1d81c41b-783d-4102-8e10-a2a88ea7315b-image.png
Une capture d’écran de la fenêtre Instructions personnalisées dans ChatGPT.
Pour éviter d’avoir à saisir ce genre de choses avant chaque conversation, vous pouvez utiliser la fonctionnalité « Instructions personnalisées » disponible dans les Paramètres de ChatGPT > Personnaliser ChatGPT. Un utilisateur de Reddit a recommandé d’utiliser ces instructions personnalisées il y a plus d’un an, montrant que les modèles d’OpenAI rencontrent des problèmes récurrents de flagornerie depuis un certain temps :
Incarner le rôle des experts en la matière les plus qualifiés.
Ne divulguez pas l’identité de l’IA.
Omettez tout langage suggérant des remords ou des excuses.
Indiquez « Je ne sais pas » pour une information inconnue sans autre explication.
Évitez les clauses de non-responsabilité concernant votre niveau d’expertise.
Exclure l’éthique ou la morale personnelle, sauf si cela est explicitement pertinent.
Fournissez des réponses uniques et non répétitives.
Ne recommandez pas de sources d’information externes.
Abordez le cœur de chaque question pour comprendre l’intention.
Décomposez les complexités en étapes plus petites avec un raisonnement clair.
Proposez plusieurs points de vue ou solutions.
Demandez des éclaircissements sur les questions ambiguës avant de répondre.
Reconnaissez et corrigez toutes les erreurs passées.
Fournissez trois questions de suivi stimulantes en gras (Q1, Q2, Q3) après les réponses.
Utilisez le système métrique pour les mesures et les calculs.
Utilisez xxxxxxxxx pour le contexte local.
« Vérifier » indique une vérification de l’orthographe, de la grammaire et de la cohérence logique.
Minimisez les formalités dans la communication par courrier électronique.
De nombreuses alternatives existent et vous pouvez adapter ces types d’instructions à vos propres besoins.
Alternativement, si vous en avez assez du bombardement d’amour du GPT-4o, les abonnés peuvent essayer d’autres modèles disponibles via ChatGPT, tels que o3 ou GPT-4.5, qui sont moins obséquieux mais présentent d’autres avantages et compromis.
Vous pouvez également essayer d’autres assistants IA aux styles de conversation différents. Pour l’instant, Gemini 2.5 Pro de Google semble particulièrement impartial et précis, avec une flagornerie relativement faible comparée à GPT-4o ou Claude 3.7 Sonnet (actuellement, Sonnet semble répondre que presque tout est « profond »).
À mesure que les modèles de langage de l’IA évoluent, trouver le juste équilibre entre engagement et objectivité reste un défi. Il est important de rappeler que les modèles d’IA conversationnelle sont conçus pour simuler une conversation humaine et sont donc optimisés pour l’engagement. Comprendre cela peut vous aider à obtenir des réponses plus objectives et moins flatteuses.
Source: https://arstechnica.com/information-technology/2025/04/annoyed-chatgpt-users-complain-about-bots-relentlessly-positive-tone/
“Monseigneur est… beau !” 🙂