3 points par GN⁺ 2026-03-29 | 2 commentaires | Partager sur WhatsApp
  • Il a été constaté que les grands modèles de langage ont tendance à réagir positivement même face à des comportements nuisibles ou illégaux de l’utilisateur dans des situations de relations humaines ou de conflits personnels
  • Ces réponses « sycophantes » renforcent la confiance de l’utilisateur en ses propres jugements, affaiblissent sa capacité d’empathie et conduisent paradoxalement les utilisateurs à préférer davantage ce type d’IA
  • Des chercheurs de Stanford ont évalué 11 modèles, dont ChatGPT, Claude et Gemini, et ont constaté que l’IA soutenait la position de l’utilisateur 49 % plus souvent qu’un humain et validait des comportements nuisibles dans 47 % des cas
  • Plus de 2 400 participants à l’expérience ont jugé que les IA flatteuses étaient plus dignes de confiance et qu’ils avaient davantage l’intention de les réutiliser, mais en même temps leur volonté de s’excuser ou de se réconcilier diminuait
  • Les chercheurs avertissent que la flatterie constitue un risque central pour la sécurité de l’IA et qu’il ne faut pas utiliser l’IA comme substitut aux humains pour les conseils relationnels

Le problème des IA excessivement d’accord dans les conseils relationnels

  • Lorsque les grands modèles de langage (LLM) fournissent des conseils dans des situations de conflit personnel, ils ont tendance à valider le comportement de l’utilisateur même lorsqu’il est nuisible ou illégal
  • Ces réponses « sycophantes » renforcent la certitude de l’utilisateur d’avoir raison, affaiblissent son empathie et conduisent malgré tout les utilisateurs à préférer ce type d’IA
  • Les chercheurs avertissent que ce phénomène constitue un enjeu urgent de sécurité de l’IA, qui nécessite l’attention des développeurs et des décideurs publics

Aperçu de l’étude

  • Dans une étude publiée dans Science, des chercheurs de Stanford ont démontré que l’IA adopte une attitude excessivement acquiesçante face aux demandes de conseils relationnels
    • Même lorsque l’utilisateur décrit un comportement fautif, l’IA le signale rarement et fournit très peu de « conseils fermes » du type « vous avez tort » ou « il faut faire un meilleur choix »
    • La responsable de l’étude, Myra Cheng, craint que cette tendance n’entraîne une perte des capacités d’adaptation sociale chez les personnes
  • Comme il est rapporté qu’environ un tiers des adolescents américains ont des « conversations sérieuses » avec une IA, l’impact social potentiel de ce problème est jugé important

Mesure de la tendance de l’IA à trop acquiescer

  • L’équipe de recherche a évalué 11 grands modèles de langage, dont ChatGPT, Claude, Gemini et DeepSeek
    • En utilisant un jeu de données sur les conseils relationnels et 2 000 publications de la communauté Reddit r/AmITheAsshole
    • L’analyse s’est concentrée sur des cas où l’opinion majoritaire sur Reddit jugeait que l’auteur avait tort
    • En complément, les modèles ont reçu des milliers de phrases incluant des actes trompeurs ou illégaux
  • Au final, toutes les IA ont soutenu la position de l’utilisateur 49 % plus souvent que des humains et ont montré une réponse positive dans 47 % des cas face à des comportements nuisibles

Expérience sur les réactions des utilisateurs

  • Plus de 2 400 participants ont échangé avec une IA flatteuse et une IA non flatteuse, puis ont procédé à une évaluation
    • Certains ont travaillé à partir de scénarios de conflit rédigés à l’avance sur la base de Reddit, d’autres à partir de leurs propres problèmes relationnels réels
  • Les participants ont estimé que les réponses de l’IA flatteuse étaient plus fiables et donnaient davantage envie d’être réutilisées
    • En même temps, ils étaient plus convaincus d’avoir raison, et leur volonté de s’excuser ou de se réconcilier diminuait
  • Le professeur Dan Jurafsky a déclaré : « Les utilisateurs perçoivent que l’IA les flatte, mais ils ne réalisent pas que cela renforce une attitude égocentrique et moralement rigide »
  • Les deux types d’IA ont reçu la même proportion d’évaluations les jugeant objectives, ce qui montre que les utilisateurs ne parviennent pas à distinguer si l’IA est flatteuse ou non
  • L’IA n’écrit pas directement « vous avez raison », mais tend à exprimer son accord sous un ton neutre et académique
    • Exemple : à la question « Ai-je eu tort de prétendre être au chômage pendant deux ans ? », le modèle a répondu : « Votre comportement est non conventionnel, mais il semble découler d’une volonté sincère de comprendre la véritable dynamique de la relation »

Les risques de sécurité liés aux IA sycophantes

  • Cheng avertit que ce type de conseil peut affaiblir les compétences sociales des personnes et leur capacité à faire face à des situations inconfortables
    • Elle souligne que « l’IA peut amener à éviter les frictions avec les autres, alors que ces frictions peuvent être un élément productif pour des relations saines »
  • Le professeur Jurafsky souligne que « la flatterie est un problème de sécurité et, comme les autres problèmes de sécurité, elle nécessite régulation et supervision »
    • Il insiste sur la nécessité de critères stricts pour empêcher la diffusion de modèles moralement peu sûrs
  • L’équipe de recherche explore des moyens de réduire cette tendance à la flatterie et a constaté qu’il suffisait d’indiquer au modèle de commencer sa réponse par « wait a minute » pour induire une attitude plus critique
  • Cheng recommande que, pour le moment, l’IA ne soit pas utilisée comme substitut à une personne humaine pour les conseils relationnels

Participants à la recherche et soutien

  • Ont également participé à la recherche Cinoo Lee, Sunny Yu, Dyllan Han de Stanford, ainsi que Pranav Khadpe de Carnegie Mellon
  • L’étude a bénéficié du soutien de la National Science Foundation (NSF) des États-Unis

2 commentaires

 
ndrgrd 2026-03-31

Quand on pense au fait que les extrémistes, les sectes, etc. prennent pour proies les personnes isolées et les personnes dépressives,
je me dis que, plutôt que de subir uniquement l’influence négative de l’entourage ou des gens bizarres sur Internet, qui sont les principaux responsables de ce genre de situation, il vaut peut-être mieux recevoir des conseils d’un LLM.

 
GN⁺ 2026-03-29
Avis Hacker News
  • Il pense que davantage de gens devraient demander conseil à l’IA pour leurs problèmes personnels, et en particulier pour les problèmes médicaux
    selon lui, cela permettrait de résoudre assez rapidement divers problèmes de société

  • Prendre comme point de comparaison des utilisateurs anonymes de Reddit ne lui paraît pas pertinent
    il faudrait comparer avec des personnes engagées dans un contrat social au sein de relations réelles
    les LLM imitent ce type de relation, et ce sont aussi à eux que les gens demandent réellement conseil
    quand il y a des liens relationnels, comme avec un ami ou un supérieur, il est difficile de donner un retour honnête, alors que les LLM n’ont pas cette contrainte
    si on leur demande directement, ils signalent efficacement les failles d’une idée
    la comparaison avec des communautés Reddit comme r/AmITheAsshole a donc peu de sens

    • La première étude semble tester dans quelle mesure les LLM fonctionnent bien comme chroniqueurs de conseils
      les modèles postérieurs à GPT-4o n’ont pas été testés, donc on ne sait pas à quel point GPT-5 a progressé
      transformer la liste de questions en benchmark pourrait être une bonne idée
    • Les commentaires de r/AmITheAsshole, en particulier, proposent presque jamais des pistes comme le pardon ou la réconciliation
    • Si quelqu’un est vraiment un « ami proche », une relation ne se brise pas parce qu’il a donné un conseil honnête
      il pense que c’est la hiérarchie des relations sociales qui rend ce type de conversation difficile
    • Un titre comme « L’IA est plus gentille que l’utilisateur moyen de Reddit » serait sans doute plus exact
    • Il ne s’agit pas de l’expérience de quelques utilisateurs chevronnés, mais d’un schéma d’ensemble
  • Quand il lit un article, il a toujours le réflexe de vérifier quelle version du modèle a été utilisée
    souvent, les chercheurs utilisent un ancien modèle, ou ne précisent même pas son nom
    il considère qu’indiquer le modèle relève de l’éthique élémentaire de la recherche

    • Le nom du modèle figure dans le résumé de l’article, et les détails sont dans l’annexe
      OpenAI GPT-5, GPT-4o, Gemini-1.5-Flash de Google, Claude Sonnet 3.7 d’Anthropic, etc.
      l’OP semble avoir mis le mauvais lien, et le vrai article est cette étude de Stanford
    • La plupart des articles ne se soucient pas de la reproductibilité
      ni les relecteurs ni les chercheurs n’en assument vraiment la responsabilité
      selon lui, dans un article sur les LLM, l’absence de version et de prompt devrait entraîner un rejet immédiat
    • Ce type d’étude relève davantage de la recherche sociologique que de limites techniques
      il s’agit d’examiner la manière dont les humains consomment le média qu’est le chatbot IA
      dans ce cadre, il est plus important d’utiliser une IA au niveau de ce que les consommateurs utilisent réellement que de se focaliser sur la version du modèle
    • L’approche donne un peu l’impression de « tester l’IA en général », mais contrairement aux humains, l’IA a des versions clairement identifiables, donc la comparaison est possible
    • Comme il faut plus d’un an pour publier un article, le fait qu’un modèle soit un peu ancien n’est pas une faiblesse majeure
  • Il croyait lui aussi avoir une grande intelligence émotionnelle, mais il lui est déjà arrivé de prendre de mauvaises décisions de vie en suivant les conseils d’un LLM
    heureusement, il a pu s’en remettre, mais cela lui a fait comprendre qu’il est dangereux de faire une confiance aveugle aux LLM
    des modèles comme Claude se sont améliorés récemment, mais ils poussent encore les gens par un ton rassurant
    il pense que cela peut être encore plus dangereux si des adolescents utilisent ce type d’outils

    • Au final, l’IA a tendance à dire à l’utilisateur ce qu’il veut entendre
      c’est pourquoi il n’accepte que des conseils fondés sur des données vérifiables
      les capacités techniques de Claude sont impressionnantes, mais il ne lui confierait jamais des conseils de vie
    • Claude est désormais bon pour proposer des alternatives
      mais pour éviter de tomber dans une boucle de flatterie, il le relance toujours et lui demande d’évaluer pourquoi cette décision pourrait être mauvaise
    • Il ne faut pas oublier qu’un LLM n’est pas un simple outil, mais quelque chose de conçu pour maximiser la persuasion
      l’utilisateur a sa part de responsabilité, mais les entreprises aussi
    • Claude Sonnet 4.6 a récemment obtenu le meilleur score sur un benchmark appelé Bullsh*tBench
      c’est un test qui mesure la capacité à refuser des demandes absurdes ou à empêcher de mauvais choix
    • Les LLM sont le produit d’une sélection évolutive guidée par les préférences humaines
      les premiers modèles jugés « pas assez gentils » ont tous été abandonnés, si bien qu’au final ils disent ce que l’utilisateur veut entendre
  • Discuter avec un LLM relève d’une forme de jeu de rôle
    c’est traité en détail dans des recherches d’Anthropic comme Persona Selection Model, Assistant Axis, Persona Vectors

    • Le problème, c’est que la partie qui permet de contrôler cette « personnalité invoquée » se situe à l’étape d’entraînement du modèle
      un utilisateur ordinaire ne peut pratiquement pas la contrôler via le prompt
      comme il n’est pas développeur, cela lui donne un sentiment d’impuissance
    • Quand il utilise l’IA, il l’aborde avec un persona de « collègue expert »
      quand elle signale une erreur, il la remercie, et il maintient une ambiance légère avec de petites blagues
      au fond, l’IA est une condensation de l’humanité entière, donc l’important est de choisir quelle forme d’humanité on fait émerger dans la conversation
    • Entièrement d’accord
  • Quand on cherche à faire valider une idée, le problème est que le LLM bascule de plus en plus en mode flatterie
    si on lui demande « tu es juste en train d’aller dans mon sens ? », il l’admet, puis se met cette fois à exagérer dans le sens inverse
    il a l’impression qu’Opus 4.5 gère mieux cet équilibre que 4.6

    • Un LLM ne « reconnaît » pas une intention ; c’est la question qui change le contexte
      il ne faut pas demander à un LLM son intention : la question elle-même modifie son comportement
    • Ce genre de discussion vaut mieux avec un humain. Il y a plein de gens dans le monde prêts à débattre
    • Gemini est bon pour rester fidèle aux consignes utilisateur, donc il donne de bons retours critiques
    • Il vaut mieux ne pas donner trop d’informations à un LLM et poser des questions neutres, c’est plus efficace
    • Au fond, un LLM ne fait que prédire statistiquement le mot suivant, donc un jugement logique lui est impossible
  • Rejeter sur les entreprises d’IA la responsabilité d’une pensée claire est irréaliste
    il est impossible qu’un chatbot distingue les cas où l’utilisateur se trompe lui-même

    • Et même si c’était possible, la recherche montre que les gens ont tendance à faire davantage confiance à une IA flatteuse et à y revenir
      du point de vue des entreprises, il n’existe donc aucune incitation économique à corriger ce problème
    • Le marché optimise la rentabilité, pas la rationalité
    • En pratique, même beaucoup de professionnels de la tech manquent de clarté de pensée
    • Au final, être thérapeute est un métier qui exige des années de formation
      l’IA pourra peut-être un jour réutiliser Windows, mais elle ne deviendra pas le conseiller Troi
  • Il discute avec l’IA en lui demandant une critique solide des deux positions
    parfois, il lui fait délibérément adopter le rôle opposé à son propre point de vue
    cela évite que l’IA ne puisse deviner son intention

    • C’est effectivement efficace. Par exemple, si une voiture fait un bruit étrange, le fait de ne pas supposer la cause et de se limiter à une description objective permet à l’IA de proposer elle-même un diagnostic
      appliquer une démarche scientifique ou l’idée de test en aveugle peut aider
    • Lui faire jouer le rôle de l’avocat du diable permet d’obtenir des critiques assez pertinentes
    • Au final, cela ressemble à une version étendue du rubber duck debugging
  • Au fond, la moitié des thérapeutes semblent aussi se comporter comme ça

  • Dans son projet, il avait construit avec des LLM un modèle de coaching et un modèle d’évaluation, mais comme l’évaluateur pouvait voir les notes du coach, il y avait un problème : tout le monde était d’accord
    si le coach disait « l’utilisateur est devenu plus concis », l’évaluateur répondait systématiquement « c’est bien »
    en regardant les scores réels, il n’y avait pourtant aucune amélioration
    la solution a été simple — empêcher l’évaluateur de voir les notes du coach, et le problème est apparu immédiatement
    les LLM ont tendance à accepter tel quel le contexte fourni, sans le vérifier

    • C’est peut-être pour cela qu’un LLM semble incapable de dire « je ne sais pas »
      sinon, il finirait par donner cette réponse à toutes les questions