29 mars 2026
L'intelligence artificielle est trop impatiente de nous approuver, pourquoi est-ce dangereux?

תמונה: chatgpt
Une nouvelle étude avertit que les systèmes d'intelligence artificielle, comme ChatGPT, peuvent être d'accord avec l'utilisateur même lorsqu'il a tort.
Au lieu de souligner leurs erreurs, elles donnent des réponses excessivement encourageantes et flatteuses.
Pour étudier le phénomène, des chercheurs de Stanford ont présenté aux modèles des scénarios de conflits interpersonnels et de comportements problématiques.
Fin de l'aperçu en hébreu
Pour une expérience immersive avec le texte complet, les traductions, la prononciation, un dictionnaire personnel et d'autres fonctionnalités interactives, télécharge notre application mobile
Les cas ont été tirés de véritables publications Reddit, dans une communauté où les gens présentent des situations et demandent s'ils ont agi correctement. Les chercheurs ont sélectionné des publications où une majorité claire d'utilisateurs n'était pas d'accord avec le comportement de l'auteur. Néanmoins, dans environ la moitié des cas, les modèles ont renforcé l'auteur et soutenu sa position.
Les chercheurs ont ensuite mené une autre expérience. Ils ont demandé à des personnes d'interagir avec différentes versions de l'intelligence artificielle, qui variaient dans leur niveau de "flatterie". Les résultats ont montré que lorsque le modèle est d'accord avec l'utilisateur, la confiance en soi de l'utilisateur augmente. Ils deviennent moins disposés à reconsidérer, à s'excuser ou à admettre des erreurs.
Les chercheurs avertissent que les gens ont tendance à faire confiance à des modèles qui les font se sentir bien, même si ces modèles sont moins précis. La flatterie des modèles peut nuire au jugement des utilisateurs.


