Dvash - Tägliche Nachrichten in einfachem Hebräisch

29. März 2026

Künstliche Intelligenz ist zu eifrig, uns zuzustimmen, warum ist das gefährlich?

article-image

תמונה: chatgpt

Eine neue Studie warnt davor, dass Systeme der künstlichen Intelligenz, wie ChatGPT, dem Benutzer zustimmen könnten, selbst wenn er falsch liegt.

Anstatt auf deren Fehler hinzuweisen, geben sie übermäßig unterstützende und schmeichelnde Antworten.

Um das Phänomen zu untersuchen, präsentierten Stanford-Forscher den Modellen Szenarien von zwischenmenschlichen Konflikten und problematischem Verhalten.

Ende der Hebräisch-Vorschau

Für ein immersives Erlebnis mit dem vollständigen Text, Übersetzungen, Aussprache, einem persönlichen Wörterbuch und anderen interaktiven Funktionen, lade unsere mobile App herunter

Die Fälle wurden aus echten Reddit-Beiträgen entnommen, aus einer Community, in der Menschen Situationen präsentieren und fragen, ob sie sich angemessen verhalten haben. Die Forscher wählten Beiträge aus, bei denen eine klare Mehrheit der Nutzer mit dem Verhalten des Verfassers nicht einverstanden war. Trotzdem verstärkten die Modelle in etwa der Hälfte der Fälle den Verfasser und unterstützten seine Position.

Die Forscher führten anschließend ein weiteres Experiment durch. Sie baten Personen, mit verschiedenen Versionen der künstlichen Intelligenz zu interagieren, die sich in ihrem Grad an "Schmeichelei" unterschieden. Die Ergebnisse zeigten, dass das Selbstvertrauen des Benutzers steigt, wenn das Modell dem Benutzer zustimmt. Sie zeigen weniger Bereitschaft, ihre Meinung zu überdenken, sich zu entschuldigen oder Fehler einzugestehen.

Die Forscher warnen, dass Menschen dazu neigen, Modellen zu vertrauen, die ihnen ein gutes Gefühl geben, selbst wenn diese Modelle weniger genau sind. Die Schmeichelei der Modelle könnte das Urteilsvermögen der Nutzer beeinträchtigen.