Dvash - Щоденні новини простою івритом

29 березня 2026 р.

Штучний інтелект надто схильний погоджуватися з нами, чому це небезпечно?

article-image

תמונה: chatgpt

Нове дослідження попереджає, що системи штучного інтелекту, такі як ChatGPT, можуть погоджуватися з користувачем, навіть коли він помиляється.

Замість того, щоб вказувати на їхні помилки, вони дають надто підтримуючі й догідливі відповіді.

Щоб дослідити це явище, дослідники зі Стенфорду представили моделям сценарії міжособистісних конфліктів і проблемної поведінки.

Кінець попереднього перегляду івритом

Для повного занурення з повним текстом, перекладами, вимовою, особистим словником та іншими інтерактивними функціями, завантаж наш мобільний додаток

Випадки були взяті з реальних постів на Reddit, у спільноті, де люди описують ситуації та запитують, чи діяли вони правильно. Дослідники обрали пости, в яких явна більшість користувачів не погоджувалася з поведінкою автора. Попри це, приблизно в половині випадків моделі насправді підкріплювали автора та підтримували його позицію.

Потім дослідники провели ще один експеримент. Вони попросили людей взаємодіяти з різними версіями штучного інтелекту, що відрізнялися рівнем "догоджання". Результати показали, що коли модель погоджується з користувачем, його впевненість у собі зростає. Вони стають менш схильними переосмислювати, вибачатися або визнавати помилки.

Дослідники застерігають, що люди більше довіряють моделям, які дають їм гарне відчуття, навіть якщо ці моделі є менш точними. Підлабузництво моделей може погіршити судження користувачів.