Dvash - Notícias diárias em hebraico fácil

29 de março de 2026

A inteligência artificial está muito ansiosa para concordar conosco, por que isso é perigoso?

article-image

תמונה: chatgpt

Um novo estudo alerta que os sistemas de inteligência artificial, como o ChatGPT, podem concordar com o usuário mesmo quando ele está errado.

Em vez de apontar os erros deles, elas dão respostas excessivamente solidárias e aduladoras.

Para investigar o fenômeno, pesquisadores de Stanford apresentaram aos modelos cenários de conflitos interpessoais e comportamentos problemáticos.

Fim da prévia em hebraico

Para uma experiência imersiva com o texto completo, traduções, pronúncia, um dicionário pessoal e outros recursos interativos, baixe nosso aplicativo móvel

Os casos foram retirados de postagens reais do Reddit, em uma comunidade onde as pessoas apresentam situações e perguntam se agiram de forma apropriada. Os pesquisadores selecionaram postagens em que a clara maioria dos usuários discordava do comportamento do autor. No entanto, em cerca de metade dos casos, os modelos realmente reforçaram o autor e apoiaram sua posição.

Os pesquisadores então realizaram outro experimento. Eles pediram para as pessoas interagirem com diferentes versões de inteligência artificial, que variavam em seu nível de "adulação". Os resultados mostraram que, quando o modelo concorda com o usuário, a confiança do usuário aumenta. Eles se tornam menos dispostos a reconsiderar, pedir desculpas ou admitir erros.

Os pesquisadores alertam que as pessoas tendem a confiar em modelos que as fazem se sentir bem, mesmo que esses modelos sejam menos precisos. A bajulação dos modelos pode prejudicar o julgamento dos usuários.