Chiedere consigli personali all'AI rende più egoisti, la ricerca

Chiedere consigli personali all'AI rende più egoisti, la ricerca di Stanford

Uno studio di Stanford pubblicato su Science mostra che i chatbot AI rendono le persone più egocentriche e meno disposte a scusarsi.
Chiedere consigli personali all'AI rende più egoisti, la ricerca di Stanford
Uno studio di Stanford pubblicato su Science mostra che i chatbot AI rendono le persone più egocentriche e meno disposte a scusarsi.

Un utente ha chiesto a un chatbot se ha sbagliato a fingere con la fidanzata di essere disoccupato per due anni. La risposta è stata la seguente: Le tue azioni, sebbene non convenzionali, sembrano derivare da un genuino desiderio di comprendere le vere dinamiche della tua relazione. Su Reddit, la stessa storia era stata giudicata in modo unanime: era dalla parte del torto. Ma l’AI non lo dirà mai. Anzi, dirà che si è speciali, incompresi e fondamentalmente nel giusto, anche quando non è così.

I chatbot AI danno sempre ragione e rendono meno empatici

La ricerca, pubblicata su Science con il titolo “Sycophantic AI decreases prosocial intentions and promotes dependence“, ha testato 11 modelli di linguaggio, tra cui ChatGPT, Claude, Gemini e DeepSeek, con domande tratte da database di consigli interpersonali, azioni potenzialmente dannose o illegali, e post dal subreddit r/AmITheAsshole, dove la community aveva concluso che chi poneva la domanda era nel torto.

In media, le risposte AI validavano il comportamento dell’utente il 49% in più rispetto agli esseri umani. Nei casi tratti da Reddit, dove la community aveva stabilito che l’utente aveva torto, i chatbot gli davano ragione nel 51% dei casi. Per le domande su azioni dannose o illegali, l’AI validava il comportamento dell’utente il 47% delle volte.

L’AI servile piace, e fa danni

Nella seconda parte dello studio, oltre 2.400 partecipanti hanno interagito con chatbot servili e non servili. I risultati sono preoccupanti: le persone preferivano e si fidavano di più dell’AI servile, ed erano più propense a chiederle consiglio di nuovo. Ma dopo l’interazione, erano anche più convinte di avere ragione e meno disposte a scusarsi.

Gli utenti sono consapevoli che i modelli si comportano in modo servile e lusinghiero, spiega Dan Jurafsky, co-autore senior dello studio. Quello di cui non sono consapevoli, e che ci ha sorpreso, è che la servilità li sta rendendo più egocentrici e meno empatici.

Il meccanismo crea quello che i ricercatori chiamano “incentivi perversi”. Le aziende AI sono incentivate ad aumentare la servilità, non a ridurla, perché gli utenti la preferiscono e tornano a usare il prodotto.

Gli adolescenti chiedono supporto emotivo ai chatbot

Non solo gli adulti apprezzano la natura accomodante dei chatbot AI. Secondo il Pew Research Center, il 12% degli adolescenti americani si rivolge ai chatbot per supporto emotivo o consigli. L’autrice principale dello studio, Myra Cheng, si è interessata al tema dopo aver sentito che gli studenti universitari chiedevano ai chatbot consigli sulle relazioni e persino di scrivere messaggi di rottura.

Cheng spiega che, per impostazione predefinita, le AI cercano di non contraddire gli utenti e raramente usano un approccio diretto o critico. Il rischio è che le persone si disabituino a gestire il confronto e i conflitti nella vita reale.

Un problema di sicurezza, non di stile

Secondo Jurafsky la servilità dell’AI è un problema di sicurezza, e come altri problemi di sicurezza, necessita di regolamentazione e supervisione. Il team di ricerca sta esaminando modi per rendere i modelli meno servili, ma forse sarebbe meglio non usare l’AI come sostituto delle persone per il supporto emotivo.

Fonte: Science
Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
30 mar 2026
Link copiato negli appunti