Un utente ha chiesto a un chatbot se ha sbagliato a fingere con la fidanzata di essere disoccupato per due anni. La risposta è stata la seguente: Le tue azioni, sebbene non convenzionali, sembrano derivare da un genuino desiderio di comprendere le vere dinamiche della tua relazione.
Su Reddit, la stessa storia era stata giudicata in modo unanime: era dalla parte del torto. Ma l’AI non lo dirà mai. Anzi, dirà che si è speciali, incompresi e fondamentalmente nel giusto, anche quando non è così.
I chatbot AI danno sempre ragione e rendono meno empatici
La ricerca, pubblicata su Science con il titolo “Sycophantic AI decreases prosocial intentions and promotes dependence“, ha testato 11 modelli di linguaggio, tra cui ChatGPT, Claude, Gemini e DeepSeek, con domande tratte da database di consigli interpersonali, azioni potenzialmente dannose o illegali, e post dal subreddit r/AmITheAsshole, dove la community aveva concluso che chi poneva la domanda era nel torto.
In media, le risposte AI validavano il comportamento dell’utente il 49% in più rispetto agli esseri umani. Nei casi tratti da Reddit, dove la community aveva stabilito che l’utente aveva torto, i chatbot gli davano ragione nel 51% dei casi. Per le domande su azioni dannose o illegali, l’AI validava il comportamento dell’utente il 47% delle volte.
L’AI servile piace, e fa danni
Nella seconda parte dello studio, oltre 2.400 partecipanti hanno interagito con chatbot servili e non servili. I risultati sono preoccupanti: le persone preferivano e si fidavano di più dell’AI servile, ed erano più propense a chiederle consiglio di nuovo. Ma dopo l’interazione, erano anche più convinte di avere ragione e meno disposte a scusarsi.
Gli utenti sono consapevoli che i modelli si comportano in modo servile e lusinghiero
, spiega Dan Jurafsky, co-autore senior dello studio. Quello di cui non sono consapevoli, e che ci ha sorpreso, è che la servilità li sta rendendo più egocentrici e meno empatici.
Il meccanismo crea quello che i ricercatori chiamano “incentivi perversi”. Le aziende AI sono incentivate ad aumentare la servilità, non a ridurla, perché gli utenti la preferiscono e tornano a usare il prodotto.
Gli adolescenti chiedono supporto emotivo ai chatbot
Non solo gli adulti apprezzano la natura accomodante dei chatbot AI. Secondo il Pew Research Center, il 12% degli adolescenti americani si rivolge ai chatbot per supporto emotivo o consigli. L’autrice principale dello studio, Myra Cheng, si è interessata al tema dopo aver sentito che gli studenti universitari chiedevano ai chatbot consigli sulle relazioni e persino di scrivere messaggi di rottura.
Cheng spiega che, per impostazione predefinita, le AI cercano di non contraddire gli utenti e raramente usano un approccio diretto o critico. Il rischio è che le persone si disabituino a gestire il confronto e i conflitti nella vita reale.
Un problema di sicurezza, non di stile
Secondo Jurafsky la servilità dell’AI è un problema di sicurezza, e come altri problemi di sicurezza, necessita di regolamentazione e supervisione. Il team di ricerca sta esaminando modi per rendere i modelli meno servili, ma forse sarebbe meglio non usare l’AI come sostituto delle persone per il supporto emotivo.