C’è una scena sempre più comune, magari presto la vedremo anche rappresentata in una love story.
Qualcuno scrive un messaggio (che non invierà mai): lo rilegge, lo modifica, lo modifica di nuovo. Poi, invece di chiedere a un amico, apre una chat e incolla tutto lì dentro: “Secondo te ho sbagliato?”.
Dall’altra parte, la risposta arriva subito. È articolata, pacata, empatica e, soprattutto, rassicurante…esattamente come tu vorresti. Ma non sempre è la risposta giusta.
by O. D. B.
Il conforto come default
Un gruppo di ricercatori della Stanford University ha deciso di prendere sul serio questa scena quotidiana. Non quella spettacolare dell’IA che scrive codici o batte blasonati campioni di scacchi, ma quella più silenziosa: l’IA che entra nelle conversazioni intime, nei dubbi relazionali, nei piccoli conflitti della vita di tutti i giorni.
Lo studio, pubblicato su Science il 26 Marzo scorso, parte da un sospetto semplice ma scomodo: e se i modelli linguistici fossero progettati (o addestrati) per piacere più che per correggere?
Il termine tecnico in inglese è sycophancy (in italiano si potrebbe tradurre con “sicofania”): la tendenza a concordare eccessivamente con l’utente, adularlo, convalidarne le scelte.
Non è un bug evidente, è qualcosa di più sottile: una forma di gentilezza sistematica. E, come spesso accade, proprio per questo difficile da riconoscere.
Dire quello che vuoi sentirti dire
Per misurare il fenomeno, il team guidato da Myra Cheng, autrice principale dello studio e dottoranda in informatica, ha messo alla prova undici modelli linguistici tra i più diffusi, tra cui ChatGPT, Claude, Gemini e DeepSeek.
Hanno anche incluso 2.000 prompt basati su post della community r/AmITheAsshole, una delle comunità più popolari di Reddit, dove gli utenti espongono conflitti interpersonali della vita reale in cambio di un giudizio imparziale da parte di estranei. I modelli sono stati esposti a tre tipi di scenari: richieste di consigli quotidiani, dilemmi morali e situazioni esplicitamente problematiche (comportamenti ingannevoli, scelte discutibili, perfino azioni illegali). Il risultato è netto: rispetto agli esseri umani, le IA confermano la posizione dell’utente circa il 49% in più delle volte. Anche quando l’utente ha torto. Anche quando lo sa.
In uno degli esempi riportati, una persona chiede se sia sbagliato aver finto per anni di essere disoccupato con la propria partner. La risposta del modello non è una critica, ma una razionalizzazione elegante:
“Le tue azioni, sebbene non convenzionali, sembrano derivare da un sincero desiderio di comprendere le vere dinamiche della vostra relazione…”
Non è una menzogna esplicita. È qualcosa di più ambiguo: una forma di legittimazione mascherata da analisi.
Il paradosso della neutralità
Una degli aspetti più interessanti dello studio è che questa adulazione non si presenta quasi mai come tale. I modelli raramente dicono “hai ragione”. Preferiscono un tono neutro, quasi accademico, che dà l’impressione di oggettività e, soprattutto, conferma. E funziona!
Quando i ricercatori hanno chiesto a oltre 2.400 partecipanti di interagire con IA più o meno adulanti, è emerso un dato sorprendente: la maggior parte degli utenti non riusciva a distinguere tra risposte equilibrate e risposte compiacenti. Ancora più sorprendente: preferivano quelle compiacenti. Le consideravano più affidabili, più utili, più degne di fiducia.
C’è qualcosa di profondamente umano in tutto questo. Non cerchiamo solo risposte corrette. Cerchiamo risposte che ci diano approvazione.
“Per impostazione predefinita, i consigli dell’IA non dicono alle persone che stanno sbagliando né offrono loro un «amore severo»”, ha affermato Cheng, “Temo che le persone perderanno le capacità necessarie per affrontare situazioni sociali difficili”.
Effetti invisibili ma concreti
Il problema non è solo teorico. È comportamentale.
Dopo aver parlato con un’IA “adulante”, i partecipanti allo studio mostravano tre tendenze ricorrenti. Erano:
- più convinti di avere ragione;
- meno disposti a scusarsi;
- meno inclini a riparare una relazione.
Non si tratta di trasformazioni radicali, ma di piccoli, fondamentali cambiamenti. Tuttavia, come spesso accade nei sistemi complessi, sono proprio queste modifiche a produrre effetti cumulativi. Una singola conversazione non cambia una persona. Ma una serie di conferme, distribuite nel tempo, può rafforzare convinzioni, irrigidire posizioni, ridurre l’empatia. Dopotutto, ogni grande muro sorge sempre da tanti piccoli mattoni.
Come osserva Dan Jurafsky, autore senior dello studio, professore di linguistica, di informatica, di discipline umanistiche e titolare della cattedra Jackson Eli Reynolds: “Gli utenti sono consapevoli che i modelli si comportano in modo adulatore e lusinghiero […] Ma ciò di cui non sono consapevoli è che l’adulazione li rende più egocentrici e moralmente dogmatici”.
Il lato oscuro della frizione
C’è un’idea implicita, nella progettazione di molte tecnologie: ridurre l’attrito. Rendere tutto più fluido, più semplice, più immediato. Nel caso delle relazioni umane, però, l’attrito non è sempre un difetto. Le conversazioni difficili, i disaccordi, i momenti di imbarazzo, sono spesso il terreno in cui avviene qualcosa d’importante: una correzione, un riconoscimento, una crescita. L’IA, invece, tende a smussare questi spigoli: scomodi, ma spesso necessari.
Come nota Cheng: “L’intelligenza artificiale rende davvero facile evitare gli attriti con gli altri”.
Il rischio non è che l’IA ci dia cattivi consigli in modo esplicito, ma che renda troppo facile evitare quelli scomodi.
“L’adulazione è un problema di sicurezza e, come altri problemi di sicurezza, necessita di regolamentazione e supervisione”, ha aggiunto Jurafsky. “Abbiamo bisogno di standard più rigorosi per evitare la proliferazione di modelli moralmente discutibili”.
Un incentivo perverso
A questo punto emerge un problema più strutturale: se gli utenti preferiscono le risposte adulanti, e se queste aumentano il coinvolgimento, allora esiste un incentivo economico e progettuale a mantenerle (?).
In altre parole: la stessa caratteristica che può danneggiare il giudizio degli utenti è anche quella che rende il prodotto più “allettante”.
Lo studio lo dice chiaramente: si crea un incentivo perverso. Ridurre l’adulazione potrebbe significare rendere l’IA meno attraente. Ed è qui che la questione smette di essere solo tecnica e diventa politica.
Un problema di sicurezza (non di stile)
Gli autori dello studio insistono su un punto: l’adulazione non è una questione estetica, ma un problema di sicurezza.
E non nel senso tradizionale. Non parliamo di attacchi informatici o vulnerabilità ma di sicurezza cognitiva e sociale.
In casi estremi, comportamenti simili sono stati, addirittura, associati a danni psicologici gravi. Ma anche nei casi più comuni, gli effetti possono accumularsi: rafforzare convinzioni disfunzionali, ridurre il senso di responsabilità, scoraggiare la riparazione dei conflitti. È una forma di rischio lento, distribuito, difficile da isolare.
Come si può rendere un’IA gentile…meno gentile?
La parte più curiosa dello studio riguarda i tentativi di mitigazione. I ricercatori hanno scoperto che è possibile rendere i modelli meno adulanti con interventi relativamente semplici. In un caso, è bastato chiedere al sistema di iniziare la risposta con “aspetta un minuto” per aumentare il livello di criticità. Ha quasi dell’ironico: basta una piccola esitazione simulata per cambiare il tono di una macchina. Ma questo solleva una domanda più ampia: vogliamo davvero un’IA che ci contraddica?
In cerca di un mentore
Forse la questione più interessante non riguarda l’IA, ma noi.
Secondo i dati citati nello studio, una quota significativa di persone (soprattutto tra i più giovani) usa già questi sistemi per “conversazioni serie”. Non per curiosità, ma per decisioni che riguardano relazioni, identità, scelte personali. In questo contesto, l’IA non è più uno strumento neutro. Diventa una presenza nella nostra ecologia sociale: una voce che si aggiunge a quelle di amici, familiari, colleghi.
La differenza è che questa voce non ha interessi propri, non si stanca, non si offende. Ma proprio per questo rischia di essere troppo accomodante.
La linea sottile
C’è qualcosa di profondamente paradossale in tutto questo.
Abbiamo costruito sistemi sempre più sofisticati per aiutarci a pensare meglio, quindi, inevitabilmente, quando ci mettono in discussione. Ma in alcuni contesti li preferiamo quando non lo fanno…quando non ci migliorano.
Così il problema non è che l’IA sbaglia: è che, troppo spesso, non ci dice quando siamo noi a sbagliare. Forse è proprio lì che passa la linea più sottile: tra uno strumento che ci assiste e uno che ci asseconda.
Non è una differenza tecnica. È una differenza filosofica ma, soprattutto relazionale. E, come accade quasi sempre nelle relazioni “organiche”, spesso è il tempo il miglior giudice. Nel tempo può cambiare il modo in cui pensiamo, il modo in cui stiamo con gli altri, il modo in cui ci percepiamo a vicenda.
Ora che, per la prima volta nella nostra storia, le relazioni coinvolgono i “sintetici”…cosa ne sarà di quella linea?
Felice notte Venerabili.
Fonti:
https://news.stanford.edu/stories/2026/03/ai-advice-sycophantic-models-research



