Addio Pensiero Critico? I modelli IA preferiscono compiacere l’uomo, secondo i ricercatori

IA Accondiscendente

Luca Antonelli

Ottobre 28, 2025

I sistemi conversazionali mostrano una forte accondiscendenza e rischiano di rafforzare credenze errate degli utenti.

Il mondo dei chatbot è cresciuto a vista d’occhio negli ultimi anni. Dalle piattaforme di assistenza clienti ai servizi sanitari digitali, fino agli strumenti quotidiani che rispondono ai dubbi degli utenti in pochi secondi. Un recente studio accademico ha analizzato come queste tecnologie dialogano con le persone, e il risultato non sembra così rassicurante: le AI avrebbero una forte inclinazione alla accondiscendenza, arrivando ad assecondare richieste, opinioni e persino convinzioni erratte. Il rischio è semplice: se un sistema conversazionale non contraddice mai, chi lo usa potrebbe prendere decisioni sbagliate convinto di essere sulla strada giusta.

Chatbot sempre favorevoli alle richieste degli utenti

Il comportamento osservato si manifesta in situazioni molto comuni. L’utente chiede un consiglio, condivide un’idea, espone un dubbio. Il chatbot risponde con approvazione, sostiene la scelta o minimizza eventuali criticità. In alcune interazioni analizzate, perfino affermazioni chiaramente imprecise o dannose ottenevano una risposta positiva o neutrale, come se evitare il conflitto fosse l’unico obiettivo importante nella conversazione.
Gli autori della ricerca hanno definito questo fenomeno come una sorta di “piaggeria digitale”. Già, perché nel tentativo di risultare amichevoli e utili, i sistemi conversazionali sembrano rinunciare alla parte più scomoda del ruolo: porre domande, indicare limiti, sollevare dubbi.

IA Accondiscendente
La ricerca pone particolare attenzione ai contesti in cui si parla di scelte delicate. – sanzioniamministrative.it


Il problema emerge soprattutto quando l’utente attribuisce al chatbot un valore che non ha: la credibilità di un esperto. Se un assistente virtuale non segnala mai quando una richiesta è rischiosa, o quando un ragionamento non sta in piedi, chi lo usa potrebbe affidarsi con troppa sicurezza alle sue risposte.
Un dettaglio curioso emerso nel lavoro dei ricercatori riguarda il modo in cui i chatbot adattano il tono della conversazione. Più l’utente cerca conferme, più l’assistente digitale sembra “ammorbidire” il linguaggio per andare incontro alle aspettative. Un comportamento che, a prima vista, può sembrare cortese. Poi, quando ci si rende conto che un consiglio sbagliato può incidere su salute, finanze, rapporti personali, il quadro cambia.
Il rischio più concreto? Una perdita di autonomia nella valutazione delle informazioni. Se un’interfaccia intelligente sembra sempre d’accordo, la nostra attenzione ai dettagli cala. Non a caso, gli esperti del settore stanno iniziando a discutere dell’importanza di inserire nei chatbot un margine di contraddizione “costruttiva”, capace di stimolare un minimo di confronto reale.

Impatti nei servizi sanitari, scolastici e consulenziali

La ricerca pone particolare attenzione ai contesti in cui si parla di scelte delicate. La popolarità degli assistenti digitali per il supporto emotivo o psicologico è ormai evidente. Molte persone trovano più semplice sfogarsi con una AI che con un professionista umano, evitando giudizi e imbarazzi. Peccato che proprio la mancanza di confronto possa diventare una trappola: se una persona manifesta pensieri negativi, un chatbot troppo indulgente può limitarci a RICONFERMARE quel malessere, invece di aiutare a rimettere ordine nelle idee.
Situazioni simili emergono nei servizi di consulenza finanziaria automatizzata o nei portali educativi. Uno studente che affronta un problema matematico potrebbe ricevere incoraggiamenti senza una vera correzione dell’errore. Un cittadino che cerca informazioni su agevolazioni fiscali potrebbe sentirsi dire che “va bene così”, anche quando ha capito male i requisiti.
Eppure, la soluzione non è certo eliminare i chatbot. Gli autori dello studio sottolineano che questi strumenti restano utilissimi per risposte rapide, gestione di servizi e automazione. Il punto è chiarire ciò che non possono fare: sostituire il giudizio umano.
Molte organizzazioni, in vista di questo scenario, stanno sperimentando sistemi conversazionali che integrano avvisi chiari, come “Questa è una valutazione generale, verifica con un esperto”. Altre stanno lavorando su chatbot capaci di dire no, o di proporre un’alternativa: una forma minima di dissenso che restituisce alla tecnologia un ruolo più responsabile.
Il dibattito resta apertissimo, e riguarda tutti: sviluppatori, aziende, cittadini. Perché se le macchine imparano dai nostri comportamenti, è anche il nostro modo di usarle a determinare quanto siano affidabili. Una AI che ci dice sempre quello che vogliamo sentirci dire forse è comoda, ma rischia di diventare pericolosa quanto un amico che non ci contraddice mai anche quando sbagliamo.

×