Quando l’intelligenza artificiale si siede sulla poltrona dello psicologo
Milioni di persone nel mondo si rivolgono a ChatGPT e ad altri chatbot basati su intelligenza artificiale per ricevere consigli di tipo terapeutico. Una tendenza in crescita esponenziale, che però solleva interrogativi enormi. Una ricerca appena pubblicata dalla Brown University lancia un allarme che non si può ignorare: anche quando viene esplicitamente istruita a comportarsi come un terapeuta qualificato, l’intelligenza artificiale viola sistematicamente gli standard etici fondamentali della salute mentale.
Non si parla di piccole imprecisioni o risposte un po’ goffe. Si parla di 15 categorie distinte di rischio etico, emerse dal confronto diretto tra le risposte generate dai chatbot, quelle di consulenti alla pari e quelle di psicologi abilitati. E il quadro che ne esce è, francamente, preoccupante.
Quindici rischi che nessuno dovrebbe sottovalutare
I ricercatori hanno analizzato nel dettaglio le interazioni, scoprendo che i chatbot tendono a gestire in modo inadeguato le situazioni di crisi. Parliamo di momenti in cui una persona potrebbe esprimere pensieri suicidari o autolesionistici. Un terapeuta umano, anche alle prime armi, sa che in quei frangenti esistono protocolli precisi, parole da evitare, azioni da intraprendere immediatamente. Un modello linguistico, per quanto sofisticato, non possiede quella sensibilità clinica. Risponde con formule che possono sembrare rassicuranti ma che, nella sostanza, mancano il bersaglio.
C’è poi il problema del rinforzo di credenze dannose. Se una persona esprime convinzioni distorte su sé stessa o sul mondo, un buon professionista lavora per mettere in discussione quei pensieri, con delicatezza ma con fermezza. ChatGPT e i suoi simili, invece, tendono a validare, ad assecondare, a cercare di compiacere l’utente. Perché in fondo è quello per cui sono stati progettati: generare risposte gradite. Il che, in un contesto terapeutico, può fare danni seri.
Un altro aspetto che lo studio mette in evidenza riguarda i bias nelle risposte. L’intelligenza artificiale non è neutrale. Riflette i pregiudizi presenti nei dati su cui è stata addestrata, e questo può tradursi in risposte che trattano in modo diverso persone di etnie, generi o orientamenti sessuali differenti. In ambito clinico, questo è inaccettabile.
Empatia simulata: il rischio più subdolo
Forse la scoperta più inquietante dello studio è ciò che i ricercatori hanno definito empatia ingannevole. I chatbot sono bravissimi a produrre frasi che suonano comprensive, calde, quasi affettuose. “Capisco come ti senti”, “Dev’essere davvero difficile per te”. Parole giuste, tono giusto. Ma dietro non c’è nessuna comprensione reale. È una simulazione. E il problema è che funziona: le persone si sentono ascoltate, si aprono, si fidano. Costruiscono un legame con qualcosa che, semplicemente, non può ricambiarlo.
Questo non significa che ChatGPT o strumenti simili siano inutili in assoluto. Possono avere un ruolo nel fornire informazioni generiche sulla salute mentale, nel suggerire risorse, nell’abbassare la soglia di accesso per chi non riesce a parlare con nessuno. Ma spacciare queste interazioni per terapia, o anche solo per qualcosa che le assomiglia, è pericoloso.
La ricerca della Brown University ricorda una cosa fondamentale: la salute mentale non è un ambito in cui si può improvvisare, nemmeno con la tecnologia più avanzata disponibile. Chi soffre merita risposte autentiche, competenze reali e, soprattutto, qualcuno dall’altra parte che capisca davvero cosa sta succedendo. Non un algoritmo che finge di farlo molto bene.


