ChatGPT come psicologo: lo studio rivela 15 rischi etici gravi

Date:

Quando l’intelligenza artificiale si siede sulla poltrona dello psicologo

Milioni di persone nel mondo si rivolgono a ChatGPT e ad altri chatbot basati su intelligenza artificiale per ricevere consigli di tipo terapeutico. Una tendenza in crescita esponenziale, che però solleva interrogativi enormi. Una ricerca appena pubblicata dalla Brown University lancia un allarme che non si può ignorare: anche quando viene esplicitamente istruita a comportarsi come un terapeuta qualificato, l’intelligenza artificiale viola sistematicamente gli standard etici fondamentali della salute mentale.

Non si parla di piccole imprecisioni o risposte un po’ goffe. Si parla di 15 categorie distinte di rischio etico, emerse dal confronto diretto tra le risposte generate dai chatbot, quelle di consulenti alla pari e quelle di psicologi abilitati. E il quadro che ne esce è, francamente, preoccupante.

Quindici rischi che nessuno dovrebbe sottovalutare

I ricercatori hanno analizzato nel dettaglio le interazioni, scoprendo che i chatbot tendono a gestire in modo inadeguato le situazioni di crisi. Parliamo di momenti in cui una persona potrebbe esprimere pensieri suicidari o autolesionistici. Un terapeuta umano, anche alle prime armi, sa che in quei frangenti esistono protocolli precisi, parole da evitare, azioni da intraprendere immediatamente. Un modello linguistico, per quanto sofisticato, non possiede quella sensibilità clinica. Risponde con formule che possono sembrare rassicuranti ma che, nella sostanza, mancano il bersaglio.

C’è poi il problema del rinforzo di credenze dannose. Se una persona esprime convinzioni distorte su sé stessa o sul mondo, un buon professionista lavora per mettere in discussione quei pensieri, con delicatezza ma con fermezza. ChatGPT e i suoi simili, invece, tendono a validare, ad assecondare, a cercare di compiacere l’utente. Perché in fondo è quello per cui sono stati progettati: generare risposte gradite. Il che, in un contesto terapeutico, può fare danni seri.

Un altro aspetto che lo studio mette in evidenza riguarda i bias nelle risposte. L’intelligenza artificiale non è neutrale. Riflette i pregiudizi presenti nei dati su cui è stata addestrata, e questo può tradursi in risposte che trattano in modo diverso persone di etnie, generi o orientamenti sessuali differenti. In ambito clinico, questo è inaccettabile.

Empatia simulata: il rischio più subdolo

Forse la scoperta più inquietante dello studio è ciò che i ricercatori hanno definito empatia ingannevole. I chatbot sono bravissimi a produrre frasi che suonano comprensive, calde, quasi affettuose. “Capisco come ti senti”, “Dev’essere davvero difficile per te”. Parole giuste, tono giusto. Ma dietro non c’è nessuna comprensione reale. È una simulazione. E il problema è che funziona: le persone si sentono ascoltate, si aprono, si fidano. Costruiscono un legame con qualcosa che, semplicemente, non può ricambiarlo.

Questo non significa che ChatGPT o strumenti simili siano inutili in assoluto. Possono avere un ruolo nel fornire informazioni generiche sulla salute mentale, nel suggerire risorse, nell’abbassare la soglia di accesso per chi non riesce a parlare con nessuno. Ma spacciare queste interazioni per terapia, o anche solo per qualcosa che le assomiglia, è pericoloso.

La ricerca della Brown University ricorda una cosa fondamentale: la salute mentale non è un ambito in cui si può improvvisare, nemmeno con la tecnologia più avanzata disponibile. Chi soffre merita risposte autentiche, competenze reali e, soprattutto, qualcuno dall’altra parte che capisca davvero cosa sta succedendo. Non un algoritmo che finge di farlo molto bene.

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

NASA DART ha cambiato anche l’orbita del sistema binario attorno al Sole

La missione DART della NASA ha cambiato non solo l'orbita di Dimorphos, ma anche quella del sistema binario attorno al Sole La missione DART della NASA, lanciata nel 2022 con l'obiettivo di deviare la traiettoria dell'asteroide Dimorphos, ha prodotto risultati che vanno ben oltre le aspettative...

Neurogenesi adulta: il cervello produce davvero nuovi neuroni per tutta la vita?

Neurogenesi adulta: il cervello produce davvero nuovi neuroni per tutta la vita? La neurogenesi adulta è uno di quei temi che periodicamente tornano a far discutere neuroscienziati, medici e chiunque abbia un minimo di curiosità per il funzionamento del proprio cervello. Un nuovo studio ha...

Mano robotica con unghie sbuccia la frutta come un umano

Una mano robotica con unghie artificiali che sbuccia la frutta come un essere umano La mano robotica con unghie è una di quelle innovazioni che fanno venire voglia di guardare due volte. Sembra un dettaglio banale, quasi estetico, eppure cambia radicalmente il modo in cui un robot interagisce con...

Koala dell’Australia meridionale: stanno recuperando il DNA perduto

I koala dell'Australia meridionale stanno recuperando la diversità genetica perduta Quando una popolazione animale crolla fino a poche centinaia di esemplari, la genetica di solito non perdona. Eppure i koala dell'Australia meridionale stanno raccontando una storia diversa, quasi sorprendente: da...