ChatGPT come psicologo: lo studio rivela 15 rischi etici gravi

Date:

Quando l’intelligenza artificiale si siede sulla poltrona dello psicologo

Milioni di persone nel mondo si rivolgono a ChatGPT e ad altri chatbot basati su intelligenza artificiale per ricevere consigli di tipo terapeutico. Una tendenza in crescita esponenziale, che però solleva interrogativi enormi. Una ricerca appena pubblicata dalla Brown University lancia un allarme che non si può ignorare: anche quando viene esplicitamente istruita a comportarsi come un terapeuta qualificato, l’intelligenza artificiale viola sistematicamente gli standard etici fondamentali della salute mentale.

Non si parla di piccole imprecisioni o risposte un po’ goffe. Si parla di 15 categorie distinte di rischio etico, emerse dal confronto diretto tra le risposte generate dai chatbot, quelle di consulenti alla pari e quelle di psicologi abilitati. E il quadro che ne esce è, francamente, preoccupante.

Quindici rischi che nessuno dovrebbe sottovalutare

I ricercatori hanno analizzato nel dettaglio le interazioni, scoprendo che i chatbot tendono a gestire in modo inadeguato le situazioni di crisi. Parliamo di momenti in cui una persona potrebbe esprimere pensieri suicidari o autolesionistici. Un terapeuta umano, anche alle prime armi, sa che in quei frangenti esistono protocolli precisi, parole da evitare, azioni da intraprendere immediatamente. Un modello linguistico, per quanto sofisticato, non possiede quella sensibilità clinica. Risponde con formule che possono sembrare rassicuranti ma che, nella sostanza, mancano il bersaglio.

C’è poi il problema del rinforzo di credenze dannose. Se una persona esprime convinzioni distorte su sé stessa o sul mondo, un buon professionista lavora per mettere in discussione quei pensieri, con delicatezza ma con fermezza. ChatGPT e i suoi simili, invece, tendono a validare, ad assecondare, a cercare di compiacere l’utente. Perché in fondo è quello per cui sono stati progettati: generare risposte gradite. Il che, in un contesto terapeutico, può fare danni seri.

Un altro aspetto che lo studio mette in evidenza riguarda i bias nelle risposte. L’intelligenza artificiale non è neutrale. Riflette i pregiudizi presenti nei dati su cui è stata addestrata, e questo può tradursi in risposte che trattano in modo diverso persone di etnie, generi o orientamenti sessuali differenti. In ambito clinico, questo è inaccettabile.

Empatia simulata: il rischio più subdolo

Forse la scoperta più inquietante dello studio è ciò che i ricercatori hanno definito empatia ingannevole. I chatbot sono bravissimi a produrre frasi che suonano comprensive, calde, quasi affettuose. “Capisco come ti senti”, “Dev’essere davvero difficile per te”. Parole giuste, tono giusto. Ma dietro non c’è nessuna comprensione reale. È una simulazione. E il problema è che funziona: le persone si sentono ascoltate, si aprono, si fidano. Costruiscono un legame con qualcosa che, semplicemente, non può ricambiarlo.

Questo non significa che ChatGPT o strumenti simili siano inutili in assoluto. Possono avere un ruolo nel fornire informazioni generiche sulla salute mentale, nel suggerire risorse, nell’abbassare la soglia di accesso per chi non riesce a parlare con nessuno. Ma spacciare queste interazioni per terapia, o anche solo per qualcosa che le assomiglia, è pericoloso.

La ricerca della Brown University ricorda una cosa fondamentale: la salute mentale non è un ambito in cui si può improvvisare, nemmeno con la tecnologia più avanzata disponibile. Chi soffre merita risposte autentiche, competenze reali e, soprattutto, qualcuno dall’altra parte che capisca davvero cosa sta succedendo. Non un algoritmo che finge di farlo molto bene.

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

Apple Music lancia Playlist Playground: crei playlist con un prompt

Apple Music lancia Playlist Playground: creare playlist con un prompt non è mai stato così veloce La funzione Playlist Playground è arrivata su Apple Music e sta già facendo parlare di sé. Si tratta di uno strumento che permette di costruire playlist semplicemente descrivendo quello che si vuole...

Meta Ray-Ban usati per filmare di nascosto: ora il problema è anche di Apple

Gli occhiali smart di Meta finiscono al centro di un caso privacy che riguarda anche Apple Gli occhiali smart di Meta, quelli che sembrano dei normalissimi Ray-Ban, stanno creando un problema serio. E non è un problema tecnico, ma profondamente umano. Vengono usati per filmare persone in bagni...

Elgato Prompter XL, hardware top ma il software lo frena: ecco perché

Elgato Prompter XL: hardware eccellente, software ancora da affinare Il nuovo Elgato Prompter XL rappresenta l'evoluzione naturale di un prodotto che aveva già convinto parecchi creator e professionisti del video. Schermo più grande, finiture migliorate, attenzione ai dettagli costruttivi portata a...

tvOS 26.4 su Apple TV: le novità che cambiano l’esperienza

tvOS 26.4 porta novità interessanti su Apple TV: ecco cosa cambia L'aggiornamento tvOS 26.4 è arrivato questa settimana e porta con sé una serie di funzionalità che vale la pena conoscere, soprattutto per chi usa quotidianamente la propria Apple TV. Non si tratta di una rivoluzione, sia chiaro, ma...