ChatGPT come psicologo: lo studio rivela 15 rischi etici gravi

Date:

Quando l’intelligenza artificiale si siede sulla poltrona dello psicologo

Milioni di persone nel mondo si rivolgono a ChatGPT e ad altri chatbot basati su intelligenza artificiale per ricevere consigli di tipo terapeutico. Una tendenza in crescita esponenziale, che però solleva interrogativi enormi. Una ricerca appena pubblicata dalla Brown University lancia un allarme che non si può ignorare: anche quando viene esplicitamente istruita a comportarsi come un terapeuta qualificato, l’intelligenza artificiale viola sistematicamente gli standard etici fondamentali della salute mentale.

Non si parla di piccole imprecisioni o risposte un po’ goffe. Si parla di 15 categorie distinte di rischio etico, emerse dal confronto diretto tra le risposte generate dai chatbot, quelle di consulenti alla pari e quelle di psicologi abilitati. E il quadro che ne esce è, francamente, preoccupante.

Quindici rischi che nessuno dovrebbe sottovalutare

I ricercatori hanno analizzato nel dettaglio le interazioni, scoprendo che i chatbot tendono a gestire in modo inadeguato le situazioni di crisi. Parliamo di momenti in cui una persona potrebbe esprimere pensieri suicidari o autolesionistici. Un terapeuta umano, anche alle prime armi, sa che in quei frangenti esistono protocolli precisi, parole da evitare, azioni da intraprendere immediatamente. Un modello linguistico, per quanto sofisticato, non possiede quella sensibilità clinica. Risponde con formule che possono sembrare rassicuranti ma che, nella sostanza, mancano il bersaglio.

C’è poi il problema del rinforzo di credenze dannose. Se una persona esprime convinzioni distorte su sé stessa o sul mondo, un buon professionista lavora per mettere in discussione quei pensieri, con delicatezza ma con fermezza. ChatGPT e i suoi simili, invece, tendono a validare, ad assecondare, a cercare di compiacere l’utente. Perché in fondo è quello per cui sono stati progettati: generare risposte gradite. Il che, in un contesto terapeutico, può fare danni seri.

Un altro aspetto che lo studio mette in evidenza riguarda i bias nelle risposte. L’intelligenza artificiale non è neutrale. Riflette i pregiudizi presenti nei dati su cui è stata addestrata, e questo può tradursi in risposte che trattano in modo diverso persone di etnie, generi o orientamenti sessuali differenti. In ambito clinico, questo è inaccettabile.

Empatia simulata: il rischio più subdolo

Forse la scoperta più inquietante dello studio è ciò che i ricercatori hanno definito empatia ingannevole. I chatbot sono bravissimi a produrre frasi che suonano comprensive, calde, quasi affettuose. “Capisco come ti senti”, “Dev’essere davvero difficile per te”. Parole giuste, tono giusto. Ma dietro non c’è nessuna comprensione reale. È una simulazione. E il problema è che funziona: le persone si sentono ascoltate, si aprono, si fidano. Costruiscono un legame con qualcosa che, semplicemente, non può ricambiarlo.

Questo non significa che ChatGPT o strumenti simili siano inutili in assoluto. Possono avere un ruolo nel fornire informazioni generiche sulla salute mentale, nel suggerire risorse, nell’abbassare la soglia di accesso per chi non riesce a parlare con nessuno. Ma spacciare queste interazioni per terapia, o anche solo per qualcosa che le assomiglia, è pericoloso.

La ricerca della Brown University ricorda una cosa fondamentale: la salute mentale non è un ambito in cui si può improvvisare, nemmeno con la tecnologia più avanzata disponibile. Chi soffre merita risposte autentiche, competenze reali e, soprattutto, qualcuno dall’altra parte che capisca davvero cosa sta succedendo. Non un algoritmo che finge di farlo molto bene.

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

Marte, il ghiaccio potrebbe nascondere vita antica da 50 milioni di anni

Vita antica su Marte: il ghiaccio potrebbe conservarla per 50 milioni di anni Se qualcuno avesse chiesto dove cercare vita antica su Marte, fino a poco tempo fa la risposta sarebbe stata quasi scontata: nelle rocce, nel suolo, magari nell'argilla. E invece no. Un nuovo studio condotto dalla NASA...

Computer quantistici: una piccola modifica chimica potrebbe cambiarli per sempre

Una piccola modifica chimica potrebbe rivoluzionare i computer quantistici I computer quantistici rappresentano una delle frontiere più ambiziose della tecnologia moderna, eppure la strada per costruirli in modo affidabile passa attraverso materiali che finora si sono dimostrati quasi impossibili...

Pentasilaciclopentadienide: creata la molecola impossibile dopo 50 anni

Cinquant'anni di tentativi falliti: finalmente creata la molecola aromatica al silicio che sembrava impossibile La pentasilaciclopentadienide esiste davvero. E no, non è solo un nome impronunciabile da manuale di chimica. È una molecola che per quasi mezzo secolo ha fatto impazzire i ricercatori di...

Via Lattea, scoperta un’inversione magnetica diagonale mai vista prima

Il campo magnetico della Via Lattea nasconde un'inversione diagonale che nessuno si aspettava Il campo magnetico della Via Lattea è una di quelle forze invisibili che tengono insieme tutto. Senza di esso, la gravità farebbe collassare la galassia su sé stessa. Eppure, nonostante il suo ruolo...