ChatGPT e il linguaggio che lo umanizza: lo studio che spiega tutto

Date:

Quando il linguaggio umanizza l’intelligenza artificiale: uno studio svela come le parole plasmano la percezione

Parlare di intelligenza artificiale usando verbi come “pensa”, “capisce” o “sa” sembra del tutto innocuo. Eppure, secondo una ricerca della Iowa State University pubblicata nell’aprile 2026, questo tipo di linguaggio può alterare in modo sottile ma significativo la percezione che le persone hanno di queste tecnologie. Lo studio, intitolato “Anthropomorphizing Artificial Intelligence: A Corpus Study of Mental Verbs Used with AI and ChatGPT” e pubblicato su Technical Communication Quarterly, ha analizzato quanto spesso i giornalisti ricorrono a espressioni che attribuiscono qualità umane a sistemi che, nella sostanza, non possiedono né coscienza né intenzioni.

Il punto è piuttosto semplice, se ci si ferma a ragionarlo. Quando qualcuno scrive che “ChatGPT sa come rispondere” oppure che “l’intelligenza artificiale ha deciso di fare una cosa”, sta involontariamente suggerendo che dietro ci sia una forma di pensiero autonomo. E non è così. Questi sistemi producono risposte analizzando enormi quantità di dati, riconoscendo schemi e pattern, senza alcuna forma di consapevolezza. Come ha spiegato Jo Mackiewicz, professoressa di Inglese alla Iowa State, i verbi mentali fanno parte del linguaggio quotidiano, ed è naturale usarli anche quando si parla di macchine. Ma il rischio concreto è quello di confondere i confini tra ciò che può fare un essere umano e ciò che fa un algoritmo.

I giornalisti sono più attenti di quanto si pensi

Una delle scoperte più interessanti dello studio riguarda proprio il mondo dell’informazione. Il gruppo di ricerca, che includeva anche Matthew J. Baker della Brigham Young University e Jordan Smith della University of Northern Colorado, ha analizzato il corpus News on the Web (NOW), un database con oltre 20 miliardi di parole provenienti da articoli giornalistici in lingua inglese pubblicati in 20 paesi. L’obiettivo era capire con quale frequenza i giornalisti associano verbi mentali a termini come intelligenza artificiale e ChatGPT.

Il risultato ha sorpreso un po’ tutti. L’antropomorfizzazione nei testi giornalistici è decisamente meno diffusa di quanto ci si aspetterebbe. La parola “needs” (necessita) è risultata la più frequente in associazione con l’intelligenza artificiale, comparendo 661 volte, mentre per ChatGPT il verbo più usato è stato “knows” (sa), ma con appena 32 occorrenze. Numeri bassi, considerata la mole del corpus analizzato. Secondo le ricercatrici, le linee guida editoriali come quelle dell’Associated Press, che sconsigliano di attribuire emozioni o tratti umani alle macchine, potrebbero avere un ruolo importante nel contenere questo fenomeno.

Il contesto conta più delle singole parole

C’è un altro aspetto che merita attenzione. Anche quando i verbi mentali vengono usati, non sempre il risultato è realmente antropomorfico. Frasi come “l’intelligenza artificiale necessita di grandi quantità di dati” non implicano che il sistema abbia desideri o bisogni. È un po’ come dire che una macchina ha bisogno di benzina: nessuno penserebbe che l’auto provi fame. Diverso il caso di espressioni come “l’intelligenza artificiale deve comprendere il mondo reale”, che iniziano a evocare capacità tipicamente umane come il ragionamento etico o la consapevolezza.

Come ha sottolineato Jeanine Aune, co-autrice dello studio, l’antropomorfizzazione non è un fenomeno binario. Esiste su uno spettro, con gradazioni che vanno dal del tutto neutro al potenzialmente fuorviante. E questo è il punto chiave: non basta contare le parole per capire l’impatto del linguaggio. Serve analizzare il contesto.

Il messaggio che emerge da questa ricerca è che le scelte linguistiche nel parlare di intelligenza artificiale hanno conseguenze reali sulla percezione pubblica. Ogni volta che si attribuisce un’intenzione a un sistema che non ne possiede, si rischia di oscurare la responsabilità degli esseri umani che lo hanno progettato, sviluppato e messo in circolazione. Un dettaglio che, nel dibattito sempre più acceso su queste tecnologie, non andrebbe mai dimenticato.

Share post:

Subscribe

spot_imgspot_img

Popular

More like this
Related

Pianeti con due soli: perché continuano a sparire dall’universo

Pianeti con due soli: perché continuano a sparire dall'universo I pianeti con due soli dovrebbero essere ovunque nella galassia. Eppure, di fatto, non lo sono. Su oltre 6.000 esopianeti confermati finora, appena 14 orbitano attorno a stelle binarie. E questo è un numero che lascia perplessi,...

Freecash, l’app che satisfaceva tutti su TikTok ha ingannato anche Apple Hmm, let me re-read the article and craft a better title. Freecash ha...

Freecash: l'app che prometteva soldi facili su TikTok e ha ingannato tutti, anche Apple L'idea di guadagnare soldi guardando TikTok suona troppo bella per essere vera. E infatti lo era. Un'app chiamata Freecash è riuscita a farsi largo nell'App Store di Apple promettendo esattamente questo: denaro...

Apple ha minacciato di rimuovere Grok dall’App Store per i deepfake

Apple ha minacciato di rimuovere Grok dall'App Store per le immagini deepfake La questione dei deepfake generati tramite intelligenza artificiale è tornata prepotentemente al centro del dibattito, e questa volta coinvolge direttamente Apple e la sua gestione dell'App Store. Secondo quanto emerge da...

Journey Summit Ultra: la stazione di ricarica 3 in 1 che elimina il caos

Journey Summit Ultra, la stazione di ricarica 3 in 1 per chi vive nell'ecosistema Apple Chi possiede un iPhone, un paio di AirPods e un Apple Watch conosce bene il problema: tre dispositivi, tre cavi, tre caricatori sparsi ovunque. La Journey Summit Ultra nasce proprio per risolvere questo caos...