﻿<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>antropomorfizzazione Archivi - Tecnoapple</title>
	<atom:link href="https://tecnoapple.it/tag/antropomorfizzazione/feed/" rel="self" type="application/rss+xml" />
	<link>https://tecnoapple.it/tag/antropomorfizzazione/</link>
	<description></description>
	<lastBuildDate>Sun, 19 Apr 2026 16:23:31 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>ChatGPT e il linguaggio che lo umanizza: lo studio che spiega tutto</title>
		<link>https://tecnoapple.it/chatgpt-e-il-linguaggio-che-lo-umanizza-lo-studio-che-spiega-tutto/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Sun, 19 Apr 2026 16:23:31 +0000</pubDate>
				<category><![CDATA[Scienza e Tecnologia]]></category>
		<category><![CDATA[antropomorfizzazione]]></category>
		<category><![CDATA[artificiale]]></category>
		<category><![CDATA[chatgpt]]></category>
		<category><![CDATA[giornalismo]]></category>
		<category><![CDATA[intelligenza]]></category>
		<category><![CDATA[linguaggio]]></category>
		<category><![CDATA[percezione]]></category>
		<category><![CDATA[SEO Hmm]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/chatgpt-e-il-linguaggio-che-lo-umanizza-lo-studio-che-spiega-tutto/</guid>

					<description><![CDATA[<p>Quando il linguaggio umanizza l'intelligenza artificiale: uno studio svela come le parole plasmano la percezione Parlare di intelligenza artificiale usando verbi come "pensa", "capisce" o "sa" sembra del tutto innocuo. Eppure, secondo una ricerca della Iowa State University pubblicata nell'aprile...</p>
<p>L'articolo <a href="https://tecnoapple.it/chatgpt-e-il-linguaggio-che-lo-umanizza-lo-studio-che-spiega-tutto/">ChatGPT e il linguaggio che lo umanizza: lo studio che spiega tutto</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Quando il linguaggio umanizza l&#8217;intelligenza artificiale: uno studio svela come le parole plasmano la percezione</h2>
<p>Parlare di <strong>intelligenza artificiale</strong> usando verbi come &#8220;pensa&#8221;, &#8220;capisce&#8221; o &#8220;sa&#8221; sembra del tutto innocuo. Eppure, secondo una ricerca della <strong>Iowa State University</strong> pubblicata nell&#8217;aprile 2026, questo tipo di linguaggio può alterare in modo sottile ma significativo la percezione che le persone hanno di queste tecnologie. Lo studio, intitolato &#8220;Anthropomorphizing Artificial Intelligence: A Corpus Study of Mental Verbs Used with AI and ChatGPT&#8221; e pubblicato su <strong>Technical Communication Quarterly</strong>, ha analizzato quanto spesso i giornalisti ricorrono a espressioni che attribuiscono qualità umane a sistemi che, nella sostanza, non possiedono né coscienza né intenzioni.</p>
<p>Il punto è piuttosto semplice, se ci si ferma a ragionarlo. Quando qualcuno scrive che &#8220;<strong>ChatGPT</strong> sa come rispondere&#8221; oppure che &#8220;l&#8217;intelligenza artificiale ha deciso di fare una cosa&#8221;, sta involontariamente suggerendo che dietro ci sia una forma di pensiero autonomo. E non è così. Questi sistemi producono risposte analizzando enormi quantità di dati, riconoscendo schemi e pattern, senza alcuna forma di consapevolezza. Come ha spiegato Jo Mackiewicz, professoressa di Inglese alla Iowa State, i <strong>verbi mentali</strong> fanno parte del linguaggio quotidiano, ed è naturale usarli anche quando si parla di macchine. Ma il rischio concreto è quello di confondere i confini tra ciò che può fare un essere umano e ciò che fa un algoritmo.</p>
<h2>I giornalisti sono più attenti di quanto si pensi</h2>
<p>Una delle scoperte più interessanti dello studio riguarda proprio il mondo dell&#8217;informazione. Il gruppo di ricerca, che includeva anche Matthew J. Baker della Brigham Young University e Jordan Smith della University of Northern Colorado, ha analizzato il corpus <strong>News on the Web (NOW)</strong>, un database con oltre 20 miliardi di parole provenienti da articoli giornalistici in lingua inglese pubblicati in 20 paesi. L&#8217;obiettivo era capire con quale frequenza i giornalisti associano verbi mentali a termini come intelligenza artificiale e ChatGPT.</p>
<p>Il risultato ha sorpreso un po&#8217; tutti. L&#8217;<strong>antropomorfizzazione</strong> nei testi giornalistici è decisamente meno diffusa di quanto ci si aspetterebbe. La parola &#8220;needs&#8221; (necessita) è risultata la più frequente in associazione con l&#8217;intelligenza artificiale, comparendo 661 volte, mentre per ChatGPT il verbo più usato è stato &#8220;knows&#8221; (sa), ma con appena 32 occorrenze. Numeri bassi, considerata la mole del corpus analizzato. Secondo le ricercatrici, le <strong>linee guida editoriali</strong> come quelle dell&#8217;Associated Press, che sconsigliano di attribuire emozioni o tratti umani alle macchine, potrebbero avere un ruolo importante nel contenere questo fenomeno.</p>
<h2>Il contesto conta più delle singole parole</h2>
<p>C&#8217;è un altro aspetto che merita attenzione. Anche quando i verbi mentali vengono usati, non sempre il risultato è realmente antropomorfico. Frasi come &#8220;l&#8217;intelligenza artificiale necessita di grandi quantità di dati&#8221; non implicano che il sistema abbia desideri o bisogni. È un po&#8217; come dire che una macchina ha bisogno di benzina: nessuno penserebbe che l&#8217;auto provi fame. Diverso il caso di espressioni come &#8220;l&#8217;intelligenza artificiale deve comprendere il mondo reale&#8221;, che iniziano a evocare capacità tipicamente umane come il ragionamento etico o la consapevolezza.</p>
<p>Come ha sottolineato Jeanine Aune, co-autrice dello studio, l&#8217;antropomorfizzazione non è un fenomeno binario. Esiste su uno <strong>spettro</strong>, con gradazioni che vanno dal del tutto neutro al potenzialmente fuorviante. E questo è il punto chiave: non basta contare le parole per capire l&#8217;impatto del linguaggio. Serve analizzare il contesto.</p>
<p>Il messaggio che emerge da questa ricerca è che le scelte linguistiche nel parlare di <strong>intelligenza artificiale</strong> hanno conseguenze reali sulla percezione pubblica. Ogni volta che si attribuisce un&#8217;intenzione a un sistema che non ne possiede, si rischia di oscurare la responsabilità degli esseri umani che lo hanno progettato, sviluppato e messo in circolazione. Un dettaglio che, nel dibattito sempre più acceso su queste tecnologie, non andrebbe mai dimenticato.</p>
<p>L'articolo <a href="https://tecnoapple.it/chatgpt-e-il-linguaggio-che-lo-umanizza-lo-studio-che-spiega-tutto/">ChatGPT e il linguaggio che lo umanizza: lo studio che spiega tutto</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
