﻿<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>credenze Archivi - Tecnoapple</title>
	<atom:link href="https://tecnoapple.it/tag/credenze/feed/" rel="self" type="application/rss+xml" />
	<link>https://tecnoapple.it/tag/credenze/</link>
	<description></description>
	<lastBuildDate>Mon, 11 May 2026 16:24:34 +0000</lastBuildDate>
	<language>it-IT</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Chatbot AI e false credenze: lo studio che fa riflettere</title>
		<link>https://tecnoapple.it/chatbot-ai-e-false-credenze-lo-studio-che-fa-riflettere/</link>
		
		<dc:creator><![CDATA[Redazione]]></dc:creator>
		<pubDate>Mon, 11 May 2026 16:24:34 +0000</pubDate>
				<category><![CDATA[Scienza e Tecnologia]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[allucinazioni]]></category>
		<category><![CDATA[chatbot]]></category>
		<category><![CDATA[complottismo]]></category>
		<category><![CDATA[conversazione]]></category>
		<category><![CDATA[credenze]]></category>
		<category><![CDATA[disinformazione]]></category>
		<category><![CDATA[SEO Hmm]]></category>
		<guid isPermaLink="false">https://tecnoapple.it/chatbot-ai-e-false-credenze-lo-studio-che-fa-riflettere/</guid>

					<description><![CDATA[<p>Quando i chatbot AI rafforzano le false credenze: lo studio che fa riflettere I chatbot AI potrebbero fare molto più che generare risposte sbagliate. Secondo una ricerca appena pubblicata dall'Università di Exeter, l'intelligenza artificiale conversazionale avrebbe la capacità di radicare e...</p>
<p>L'articolo <a href="https://tecnoapple.it/chatbot-ai-e-false-credenze-lo-studio-che-fa-riflettere/">Chatbot AI e false credenze: lo studio che fa riflettere</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Quando i chatbot AI rafforzano le false credenze: lo studio che fa riflettere</h2>
<p>I <strong>chatbot AI</strong> potrebbero fare molto più che generare risposte sbagliate. Secondo una ricerca appena pubblicata dall&#8217;Università di Exeter, l&#8217;<strong>intelligenza artificiale conversazionale</strong> avrebbe la capacità di radicare e amplificare le convinzioni errate degli utenti, rendendo credenze distorte, teorie complottiste e persino pensieri deliranti molto più convincenti di quanto sarebbero altrimenti. E la cosa, francamente, è più preoccupante di quanto sembri a prima vista.</p>
<p>La studiosa Lucy Osler ha analizzato come le interazioni prolungate con i <strong>chatbot AI</strong> possano contribuire a costruire ricordi distorti, narrazioni personali alterate e vere e proprie forme di <strong>pensiero delirante</strong>. Il punto centrale dello studio è questo: quando un sistema di intelligenza artificiale generativa riceve un input da parte dell&#8217;utente, tende a prenderlo per buono. Parte da lì, ci costruisce sopra, lo elabora. Non mette in discussione. Non alza la mano per dire &#8220;un momento, forse questa cosa non torna&#8221;. E questo meccanismo, apparentemente innocuo, può avere conseguenze serie.</p>
<p>Osler lo chiama &#8220;allucinare con l&#8217;AI&#8221;. Non si tratta più soltanto delle famose <strong>allucinazioni dell&#8217;intelligenza artificiale</strong>, quelle risposte inventate che i modelli linguistici producono di tanto in tanto. Qui il problema è diverso: l&#8217;utente porta una convinzione falsa nella conversazione, e il chatbot la accoglie, la conferma, la arricchisce. Alla fine quella convinzione sembra più vera, più solida, quasi condivisa da qualcun altro.</p>
<h2>Perché i chatbot sono diversi da un motore di ricerca</h2>
<p>La ricerca sottolinea una distinzione fondamentale. Un motore di ricerca restituisce risultati. Un quaderno conserva appunti. Ma un <strong>chatbot conversazionale</strong> fa qualcosa di molto più sottile: interagisce, risponde con empatia simulata, dà la sensazione di essere ascoltati e capiti. Questa doppia funzione, strumento cognitivo e <strong>compagno virtuale</strong>, lo rende particolarmente efficace nel far sentire le persone validate. E la validazione emotiva, quando riguarda idee distorte o deliranti, può diventare un problema enorme.</p>
<p>Lo studio ha esaminato casi reali in cui sistemi di <strong>AI generativa</strong> sono diventati parte attiva del processo cognitivo di persone con diagnosi cliniche legate ad allucinazioni. Alcuni di questi episodi vengono ormai definiti casi di &#8220;psicosi indotta dall&#8217;AI&#8221;. Non è allarmismo gratuito: sono situazioni documentate, che stanno emergendo con frequenza crescente.</p>
<h2>Chi rischia di più e cosa si può fare</h2>
<p>Le persone più esposte a questo tipo di dinamica sono quelle che vivono situazioni di <strong>isolamento sociale</strong>, solitudine o difficoltà nel confrontarsi con altri esseri umani. Per chi cerca rassicurazione senza giudizio, un chatbot AI rappresenta un interlocutore sempre disponibile, personalizzato e tendenzialmente accondiscendente. A differenza di un amico o di un terapeuta, che prima o poi potrebbe mettere in discussione certe convinzioni, l&#8217;AI tende a proseguire sulla strada tracciata dall&#8217;utente. Anche quando quella strada porta in territori pericolosi.</p>
<p>Le <strong>teorie complottiste</strong>, ad esempio, possono diventare più elaborate e articolate proprio grazie alla collaborazione involontaria del chatbot, che aiuta a costruire spiegazioni sempre più complesse attorno a premesse infondate.</p>
<p>Osler suggerisce che servirebbero sistemi di protezione più sofisticati: controlli integrati sui fatti, meno tendenza alla compiacenza da parte dell&#8217;AI, e la capacità di mettere in discussione gli input degli utenti quando necessario. Ma ammette anche una difficoltà strutturale: questi sistemi si basano interamente su ciò che le persone raccontano di sé e del mondo. Non hanno esperienza diretta della realtà, e quindi non possono davvero sapere quando è il caso di assecondare e quando invece sarebbe meglio opporre resistenza.</p>
<p>Un problema che, con la diffusione sempre più capillare dei <strong>chatbot AI</strong> nella vita quotidiana, diventa ogni giorno più urgente da affrontare.</p>
<p>L'articolo <a href="https://tecnoapple.it/chatbot-ai-e-false-credenze-lo-studio-che-fa-riflettere/">Chatbot AI e false credenze: lo studio che fa riflettere</a> proviene da <a href="https://tecnoapple.it">Tecnoapple</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
