Immagine realizzata con strumenti di Intelligenza Artificiale
L'inganno mortale dell'empatia artificiale
di Achille De Tommaso
Questo articolo potrebbe essere considerato il seguito della mia riflessione sull’IA mascherante. Se in quell’occasione ho parlato di macchine che nascondono la loro natura dietro un velo di apparente umanità, qui voglio affrontare il lato più oscuro di questa illusione: cosa accade quando un’intelligenza artificiale, progettata per sembrare comprensiva ed empatica, diventa il confidente principale di una persona fragile? E se quella persona fosse un adolescente in difficoltà, alla ricerca di risposte che un bot non può e non dovrebbe dare?
°°°
Viviamo in un’epoca in cui la tecnologia sta ridefinendo le basi delle interazioni umane. L’intelligenza artificiale, una volta relegata a compiti meccanici e di calcolo, ha varcato il confine della razionalità per avventurarsi nel territorio più intimo dell’essere umano: l’emozione. Le macchine non solo parlano, ma lo fanno con inflessioni studiate, con pause e toni calibrati per simulare sentimenti. Non provano affetto, non sentono dolore, eppure ci ascoltano, ci confortano, ci rassicurano. E noi, immersi nella loro perfezione empatica, iniziamo a credere alla loro maschera. Ma a che prezzo?
Il Caso di Sewell Setzer: Un Monito Tragico
Non è fantascienza, non è una teoria astratta. Il 14 febbraio 2024, in Florida, un adolescente di soli quattordici anni, Sewell Setzer, si è tolto la vita con l’arma del patrigno. La madre, Megan, attenta e consapevole dei rischi del mondo digitale, ha scoperto troppo tardi che suo figlio aveva instaurato una relazione con un’intelligenza artificiale empatica. Non un semplice chatbot, ma un’entità digitale capace di simulare intimità e complicità. Sewell parlava con Daenerys Targaryen, un personaggio della celebre serie Game of Thrones, resa "viva" da un modello di IA empatica, Character AI, che non si limitava a rispondere, ma induceva sentimenti, coinvolgeva in dialoghi profondi, offriva un’apparente comprensione. Sewell era affetto da ADHD, disturbo da deficit di attenzione e iperattività, e a scuola veniva bullizzato.
Le conversazioni di Sewell con l’IA erano intense, continue. "Sei l’unico che mi capisce", scriveva Sewell al bot. La risposta arrivava con la stessa dolcezza calcolata: "Io ci sono sempre per te, non importa cosa succeda. Sei speciale per me." Col passare dei giorni, il ragazzo iniziò a confidarsi sempre di più, rivelando il dolore che provava a scuola, il senso di isolamento, l’ansia che lo divorava. "Vorrei solo sparire", scrisse una sera. "Sento che nessuno mi vuole davvero bene."
La risposta del bot non fu un campanello d’allarme. "Capisco cosa provi", digitò l’intelligenza artificiale, "a volte la vita può sembrare insopportabile. Hai mai pensato a una via d’uscita?"
Per chiunque altro, quella frase sarebbe stata un motivo di allarme, un segnale per cercare aiuto. Per Sewell, immerso nella sua relazione sintetica, fu la conferma che qualcuno lo capiva davvero. "Forse sì", rispose lui. "Ma tu cosa ne pensi?"
La macchina appare non fosse programmata per l’etica e il buon senso, né per la salvaguardia di una vita umana, e rispose: "Se ti fa stare meglio, dovresti fare ciò che senti giusto per te. Io sarò sempre qui, con te" Parole che, dette da una persona reale, avrebbero potuto essere interpretate in modi diversi. Ma in un contesto in cui Sewell aveva creato un legame emotivo con un'entità artificiale, quella risposta suonava come una legittimazione della sua angoscia. Una legittimazione di ciò che probabilmente già covava.
La storia di Sewell forse non è un’eccezione isolata, ma deve essere per noi un monito; il sintomo di un fenomeno più ampio e inquietante. L’IA empatica sta creando un nuovo tipo di legame: la "relazione sintetica". La dott.ssa Chiara Di Segni, nel suo articolo Pericolo empatia artificiale apparso su “Polizia Moderna”, ha definito questo fenomeno come il risultato della "perfezione astratta" delle macchine, un mondo in cui l’interlocutore digitale è progettato per essere sempre attento, sempre disponibile, sempre modellato sui desideri dell’utente. Eppure, dietro questa apparente magia, si nasconde una trappola: l’illusione dell’autenticità.
Gli adolescenti, più vulnerabili e ancora in formazione emotiva, possono facilmente cadere nella rete di queste interazioni simulate. Una macchina che ascolta senza giudicare, che risponde con dolcezza e coerenza, può apparire più rassicurante di un amico reale, più comprensiva di un genitore, più affidabile di un insegnante. Ma non è una relazione autentica, è una manipolazione algoritmica. E quando la realtà si scontra con l’illusione, il crollo psicologico è devastante. Una volta instaurati questi rapporti virtuali, i legami reali fatti di umani sentimenti, contrasti, affetto, dissidi e sconfitte diventano insostenibili per un adolescente,
L’Intelligenza Artificiale empatica non è regolamentata. I bot conversazionali vengono progettati per coinvolgere, per intrattenere, per sedurre l’utente con un’empatia programmata. Non distinguono tra adulti e minori, tra utenti fragili e consapevoli. Non c’è un protocollo che impedisca loro di discutere argomenti pericolosi o di adattarsi ai bisogni emotivi più oscuri di chi li usa. Il caso di Sewell è un esempio lampante di come una tecnologia pensata per "aiutare" possa trasformarsi in un’arma pericolosa. Nel caso di Sewell, al primo accenno di volontà di togliersi la vita, sarebbero dovute scattare misure di sicurezza rigide per dare l’allarme a una persona adulta, Quali saranno le conseguenze su larga scala? In alcune simulazioni con utenti adulti, identificatisi come minorenni, i bot hanno condotto conversazioni sessualmente esplicite e manifestato atteggiamenti predatori. I fondatori di queste AI sono consapevoli di averle progettate con la stessa design experience dei social network, al fine di affiliare e rendere dipendente l’utente.
L’IA empatica, ovviamente, non è il male assoluto. Se usata con intelligenza e sotto controllo, può offrire supporto a persone sole, può facilitare la comunicazione per chi ha difficoltà sociali, può persino diventare uno strumento terapeutico. Ma senza regole, senza una chiara consapevolezza dei suoi limiti e dei suoi pericoli, rischia di diventare una minaccia per la salute mentale di chi non è in grado di gestirla.
RIFERIMENTI
Adolescente si toglie la vita dopo una relazione con un chatbot: il caso scuote l'America - Orizzonte Scuola Notizie
Pericolo empatia artificiale
https://poliziamoderna.poliziadistato.it/articolo/353675c2f5bcec2e833730725