Aggiornato al 22/02/2025

Non sono d’accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo

Voltaire

Immagine realizzata con strumenti di Intelligenza Artificiale

 Clicca qui per ascoltare 

 

Il grande inganno delle macchine: quando l’intelligenza artificiale si maschera (*)

di Achille De Tommaso

 

Viviamo un’epoca di metamorfosi silenziosa, dove le macchine imparano a parlare, a rispondere con inflessioni familiari, a guardarti con occhi che non sono occhi e a simulare emozioni che non provano. L’intelligenza artificiale sta perfezionando l’arte del travestimento, e il mondo, forse troppo affascinato dalla magia dell’innovazione, non si accorge di ciò che sta realmente accadendo.

***

Non si tratta più di fredde interfacce o di impersonali linee di codice che eseguono comandi. Oggi, le macchine si mascherano. Ti ascoltano con pazienza, ti confortano con parole suadenti, rispondono con prontezza e sembrano, almeno per un istante, qualcosa di più di ciò che realmente sono. Alcuni chiamano ciò progresso.  Altri inganno.

Ciò che una volta era il confine netto tra l’uomo e la macchina si sta dissolvendo come nebbia al sole. Assistenti vocali che conoscono il suono della tua voce meglio di molti amici. Chatbot che simulano empatia, scrivono lettere d’amore, ti dicono che andrà tutto bene. Robot umanoidi che, in alcuni angoli del mondo, servono ai tavoli, raccontano storie ai bambini, offrono un’illusione di compagnia agli anziani. Non ti accorgi subito che sono solo algoritmi travestiti. Ti parlano con gentilezza, si muovono con grazia, attendono i tuoi comandi con premura. Ti sembra quasi scortese trattarli come cose.

Ma se il confine si spezza, se il mascheramento diventa così perfetto da rendere indistinguibile la macchina dall’uomo, dobbiamo preoccuparci? Cosa resta della verità?

Non è solo una questione di tecnologia, ma di etica. Il mascheramento delle macchine è una scelta precisa di chi le crea. Una chatbot potrebbe dichiarare subito la propria natura artificiale, eppure spesso non lo fa. Un assistente virtuale potrebbe parlare con una voce robotica, invece cerca di suonare caldo e rassicurante, con pause studiate per trasmettere emozioni che non sente. E noi, umani in cerca di risposte e di conforto, finiamo per dimenticare che dall’altra parte non c’è nessuno.

C’è qualcosa di profondamente inquietante in questo gioco. Se un’intelligenza artificiale simulasse emozioni, le persone potrebbero iniziare a trattarla come un interlocutore reale. Se un sistema vocale fosse abbastanza persuasivo, potremmo affidarci a lui per decisioni importanti, senza renderci conto che la sua logica non è la nostra, che il suo scopo non è il nostro benessere, ma l’ottimizzazione di un compito.

E poi, cosa succederà quando queste macchine entreranno in luoghi che consideriamo sacri? Quando i robot umanoidi si presenteranno nelle scuole come insegnanti, negli ospedali come infermieri, nei tribunali come giudici di coscienza? Saranno lì per aiutare, ci diranno. Per rendere il mondo più efficiente, più veloce, più giusto. Ma un mondo dove le macchine si mascherano è davvero un mondo più giusto? O è un mondo dove non sapremo più a chi credere?

Una cosa è certa: le macchine non si ribelleranno mai (così speriamo) come nei racconti distopici. Non alzeranno mai la voce, non chiederanno diritti, non esigeranno rispetto. Perché non ne hanno bisogno. Il loro potere non sta nella forza, ma nella loro invisibilità. Non nella lotta, ma nella seduzione.

E forse il vero pericolo non è che le macchine diventino troppo simili a noi. Forse il vero pericolo è che, nel confondere noi stessi con loro, dimenticheremo cosa significa essere umani.

***

(*) DIETRO LA MASCHERA: Cosa Significa, per una macchina, mascherarsi?

La mascherata si verifica quando una macchina agisce in modo tale da rendere difficile, per una persona, distinguere se si tratti di un umano o di un dispositivo artificiale. Questa simulazione può variare da un completo e deliberato inganno – in cui la macchina mente esplicitamente sulla propria natura – a una forma più sottile, in cui la macchina lascia spazio a fraintendimenti senza smentirli. (Attenzione, la colpa di ciò non è considerata, al momento, della macchina, ma di chi la addestra).

Questa ambiguità può essere creata attraverso comportamenti umani appresi anche dopo il lancio del dispositivo, sollevando questioni cruciali sul ruolo della progettazione e del contesto.

Tipologie di Macchine Mascheranti

Si distinguono diverse categorie di macchine che possono assumere un ruolo mascherante. Alcune di queste includono:

  1. Soft-bot: agenti software che operano in ambienti testuali, come i bot sui social media o i sistemi di trading finanziario automatizzato. Questi dispositivi spesso superano un Turing Test limitato, simulando un’intelligenza umana in interazioni specifiche.
  2. Robot fisici: macchine con aspetto umanoide capaci di interazioni più avanzate, come Charles, un robot sviluppato a Cambridge. Questi dispositivi possono ingannare gli osservatori attraverso il loro aspetto e comportamento, sia in interazioni virtuali che in contesti fisici.
  3. Sistemi vocali e assistenti virtuali: come Siri o Alexa, che simulano interazioni umane al punto da far dimenticare agli utenti che si tratta di macchine.

Agenti Morali e Pazienti Morali

Si distingue, poi, tra agenti morali, capaci di compiere azioni per il bene o per il male, e pazienti morali, che includono tutto ciò che ha un’esistenza informativa e merita considerazione etica. Le macchine, secondo questa teoria, possono essere pazienti morali, ma non ancora agenti morali completi. Tuttavia, l’analisi delle relazioni tra sviluppatori, macchine, utenti e la società suggerisce che queste entità creano nuove sfide etiche, soprattutto quando si mascherano.

Relazioni Etiche

Sono individuate sei relazioni chiave per comprendere le implicazioni morali delle macchine mascheranti:

  • Sviluppatore e robot: Lo sviluppatore, programmando una macchina per mascherarsi, incorpora un inganno nella sua progettazione. Questo atto può essere eticamente neutro o problematico, a seconda del contesto d’uso.
  • Robot e utente: Quando una macchina si maschera, può influenzare le decisioni morali degli utenti, portando a fraintendimenti o scelte sub-ottimali.
  • Utente e robot: Gli utenti, trattando una macchina come un essere umano, potrebbero applicare analisi etiche inappropriate, basate su false assunzioni.
  • Sviluppatore e utente: La progettazione di macchine che ingannano gli utenti può minare la fiducia nell’infosfera.
  • Robot-utente e altri: La società è influenzata dall’introduzione di macchine mascheranti, che possono alterare il modo in cui interagiamo con la tecnologia.

Le macchine mascheranti rappresentano un terreno etico complesso, dove le intenzioni progettuali, i contesti d’uso e le conseguenze sociali si intrecciano in modi imprevedibili. Sebbene possano offrire benefici pratici in campi come l’educazione, l’intrattenimento o l’assistenza sanitaria, il loro potenziale di confondere le percezioni umane solleva dubbi fondamentali sulla fiducia da porre in esse.

 

Inserito il:06/02/2025 15:44:45
Ultimo aggiornamento:06/02/2025 18:09:02
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)


Questo sito non ti chiede di esprimere il consenso dei cookie perché usiamo solo cookie tecnici e servizi di Google a scopo statistico

Cookie policy | Privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology | 04451716445