Aggiornato al 21/12/2024

Non sono d’accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo

Voltaire

Immagine realizzata con strumenti di Intelligenza Artificiale

Clicca qui per ascoltare

 

Gli Agenti Morali Artificiali

di Achille De Tommaso

 

Tempo fa, su questo stesso magazine, ebbi modo di scambiare alcune idee circa l'etica dell'IA. In quell'occasione, discutevo con un socio sulla necessità di controllo dell'IA, interrogandoci se si stesse facendo abbastanza per prevenire i pericoli associati. La mia posizione era che, mentre i governi si trastullano con regolamentazioni difficilmente applicabili e che rallentano (specialmente in Europa) lo sviluppo dell’IA, i ricercatori, finanziati per lo più dalle aziende, stanno lavorando parecchio per garantire la sicurezza di questa tecnologia.

Vi propongo ora un concetto che ritengo interessante su questa tematica, anche se ancora un po' futuristico: la creazione di Agenti Morali Artificiali (AMA). Gli AMA rappresentano oggi una delle sfide più complesse e affascinanti nel campo dell'intelligenza artificiale e dell'etica contemporanea. Questi agenti, concepiti per prendere decisioni non solo razionali ma anche eticamente rilevanti, potrebbero rivoluzionare il modo in cui le macchine interagiscono con la società e influenzano le scelte umane. Questo mio scritto cerca di esplorare le sfide e difficoltà filosofiche, sociali, tecniche e pratiche coinvolte nella realizzazione di questi sistemi.

Cosa sono gli Agenti Morali Artificiali?

Un Agente Morale Artificiale è un sistema di IA progettato per valutare e agire secondo principi morali definiti, eseguendo scelte che tengano conto di ciò che è giusto o sbagliato, al di là delle mere considerazioni utilitaristiche. Diversamente dagli algoritmi convenzionali che ottimizzano semplicemente un insieme di parametri predefiniti, gli AMA devono considerare dilemmi etici e risolverli in modo coerente.

Sfide Filosofiche

Le sfide legate alla creazione di AMA iniziano con la definizione stessa della moralità. I filosofi hanno dibattuto per secoli su cosa costituisca un'azione morale. Approcci deontologici, che pongono l'accento sul dovere e sulle regole, si contrappongono a teorie consequenzialiste come l'utilitarismo, che giudicano le azioni in base ai risultati prodotti. Implementare o meno uno di questi approcci in una macchina richiede una codifica chiara e rigorosa di concetti che spesso sfuggono a una definizione univoca. E che devono essere concordati a priori dagli umani.

Inoltre, vi è la questione del pluralismo etico: in una società globale con valori culturali e morali diversi, quale principio etico dovrebbe prevalere? L'adozione di un modello unico rischierebbe di privilegiare un sistema di valori a scapito di altri, mentre una pluralità di principi potrebbe generare conflitti interni all'AMA.

Sfide Tecniche

La progettazione tecnica di un AMA comporta complessità senza precedenti. L’agente deve essere in grado di:

  • Analizzare scenari complessi: Gli AMA devono comprendere e valutare scenari che coinvolgono molteplici variabili e implicazioni etiche.
  • Simulare conseguenze: Una componente chiave è la capacità di simulare le conseguenze a lungo termine delle proprie azioni.
  • Apprendimento e adattamento: Gli AMA devono evolversi con nuove informazioni e adattarsi a situazioni impreviste, mantenendo un comportamento eticamente coerente.

L'implementazione di questi sistemi richiede l'uso di tecnologie avanzate come il machine learning, modelli di decisione basati su reti neurali e sistemi esperti in grado di accedere a una vasta base di conoscenze morali e giuridiche.

Dilemmi Pratici

Gli AMA si trovano anche ad affrontare dilemmi pratici. Un esempio paradigmatico è dell’auto a guida autonoma che si trova a dover decidere “che cosa fare” nell’imminenza di un incidente stradale inevitabile, dovendo scegliere tra una serie di opzioni dai diversi impatti ai danni dei passeggeri a bordo della vettura e delle altre persone presenti sulla scena.

Ma ci sono altri esempi in cui le tecniche di intelligenza artificiale vengono impiegate per prendere decisioni con conseguenze di “vita o di morte”, come in ambito medico, nei casi di trapianti di organi, quando, di fronte a un’incompatibilità tra donatore e paziente, l’AI viene in aiuto delle strutture ospedaliere e delle Istituzioni preposte con algoritmi capaci di incrociare tra loro un’enorme mole di dati sanitari relativi a donatori e a pazienti in attesa di trapianto, «determinando “quali pazienti” siano intitolati a ricevere “quali organi”».

Implementare risposte a situazioni analoghe nella vita reale significa affrontare problematiche legate non solo alle aspettative sociali, ma anche a responsabilità legale.

Possibili Soluzioni

Alcuni ricercatori propongono approcci ibridi che combinano diverse teorie etiche. Ad esempio, un AMA potrebbe basarsi su regole deontologiche per evitare azioni immorali dirette, ma adottare un approccio consequenzialista per valutare i risultati complessivi delle proprie decisioni. Un'altra soluzione, anche se parziale, è rappresentata dai sistemi di IA spiegabili (XAI), che forniscono agli umani una comprensione chiara del processo decisionale dell'AMA, migliorando la fiducia e la trasparenza.

Prospettive Future

Il futuro degli AMA dipenderà in gran parte dalla capacità di superare le barriere tecniche e filosofiche attuali. Con il progresso della ricerca, potremmo vedere l'introduzione di AMA in settori come la sanità, la giustizia e i trasporti, dove decisioni morali sono essenziali. Tuttavia, resta cruciale un dialogo continuo tra filosofi, ingegneri, giuristi e società civile per garantire che questi agenti servano il bene comune senza esacerbare le disuguaglianze o favorire interessi particolari.

In sintesi, la creazione di Agenti Morali Artificiali non è solo una sfida tecnologica, ma un'impresa che richiede una profonda comprensione dell’etica e della natura umana. La loro realizzazione potrebbe aprire nuove frontiere nella collaborazione uomo-macchina, ma richiede prudenza e una visione olistica per evitare conseguenze indesiderate.

Cosa si sta facendo oggi.

Sebbene non esistano ancora AMA pienamente sviluppati e operativi, sono in corso numerosi progetti e studi che mirano a integrare principi etici nei sistemi di intelligenza artificiale. Ad esempio, un articolo pubblicato su Tech4Future esplora il ragionamento morale dei sistemi di IA, con un focus su ChatGPT, evidenziando come tali sistemi possano essere progettati per affrontare dilemmi etici e prendere decisioni moralmente rilevanti.

Inoltre, un documento disponibile su arXiv intitolato "Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement Learning" discute l'uso dell'apprendimento per rinforzo multi-agente per modellare scelte morali in dilemmi sociali, indicando un approccio pratico per la realizzazione di AMA.

Questi esempi dimostrano che la comunità scientifica sta attivamente esplorando metodi per incorporare l'etica nei sistemi di IA, avvicinandosi progressivamente alla realizzazione di Agenti Morali Artificiali.

Il Turing Test Morale

C’è un problema: le macchine possono apparire delle entità che “hanno più moralità degli esseri umani”. Ovviamente questo concetto è difficile da digerire, e non è vero. Ma porta fuori strada e potrebbe indurre gli umani a decisioni sbagliate. Questo problema è molto relativo a come la macchina IA, quando si trova davanti ad un problema per cui non sa che pesci pigliare, dà una risposta verosimile, ma molto orientata a “ciò che l’originatore si aspetta”, se siete interessati, vi invito su questo tema a leggere il paragrafo “Svolgimento del Moral Turing Test” di Tech4future, che è nei riferimenti.

 

RIFERIMENTI

Ragionamento morale dei sistemi AI: quale valore gli attribuiamo?

https://tech4future.info/ragionamento-morale-intelligenza-artificiale-chatgpt/

Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement Learning

https://arxiv.org/abs/2301.08491

 

Inserito il:10/11/2024 12:01:36
Ultimo aggiornamento:10/11/2024 16:34:44
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)


Questo sito non ti chiede di esprimere il consenso dei cookie perché usiamo solo cookie tecnici e servizi di Google a scopo statistico

Cookie policy | Privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology | 04451716445