Aggiornato al 21/12/2024

Non sono d’accordo con quello che dici, ma difenderò fino alla morte il tuo diritto a dirlo

Voltaire

George von Hoesslin (German, 1851-1923) - Humanitas

 

L’AI insegnante di umanità

di Vincenzo Rampolla

 

Può una macchina insegnare qualcosa? L’umanità, ad esempio? A essere più umani o meno disumani? Nutrire l’umanità che langue o spegnere la disumanità che bolle?

Un esempio illumina. Cogito, società americana, dice di saperlo fare e giura di potere correggere il comportamento di operatori di call center che non dovessero soddisfare le qualità di empatia richieste, ovvero di capacità istantanea di immedesimazione nello stato d'animo di un'altra persona e quindi di comprensione della stessa. Siamo dunque nel caso del meno disumano. Cogito utilizza un’AI che controlla le parole utilizzate e il tono delle chiamate. Vediamo come.

Se il cliente dà i primi segni di nervosismo o di insoddisfazione, all’operatore viene istantaneamente inviato un segnale/messaggio di adeguamento, invitandolo a un migliore stile di dialogo o condotta. Obiettivo: aiutare le persone a essere la versione migliore di se stessi, secondo il mantra istituzionale aziendale. Portare dunque le persone a essere al top dell’empatia, laddove dimostrino il contrario? Che importa se quell’operatore ha un tono di voce dimesso perché sfibrato da un massacrante turno di lavoro o se gli è arrivata una tegola in testa oppure se è di pessimo umore perché è stato tamponato da un furgone. L’AI non tiene minimamente conto del fattore umano, eppure è stata architettata con l’intento di invogliare il dipendente al migliore comportamento con i clienti.

Intento o pretesa? Invogliare o obbligare?

Siamo al paradosso subito la domanda che scatta: fino a che punto sul posto di lavoro si può accettare che gli operatori siano tenuti costantemente sotto controllo (dalla Direzione)? Roba da G.Orwell.

A febbraio di quest’anno l’Organizzazione Internazionale del Lavoro di Ginevra ha diffuso un rapporto sulle condizioni di lavoro nell’era digitale. I dati empirici raccolti sulle condizioni dei lavoratori delle piattaforme digitali mettono in chiaro un asservimento totale all’algoritmo, da cui deriva una situazione nefasta per chi lavora, a causa dell’impossibilità di portare il caso ai sindacati e di dialogare con un essere umano nel caso in cui qualcosa vada storto, dice il poco più che 40nne Andrea Renda, guru delle politiche digitali [Senior Research fellow e Professore di politiche digitali all’Istituto Universitario Europeo di Bruxelles, Direttore del Digital Forum del CEPS (Center for European Policy Studies), BA in Economics alla Luiss G.Carli di Roma, European Master in Law and Economics (LL.M.) all’University of Hamburg, PhD in Law and Economics all’Erasmus University di Rotterdam, docente alla Cattolica di Milano e presso la Pontificia Università Gregoriana di Roma, autore di più di 50 pubblicazioni e con oltre 30 relazioni a Convegni, avvocato iscritto al foro di Pisa]. 

Continua Renda: Non mancano solo le garanzie conquistate in anni di lotte per i diritti dei lavoratori, ma nasce anche la frustrazione nel vedersi giudicati senza un vero interlocutore, con forte impatto sul suo stata mentale. È in scenari del genere che nascono situazioni gravi come quelle del lavoratore Amazon cui è negata la pausa per andare al cesso perché altrimenti farebbe meno consegne. Renda ribadisce: L’algoritmo che giudica se sei al di sotto o sopra lo standard si basa su criteri di ottimizzazione aziendale, non su un parametro di umanità, dignità o compatibilità giuridica. Per raggiungere l’obiettivo ti viene richiesto di essere un supereroe, sia per velocità sia per doti extra-umane di ritenzione di urina.
Domanda. È d’obbligo consultare un guru per dirci questo?

L’operatore del call centre viene assimilato a un robot, neppure sovrumano, addirittura al di fuori della natura umana. Si corre per livellare i comportamenti e la conseguenza è l’intrusione nella sfera privata dell’atteggiamento da tenere sul posto di lavoro. Bisogna stare molto attenti perché l’AI avrà un impatto pervasivo sulle nostre vite, insiste il professore. È possibile immaginare che questo succeda in ogni posto di lavoro, con la conseguente perdita di controllo e di umanità nel modo in cui organizziamo le nostre interazioni sociali.
L’AI è in grado di rilevare un tono di voce associato a un comportamento aggressivo, cogliere termini definiti sconvenienti. Il rischio è che tali dati vengano resi accessibili anche al datore di lavoro, che potrà poi penalizzare i soggetti che ricevono più segnalazioni dal maestro di AI.

Di più. Il modo con cui l’operatore pronuncia le parole potrebbe essere valutato improprio, fregandosene dell’etica professionale. Questi sistemi hanno bisogno di miliardi di esempi per venire addestrati, pontifica Renda. All’inizio il sistema non sarà accurato, avrà bisogno di essere supportato dall’attività umana. Poi la macchina potrà diventare più autonoma. In generale si tratta di sistemi che usano reti neurali, e dunque si presentano come scatole nere che formulano decisioni su basi spesso imperscrutabili. Ma che succede quando un algoritmo sostiene che il lavoratore ha avuto un comportamento sbagliato? Lui lo contesta e chi può sapere in che modo l’AI è giunta a quella conclusione? Nessuno. Fino a che punto possiamo penalizzare, senza conoscere il contesto, determinati comportamenti, sulla base di sistemi che sono lontani dall’essere accurati e trasparenti?
Negli Usa per decidere a quali detenuti concedere la libertà vigilata è stato usato COMPAS  (Correctional Offender Management Profiling for Alternative Sanctions), un algoritmo che formula valutazioni del rischio di recidiva.

Domanda. Un algoritmo, concepito dall’uomo, può essere influenzato dai suoi pregiudizi? A criminali conclamati può essere, ad esempio, attribuito un tasso di pericolosità basso perché bianchi, mentre a madri di famiglia con una fedina meno sporca salirà a tassi elevati, perché afroamericane. Chi disegna l’algoritmo può farlo in maniera imperfetta o usare dati poco attendibili, dice Renda. Nel suo complesso l’AI è tutto fuorché intelligente: non capisce il contesto delle sue azioni, non capisce se il lavoratore a fine giornata ha avuto una diarrea o un lutto in famiglia. Non capisce nemmeno se è il cliente che l’ha provocato. Non lo sa e non lo vuole sapere. Il rischio nasce quando scatta il circolo vizioso: ritmi di lavoro massacranti, il lavoratore s’innervosisce, l’AI lo bastona, diventa ancora più nervoso, recupera solo a ritmi di lavoro sempre più massacranti e l’equilibrio mentale va a pezzi. La necessità di occuparsi della salute mentale del lavoratore è sempre più avvertita a parole, ma poco tradotta in politiche concrete. Siamo di fronte a una transizione che ha un impatto notevole sulla alienazione. Quello che non è successo del tutto con la prima rivoluzione industriale sta succedendo oggi, con l’era dello smart work. Che fare? si chiede in conclusione il professor Renda. Un lavoratore in queste condizioni sarà sempre più in condizioni di svantaggio. L’AI, una volta addestrata, potrebbe arrivare a sostituire l’operatore di call center, il radiologo, il rider e tanti altri. Più si protesta, più si accelera il processo di sostituzione. Protestare non conviene senza un sostegno da parte del Governo e i governi non supportano molto i lavoratori, perché dovrebbero aumentare i costi per le imprese e quindi scoraggiarle dall’investire nel loro Paese.

E dov’è finita l’umanità, la famosa humanitas.                    

Secondo i testi, la parola umanità è la condizione umana, riferita soprattutto alle caratteristiche, alle qualità e ai vantaggi. La tecnologia ha senza dubbio aperto le frontiere: tutti collegati con tutti, in ogni parte del pianeta. In apparenza non esistono distanze, né domande senza risposta. Si è parlato prima di paradosso, non è l’unico. Un altro si affaccia, la vicinanza virtuale che inesorabilmente, lentamente, crudelmente allontana dall’uomo l’idea di umanità, intesa come soccorso e amore sincero. Essa ha radiato il sentimento di solidarietà reciproca, di comprensione e tolleranza verso l’altro segregandolo in una cyber jail, la prigione informatica dell’AI. Per parlare di AI che insegna l’umanità, dovrebbe forse essere istituita una cattedra di comprensione umana in ogni ordine e grado di istruzione e in questo senso il compito diverrebbe quello di insegnare il mestiere di vivere, prima di ogni altra disciplina. L’umanità si può imparare, si può vivere nella quotidianità, si può insegnare attraverso un’educazione attenta alle emozioni, al confronto, alla comprensione, al dialogo. L’umanità è il sentimento universale, che identifica ognuno di noi, che ci rende simili, vicini, solidali, uniti. Umani, forse. Senza ricorrere a un maestro digitale.

A quanti milioni di chilometri dalla Terra dovrà viaggiare l’uomo, per apprendere l’umanità?

 

 (consultazione:  dizionario treccani; antonella bonavoglia - sole24ore; ministero sviluppo economico, membri del gruppo di esperti di ai; ceps.eu; silvia renda - cest; huffington post - intervista a.renda; dima.unige.it; internazionale.it; altale.com; agendadigitale.eu; dataprotectionlaw.it; forumpa.it; docenti unicat.it;)

 

Inserito il:27/04/2021 11:17:49
Ultimo aggiornamento:27/04/2021 11:31:14
Condividi su
ARCHIVIO ARTICOLI
nel futuro, archivio
Torna alla home
nel futuro, web magazine di informazione e cultura
Ho letto e accetto le condizioni sulla privacy *
(*obbligatorio)


Questo sito non ti chiede di esprimere il consenso dei cookie perché usiamo solo cookie tecnici e servizi di Google a scopo statistico

Cookie policy | Privacy policy

Associazione Culturale Nel Futuro – Corso Brianza 10/B – 22066 Mariano Comense CO – C.F. 90037120137

yost.technology | 04451716445