Murali Govindaraj (Kualalumpur, Malaysia – Contemporary) – Business Ethics
Con internet ci hanno rubato il nostro tempo e magari ci uccidono
Ma stiamo sereni: ora ci vogliono anche curare.
di Achille De Tommaso
Non dimentichiamo che il loro denaro viene fatto attraverso la cattura del nostro tempo. Ma loro sono buoni e, per compensarci, hanno inventato gli “informatici etici”.
***
(Alcuni di voi hanno sicuramente visto il sottostante “logo dinamico” di Google del 12 luglio 2019; cosa ne pensate ?)
E’ un’onda in piena, quella della connessione perenne e della degenerazione cartesiana “partecipo ergo sum”.
Nel video si vede lui che si glorifica della velocità mentre guida (con due ragazzini) pazzamente e senza cintura, riprendendosi al cellulare; e si intuisce una sterzata. Poi la realtà ci conduce all’obitorio e in una sala di rianimazione. E l’altra faccia della stessa follia è la babele di commenti; come quello: “chi non ha peccato scagli la prima pietra, ma vorrei vedere se chi sta criticando non fa la medesima cosa”.
Quel parallelepipedo nero di 2001 Odissea nello Spazio è uno smartphone; e le scimmie che si ammazzano con la clava siamo noi.
L' umanità sta vivendo due “storie”; una che dice: “fai molta attenzione a ciò che desideri, perché l’otterrai ... E la seconda: “i creatori spesso perdono il controllo delle loro creazioni".
Non stiamo parlando del Dr Frankenstein, ma della Silicon Valley; che ha trascorso anni a costruire allegramente tecnologia che riteneva stesse cambiando il mondo in meglio. E in parte magari lo ha fatto, ma non nel modo in cui sperava.
Assieme alle due “storie” infatti, si sono aggiunte due tipi di distopie (utopie negative) : C'è la distopia di Orwell" - che fa riferimento al 1984 di George Orwell; " e la distopia di Huxley"; in riferimento al romanzo del tutto sconosciuto di Aldous Huxley del 1932, Brave New World.
Nella distopia di Orwell le persone non leggono libri perché sono vietati. Nella distopia di Huxley le persone non leggono libri perché sono distratti . Nella distopia di Orwell, le cose che temiamo ci prendono mentalmente e nella distopia di Huxley le cose che desideriamo prenderanno noi.
Pero’, attenzione: i nostri orchi ci vogliono oggi curare
Nel 2013, il sig. Tristan Harris distribuì una presentazione all'interno dell’azienda Google avvertendo (1) che le loro pratiche di progettazione sfruttavano la psicologia della gente per rubare il loro tempo. Esortando i suoi colleghi a utilizzare la loro intelligenza informatica, su milioni di telefoni Android e browser web Chrome, per creare invece, negli utilizzatori, "stati d'animo più tranquilli”.
Google aveva creato il primo “progettista informatico etico” (IE) col desiderio di curarci della malattia che loro stessi ci stavano inoculando. Questo primo fu seguito poi da altri: due anni dopo, nel 2018, Mark Zuckerberg divenne lui stesso “etico” (2), proclamando, come nuovo suo obbiettivo, quello contro le fake news, e in favore della cura mentale delle persone dipendenti da social media (sic!). Nel frattempo Google e Apple hanno aggiunto nuove funzionalità per “aiutare gli utenti a ignorare i dispositivi di accesso a Internet” (3). Un po’ come mettere il lupo a guardia delle pecore.
Queste persone sono dei fenomeni: accorgendosi che le loro macchine ci fanno male, sviluppano programmi per tenerci lontano dalle loro macchine. Sono veramente buoni e bravi! Ma non è tutto: ora questi informatici etici predicano oggi anche un nuovo vangelo, contro il "declassamento della razza umana".
Ve ne do un esempio: durante una serie di sessioni maniacali di brainstorming a San Francisco, all'Esalen Institute, un ritiro sulla costa della California, essi hanno lanciato un avvertimento: “i giganti della tecnologia stanno creando l'equivalente culturale del cambiamento climatico”.
La verità la conosciamo. Dipendenza, distrazione, disinformazione, polarizzazione e radicalizzazione; tutti questi "uragani" pare abbiano una causa comune. Provengono dal fatto che ora trascorriamo grandi porzioni della nostra vita all'interno di sistemi sociali artificiali, gestiti da società private a scopo di lucro. Sarebbe bello se i loro profitti venissero dal renderci migliori esseri umani; invece fanno parte di una "economia dell'attenzione estrattiva", in cui IL LORO DENARO VIENE FATTO ATTRAVERSO LA CATTURA DEL NOSTRO TEMPO e, appunto, della nostra attenzione.
Tutti questi fattori messi insieme hanno creato una "corsa al ribasso del tronco cerebrale", in cui sempre più pressanti e sofisticati strumenti di intelligenza artificiale verranno dedicati a sfruttare ciò che si può definire il "ventre molle delle nostre menti di animali".
Ma c’è anche qualcosa di più sinistro: queste Intelligenze Artificiali hanno imparato a renderci più ansiosi e confusi, perché queste qualità ci rendono loro migliori clienti (o meglio: più lucrosi clienti).
Ma perché lasciamo che ciò accada?
La crisi dell’autostima
Consideriamo la crisi di autostima in riferimento ai social media. Molti IE danno oggi la colpa ai social network per l’enorme aumento della depressione adolescenziale. Quindi si autoincolpano.
"Se voglio tenerti come un utente che ritorna, c’è da fare molto lavoro per attirare la tua attenzione ogni volta", spiegano gli IE . "Ma se potessi modificare la tua identità in modo da farlo tu per me, sarebbe molto più efficiente. Come posso farlo? Facile !"Se posso indebolire la tua autostima in modo che tu abbia bisogno di una convalida per ogni cosa che fai, e vieni assuefatto a questo comportamento, sarebbe perfetto. Che ne dici se ti mostrassi ogni giorno che alla gente piacevi di più se solo apparivi un pochino diverso?"
Non c'è da stupirsi, che il 55% dei chirurghi plastici americani affermi di aver avuto pazienti che dicono di voler apparire migliori nei selfie.
L'implicazione futura è che l'Intelligenza Artificiale, nella sua cieca ricerca di massimizzare i numeri, sviluppi strategie che modificano il nostro cervello. Ma questi fatti non abbattono la fiducia che abbiamo verso la Silicon Valley e i suoi miti? Forse; anche perché non tutti i suoi leader sono innocenti geni infantili che non avevano idea di cosa stessero creando. Sean Parker, un ex dirigente di Facebook, afferma che lui, Mark Zuckerberg e gli amici, sapevano esattamente cosa stavano facendo "e lo abbiamo fatto comunque", dice.
Sarà quindi vero che le aziende che imparano a trattare gli esseri umani come “risorse da sfruttare" supereranno quelle che intraprendono percorsi etici più elevati ? Speriamo di no; ma forse sarà così.
Cosa si può fare?
Anche se forse c’è da compiacersi della prevista multa di 3-5 miliardi di dollari contro Facebook per lo scandalo Cambridge Analytica, probabilmente stiamo trattando il sintomo, non la causa. Invece, i problemi sistemici richiedono un approccio sistemico, rendendo, ad esempio, troppo costose le pratiche che causano danni sociali.
Un modo sarebbe quello di modificare le regole che proteggono i social media dalla responsabilità per il contenuto che i loro utenti postano. Rendendoli pienamente responsabili; come accade per i giornali.
Un'altra proposta è quella di dare alle imprese tecnologiche un dovere fiduciario verso i loro utenti, anche più severo rispetto al dovere di diligenza ordinario per chi produce beni di consumo “normali”. Proprio come i medici e gli agenti di cambio sono obbligati ad agire nell'interesse dei loro clienti; a pena di essere citati in giudizio, quindi, le imprese tecnologiche dovrebbero essere tenute a un livello più elevato di buona fede.
La potenza dei loro sistemi di intelligenza artificiale, è diventata così grande, infatti, che esiste un'asimmetria ineludibile tra loro e i loro utenti. Dato che l'intelligenza artificiale è alimentata dai nostri dati, i suoi produttori dovrebbero essere puniti, in caso di fallo, per aver tradito la nostra fiducia.
Convertire la cultura dei progettisti all’etica
Molti pensano ci debba essere un cambiamento culturale, e anche spirituale, nella Silicon Valley e produttori affini; (ma come la mettiamo con i cinesi?). Ma ciò significa che un certo numero di lavoratori tecnologici dovranno essere attraversati da una crisi morale.
Un cambiamento nella loro cultura significherebbe un cambiamento nelle pratiche di progettazione. Ad esempio, alcuni suggeriscono: le aziende potrebbero deliberatamente rallentare pagine Web e pulsanti in determinati punti al fine di "dare ai nostri cervelli la possibilità di recuperare il ritardo". Possiamo però citare un esperimento eseguito da Amazon, che ha rilevato che per ogni 100 millisecondi di maggiore lentezza di caricamento della sua pagina, viene perso l’ 1% delle vendite. Amazon accetterà questa perdita di business ?
Una guida alla progettazione (4) pubblicata dal Center for Humane Technology sollecita i progettisti ad essere molto più cauti rispetto a una serie di caratteristiche specifiche inducibili dai loro programmi, come "scarsità artificiale", "segnalazione di urgenza", "filtri" e "stato sociale quantificato". Suggerisce di evitare "obblighi impliciti", limitare la condivisione virale e inserire "spunti" nei loro sistemi che offrano ai propri utenti regolari opportunità di interrompere la loro navigazione. Servirà a qualcosa? Non lo sappiamo ancora; ovviamente.
Non tutti sono convinti
Molti rimangono scettici.
Una critica è che sembriamo ignorare i precedenti tentativi di frenare le Big Tech. Attivisti e studiosi avvertono da anni che Facebook è diventato troppo grande, che Google è diventato troppo potente, che gli algoritmi sono una bomba a tempo pieno di disinformazione e corruzione. E si fa molto poco per correggere; ma forse è una situazione senza ritorno.
- https://www.theverge.com/2018/5/10/17333574/google-android-p-update-tristan-harris-design-ethics
- https://www.telegraph.co.uk/technology/2018/01/04/world-feels-anxious-divided-mark-zuckerberg-vows-fix-facebook/
- https://www.telegraph.co.uk/technology/2018/05/08/google-aims-help-smartphone-addiction-making-devices-easier/
- http://humanetech.com/wp-content/uploads/2019/04/humane_design_worksheet.pdf