È in corso una conversazione filosofica su un problema apparentemente “stellare”: quali valori guida fornire al comportamento dei (neanche tanto) futuri dispositivi robotici e di intelligenza artificiale? Che cosa è giusto che “sappiano” su ciò che è giusto, così da non incorrere in tragedie futuribili (tipo Hal 9000)?
Questa discussione ha un ovvio senso immediato: chi ha oggi l’autorità di dettare delle linee guida universali nel campo dell’etica? E ancora: è possibile un’etica “universale”, riconoscibile da chiunque in qualunque latitudine geografica? Alcuni sostengono che ciò dovrebbe essere lo scopo di un forum di ricerca che tenga conto di tutti i punti di vista possibili nella declinazione di questo nuovo compito filosofico. Implicitamente, questo assunto comporta la denuncia del carattere contingente e limitato di quella che noi occidentali chiamiamo Etica per antonomasia, così come si è articolata nel pensiero filosofico degli ultimi secoli (diciamo, grosso modo, dall’Utilitarismo e dal kantismo), a scapito di tutte le altre “etiche” extraeuropee, salvo poi definire quali esse siano.
Scherzosamente, ma non troppo, si potrebbe obbiettare che la soluzione è già stata indicata dalla fantascienza, quella migliore, ovviamente: chi non conosce il nome di Isaac Asimov, ideatore delle 4 Leggi della robotica, che così recitano:
- Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno.
- Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero
- Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge.
- Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.
Inscritte nei circuiti logici di ogni IA, queste leggi devono garantire la sicurezza di ogni individuo umano che venga in contatto con un dispositivo intelligente, o che sia il destinatario di un processo di decisione elaborato artificialmente; a cos’altro, infatti, dovrebbe servire un’etica robotica?
Tornando alla realtà, la rilevanza del problema è direttamente proporzionale al grado di responsabilità che affidiamo alle “macchine” per la gestione di problemi complessi, il cui esempio massimo potrebbe essere quello del controllo degli armamenti atomici. Controllare migliaia di siti nucleari richiede ormai una rete informatica più che complessa: ma fino a quale livello “decisionale” può arrivare l’unità di calcolo centrale di un tale dispositivo? Da qui in giù, le possibilità di utilizzo della IA in campi di gestione anche molto delicati è sempre più probabile, e per alcuni inevitabile e auspicabile. Ma alla luce di quanto intuito da Asimov (per altro, un eccellente scienziato), chiedersi “quale etica per l’IA” è ancora una domanda sensata? Cosa possiamo chiedere a una macchina, se non di non nuocerci?
Le machine al lavoro, gli umani senza lavoro felici e contenti!
Ovviamente vi sono molti modi di nuocere, e il livello di complessità di un problema presume un livello di valutazione adeguato dei rischi; e non solo dei rischi ma anche delle esigenze. Come esempio si può citare un nuovo filone di filosofia pratica dedicato all’etica del lavoro: il modo in cui oggi si declina questa disciplina era impensabile ancora negli anni Settanta-Ottanta del Novecento, ma la trasformazione dei concetti di produzione e di impresa ha imposto una nuova considerazione dei rapporti umani e personali all’interno dell’azienda, con ciò che ne consegue. Ragionare non è mai inutile, e la ricchezza di contenuti e valori che ogni problema ci sottopone è sempre un tesoro da non disperdere.
Non si tratta quindi di contestare la necessità di un continuo miglioramento del pensiero, e l’Etica è stato uno dei Pensieri Primi della nostra civiltà; si tratta di riflettere sull’approccio che stiamo dando alla questione.
La domanda è semplice e diretta, e non tollera ipocrisie e infingimenti: la Dichiarazione universale dei diritti umani è stato un elemento di progresso civile, o no? Siamo al 10 dicembre 1948, assemblea generale delle Nazioni Unite; il documento è solo l’ultima tappa di un cammino secolare che parte dal “Bill of Rights” inglese del 1689, attraversa la Guerra d’indipendenza americana e giunge alla Rivoluzione francese. E ripeto: tutto questo è progresso umano, o no? Si può pensare quello che si vuole sul cosiddetto “corso della Storia”: che sia un processo razionale di sviluppo (storicismo) o un insieme di eventi casuali senza nesso, ma rimane il fatto che da un certo momento esiste una dichiarazione che impegna la coscienza di tutti (gli esseri umani) a riflettere su un “principio universale di uguaglianza”. Un atto che prima del Seicento non c’era, e che è stato ribadito altre tre volte in modo solenne.
A prescindere da Aristotele e Kant, o da Stuart Mill e Mandeville, e a prescindere dalle etichette che diamo alle teorie etiche ancora oggi in uso, ci sono dei fatti che stabiliscono un punto di non ritorno nello sviluppo della coscienza umana? Si può dire, dopo tali fatti: facciamo un reset e mettiamoci a cercare una nuova etica universale? Il fatto che Indiani, o Georgiani o Senegalesi non abbiano partecipato alla stesura dei suddetti documenti, ne inficia necessariamente il valore universale?
Si dirà: ascoltiamo anche chi non ha mai potuto esprimere il suo punto di vista: questa sì che è un’azione di alto contenuto etico! Indubbiamente. Ma il punto è un altro: ascoltare vuol dire allargare, non dimenticare; includere, non escludere, anche se si tratta, come appare dal dibattito, di un’”autoesclusione” dettata dai sensi di colpa dell’Occidente. Poiché infatti la versione neo-revisionista della Storia implica proprio questo: la damnatio memoriae del nostro passato di “uomini bianchi”.
E ancora: l’Occidente colonialista e capitalista non ha niente da insegnare, e questo è falso. Bisogna avere il coraggio di riconoscere che le civiltà orientali non erano migliori della nostra: l’India è stata fino a poco tempo fa una società di caste e la Cina non ha mai conosciuto il concetto di uguaglianza fino alla Lunga marcia di Mao; e il socialismo non è un’idea orientale ma europea. La mitezza della filosofia buddista non è scevra di un radicale individualismo, di una visione della felicità del tutto autoreferenziale; la saggezza induista d’altronde è penetrata in Occidente fin dai tempi di Pirrone (ellenismo), propugnatore di quella filosofia come cura dell’anima che è un aspetto fondamentale del nostro passato (e presente). Per non parlare dell’Africa, la cui storia millenaria è un coacervo di lotte tribali ed etniche di rara ferocia.
Amartya Sen è un economista indiano, a cui molti guardano come “pensiero alternativo” al modello occidentale, dimenticando che molta parte delle sue teorie sono un’elaborazione post-liberale di quelle di Kenneth Arrow, Vilfredo Pareto e John Rawls; mentre è assai difficile reperire articolate teorie “etiche” dal mondo islamico che non siano riferibili alle Sure coraniche. Chi oggi in Africa come in Estremo Oriente chiede di partecipare al Think Tank globale di rifondazione dell’etica ha studiato in Occidente, e non rappresenta un pensiero alternativo ma, in fondo, una rivisitazione globalizzata di quel principio di uguaglianza dei diritti che è stata elaborata nello stesso Occidente devastatore e autoritario.
La nuova etica non dovrebbe essere un’etica “arcobaleno”, un po’ gialla, un po’ nera un po’ bianca, ma la naturale prosecuzione di quel cammino di civiltà che, pur tra mille contorcimenti e contraddizioni, ha visto i suoi primi passi nella democrazia ateniese e i più recenti traguardi nelle rappresentanze sindacali (che in oriente mancano) e nelle lotte delle femministe (certamente poco conosciute nell’Africa sub sahariana). I Padri fondatori dell’America erano schiavisti e dichiararono il principio d’uguaglianza, ma lo schiavismo in Occidente è un ricordo (in Cina un po’ meno), la Dichiarazione del 1776 no.