Dal Golem ad AlphaGo

02 Febbraio 2021 Interviste filosofiche
Interviste filosofiche
Interviste filosofiche
share
C’è un’intera corrente di pensiero – grosso modo ispirata ai modelli computazionali della mente - la quale ritiene che, sì, è possibile che robot e computer possano avere una mente per la buona ragione che la mente non è vincolata al supporto materiale: sia un’anima che un software per computer hanno un rapporto accidentale con il corpo in cui si trovano. E ciò stabilisce una singolarissima alleanza fra i vecchi dualisti che credono nell’esistenza dell’anima immateriale e i contemporanei cognitivisti che pensano che la mente sia un software per computer.

Un contributo di Marco SalucciPhD. Società Filosofica Italiana. Cultore della materia presso Università degli Studi di Firenze


Personalità elettronica?

In considerazione dei danni che i robot potrebbero provocare e delle conseguenti richieste di risarcimento, la risoluzione n. P8_TA-2017-0051 del Parlamento europeo raccomanda l’attribuzione di una “personalità elettronica” ai robot che agiscono in modo autonomo (Homo technologicus, oltre i limiti dell'umano). Questa raccomandazione, se recepita, trasformerebbe i robot in personalità giuridiche, con diritti e responsabilità. Una simile fattispecie legale costituirebbe un primo passo per il verificarsi di scenari finora presenti soltanto nei racconti di fantascienza.

L’attribuire una personalità a un automa non può non sollevare anche questioni etiche e giuridiche, come già da tempo è stato immaginato nella fantascienza per esempio in Supertoys che durano tutta l'estate di B. Aldiss (1969; il film che ha ispirato, AI di S. Spielberg, è del 2001) o nell’Uomo bicentenario di I. Asimov (1976, da cui il film omonimo di C. Columbus del 1999) ma anche in interventi di autorevoli filosofi come H. Putnam che in I robot: macchine o vita creata artificialmente? (1964) si chiede se i robot che si comportassero come esseri umani dovrebbero godere dei diritti civili.

Al momento il dibattito è limitato alla questione se il  fabbricante o l’utilizzatore del robot debbano rispondere civilmente e penalmente di eventuali danni provocati dalla macchina. Tuttavia si tratta comunque di una revisione dei tradizionali confini che segnano la differenza fra le prerogative degli esseri umani e quelle degli artefatti. Il problema che sta sullo sfondo è in realtà quello dell’attribuzione alle macchine di una mente simile a quella umana. Problema che però sta lasciando il posto alla percezione, come ormai risulta chiaro dai progressi dell’intelligenza artificiale (AI), che ciò che caratterizza gli esseri umani non è più solo o tanto l’intelligenza ma la coscienza.

 

Interrogarsi non fa mai male

Meriterebbe uno studio psicologico approfondito la domanda sul perché gli esseri umani siano da sempre affascinati dalla possibilità di attribuire una mente a esseri non umani e perfino ad artefatti.

Già Omero nell’Iliade raccontava il mito del dio-fabbro Efesto il quale aveva costruito tripodi capaci di muoversi da soli per portare cibi agli dei, cani da guardia di bronzo viventi, ancelle di metallo aiutanti del dio nel suo passo claudicante: “due ancelle si affaticavano a sostenere il loro signore, auree, simili a fanciulle vive; avevano mente nel petto e avevano voce e forza”. Il termine “automa” è evocativo: la sua etimologia è duplice,  deriva tanto da taumazein, cioè “meravigliare”, quanto da automaton cioè “che agisce da solo”.

Protagonista della ”rivoluzione scientifica ellenistica”, e lui stesso inventore di automi, Erone di Alessandria scriveva nel suo Automata che “gli uomini che si occupavano [della costruzione di automi] furono chiamati dagli antichi artefici di prodigi [taumaturghi] perché lo spettacolo suscitava grande meraviglia”.

La storia della letteratura è costellata di personaggi fantastici che rappresentano esseri non umani, sia naturali sia artificiali, in grado di comportarsi come esseri umani.

Per citarne alcuni tra i più famosi e in ordine sparso: il Golem (il gigante di terra della tradizione ebraica), l’homunculus (l’uomo creato in vitro dagli alchimisti), Frankenstein di Mary Godwin Shelley, Olympia, la fanciulla meccanica dei racconti Hoffmann poi musicata da Hoffenbach; lo stesso termine “robot” ha un’origine letteraria (nei drammi teatrali R.U.R. di Karel e Josef Capek).

Infine le contemporanee officine della mitologia, il cinema e la fantascienza, ci hanno reso familiari  innumerevoli specie di robot (Il Simbionte. Prove di umanità futura), replicanti, zombie, scienziati pazzi, alieni, mostri. In realtà niente di radicalmente nuovo rispetto agli esseri non umani immaginati dalle mitologie antiche. Ma ciò che è importante è che non è neppure sostanzialmente cambiato lo stesso problema fondamentale che sta dietro all’immaginare tali creature durante l’intera storia del pensiero: è possibile che gli automi abbiano, come le ancelle di metallo di Efesto, una “mente nel petto”?

 

Robot e computer con una mente....

C’è un’intera corrente di pensiero – grosso modo ispirata ai modelli computazionali della mente -  la quale ritiene che, sì, è possibile che robot e computer possano avere una mente per la buona ragione che la mente non è vincolata al supporto materiale: sia un’anima che un software per computer hanno un rapporto accidentale con il corpo in cui si trovano. E ciò stabilisce una singolarissima alleanza fra i vecchi dualisti che credono nell’esistenza dell’anima immateriale e i contemporanei cognitivisti che pensano che  la mente sia un software per computer.

Cartesio, che ha impresso la forma moderna al problema in discussione, riteneva che un automa non potesse avere una mente e che esistessero due modi sicuri per distinguere gli automi da un uomo: “il primo è che non potrebbero mai valersi di parole o di altri segni, componendoli come noi facciamo per esprimere agli altri i nostri pensieri”, “il secondo mezzo è che, anche se facessero alcune cose ugualmente bene e anzi meglio di noi, essi inevitabilmente sbaglierebbero in alcune altre”.

In altre parole Cartesio confidava nella capacità caratteristica della mente umana di essere creativa come opposta alla ripetitività del comportamento degli automi. Tale fiducia è però entrata in crisi nel Novecento quando ha cominciato ad essere possibile rendere flessibile il comportamento di macchine governate da regole. “La peculiarità inconfondibile del lavoro in IA dipende dal fatto che si cerca di stabilire insiemi di regole che dicano a macchine non flessibili come essere flessibili” (D.H. Hofstadter). ”Nonostante che [già ai tempi di Cartesio] si fosse compreso che i processi linguistici sono in un certo senso ‘creativi’, gli strumenti tecnici per esprimere un sistema di [regole in grado di descrivere adeguatamente la creatività] non erano disponibili fino a tempi molto recenti” (N. Chomsky).

 

Deep Blue, Alpha Star, AlphaGo

A partire da algoritmi come Deep Blue della IBM (1996) per arrivare ai recentissimi AlphaGo e Alpha Star della DeepMind, gli sviluppi dell’intelligenza artificiale e della riflessione filosofica su di essi sembrano ormai andare in una direzione che indica che il vero salto fra la mente umana e quella artificiale starebbe nella coscienza e non nell’intelligenza. Il condizionale è ancora d’obbligo finché non ci sarà più chiarezza e consenso sui fenomeni a cui l’intelligenza può essere assegnata al fine di descriverli senza tuttavia che sia oggettivamente presente.

Per esempio i comportamenti messi in atto dalle popolazioni degli esseri viventi per sopravvivere, compresi quelli dei batteri o dei virus per sopravvivere agli antibiotici o ai vaccini, possono essere definiti intelligenti solo metaforicamente perché né batteri né virus hanno intelligenza. Gli sforzi di decine di anni di migliaia di ricercatori per produrre antibiotici vengono vanificati da una popolazione di microorganismi resistenti selezionata in modo casuale dalla pressione evolutiva. Un sistema che ha un comportamento che noi definiamo intelligente perché razionalmente descrivibile potrebbe in realtà non essere più intelligente di un sasso che cade seguendo la legge di gravità.

Il sasso non ha una rappresentazione interna della legge di gravità ma, in un senso, segue la legge. Se però il materiale in cui sono rappresentati quei processi che chiamiamo intelligenti in senso proprio non fa nessuna differenza – come affermano i sostenitori del modello computazionale classico della mente - e quindi può essere sia naturale che artificiale, allora si pone la questione della mente degli artefatti. E, ad un livello ancora superiore, si pone quello della coscienza (the hard problem, come viene ormai designato in letteratura). Forse, come oggi vediamo scemare la gravità del problema dell’intelligenza delle macchine, un giorno accadrà anche per quello della coscienza.

 

The hard problem

Al momento non lo sappiamo, ma è evidente che la questione di attribuire la coscienza a esseri non “nati da donna” (per riprendere un’espressione del Macbeth) si pone nello stesso modo in cui si pone quella dell’attribuzione dell’intelligenza.

Si noti che non è possibile affrontare il problema alla radice semplicemente negando che esseri non appartenenti alla specie umana non hanno stati mentali: infatti la questione si pone anche a proposito della mente del nostro prossimo.

Cosa garantisce, si domanda  Cartesio nel Discorso sul metodo, che “le figure coperte da cappelli e mantelli che passano per strada siano uomini veri e non automi”? Alan Turing affrontò il problema della mente degli altri e delle macchine nell’unica maniera in cui può essere affrontato: “la sola via per sapere che un uomo pensa è quella di essere quell’uomo” ma poiché questo è impossibile, “invece di discutere in continuazione su questo punto, è normale attenersi alla convenzione – suggerita dalla buona creanza – che ognuno pensi”. Una strategia simile si applica alle macchine: “il solo modo per cui si potrebbe esser sicuri che una macchina pensa è quello di essere la macchina e di sentire se stessi pensare”, il che, di nuovo, è impossibile.

La sola via praticabile è quella del  “gioco dell’imitazione”, noto anche come “test di Turing.

 

Criteri oggettivi fondati sulla somiglianza

Non avendo della coscienza nessun’altra conoscenza che non sia la nostra esperienza personale, per attribuirla a qualcuno o a qualcosa dobbiamo usare criteri oggettivi tutti fondati sulla somiglianza fra qualche sua caratteristica osservabile e le nostre. In sostanza ragioniamo così: “io ho una mente, quell’entità somiglia a me, dunque ha una mente”.

Ma in che senso intendiamo “somiglia”? nell’aspetto esteriore e nel comportamento o nella costituzione interna? Ci può essere infatti somiglianza nei comportamenti (il tipo di reazione agli stimoli, le abilità linguistiche, la capacità di agire in modo pertinente ecc.) e somiglianza nella costituzione interna (del materiale, degli organi, degli apparati ecc.).

Evidentemente tutti gli esseri umani soddisfano entrambe le componenti e per ciò attribuiamo loro una mente. Ma esseri non “nati da donna” quanto devono essere simili e quanto diversi da noi perché li si tratti con umanità o come mere cose? Quanto possono essere ampie le differenze? E in quale ambito sono più rilevanti: nel comportamento? nella struttura fisica? nella fisiologia? Non c’è bisogno di pensare ad esseri immaginari per rendersi conto che il confine sembra essere un’area sfumata più che una linea netta. Nella stessa scala evolutiva delle specie biologiche conosciute dove porre il confine per il sorgere della coscienza?

Ed anche ciò che accade con gli esseri umani ci invita alla riflessione.

Noi riconosciamo di avere obblighi morali non solo nei confronti di uomini nel pieno delle loro capacità e integrità fisiche e mentali ma anche verso i defunti – poiché ne eseguiamo le ultime volontà - o verso i, cosiddetti, casi marginali come i bambini piccoli, i malati in coma o affetti da malattie gravemente invalidanti del corpo e della mente. Inoltre abbiamo obblighi morali non solo nei confronti di tutti i membri della specie umana ma anche verso gli animali e verso l’ambiente.

Immaginiamo di essere sottoposti a un test.

Ci viene recapitata una grossa scatola e dentro troviamo un essere perfettamente somigliante a noi ma che non si comporta come noi, per esempio se lo pungiamo non si lamenta. Ci viene chiesto di decidere se abbiamo di fronte un essere umano, e quindi liberarlo, o un automa, e quindi aprirlo per vedere come è fatto dentro.

Lo lasciamo andare ritenendo di aver a che fare con un “superstoico” allenato a non manifestare il dolore (o affetto da insensibilità congenita con anidrosi) oppure lo apriamo perché pensiamo che si tratti di un involucro solo esteriormente simile a noi ma che in realtà è pieno di ingranaggi e fili elettrici? E che faremo se nella scatola trovassimo un essere esteriormente molto diverso da noi e da ogni animale che conosciamo, ma che se punto gridasse di dolore e mostrasse evidenti segni di empatia umana, tanto da superare non solo il test di Turing ma anche quello di Voigt-Kampff immaginato nel racconto Ma gli androidi sognano pecore elettriche? di Philip K. Dick (poi film Blade Runners - Al cinema per vedere Blade Runner 2049). In tali casi fonderemo la nostra decisione sulle caratteristiche fisiche o su quelle comportamentali?

“Sentire se stessi pensare”, scriveva Turing: se questa è la coscienza, a rigore possiamo essere sicuri solo della nostra.

 

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database