Homo sapiens e Homo digitalis /

Potrà mai esistere una coscienza artificiale? (Riccardo Manzotti)

Potrà mai esistere una coscienza artificiale? (Riccardo Manzotti)

16 Dicembre 2020 The sapiens
The sapiens
The sapiens
share
Finora l’intelligenza artificiale ha consistito soltanto nell’implementazione di funzioni più o meno simili a quelle del nostro sistema cognitivo. Pensiamo che la mente sia solo una collezione di funzioni (giocare a scacchi, usare i tempi giusti dei verbi, risolvere il problema di trovare il partner più adatto, guidare l’automobile). Ma lo facciamo non perché la mente sia solo queste funzioni, ma perché le funzioni cognitive sono l’unica cosa che sappiamo usare.

L’intelligenza artificiale era prima un sogno, poi è diventata un programma scientifico, adesso è un progetto tecnologico. Domani sarà un problema sociale ed economico. In futuro potrebbe essere una guerra, speriamo non diventi mai un massacro.

La coscienza è un istinto, è un accessorio di serie [...] se la coscienza è un istinto, però, sembra essere un istinto diverso da tutti gli latri. Ha qualcosa di molto specifico, di particolare. Talmente particolare che soltanto la nostra specie. a detta di alcuni, potrebbe rivendicarne il privilegio [...] Dal momento che ne siamo tutti dotati, siamo convinti di avere della nostra coscienza un'esperienza immediata, di tipo introspettivo. Invece si tratta di un istinto sgiggente e complesso, radicato nell'organo più impenetrabile dell'universo, il cervello. [...] Non esiste alcun sistema centralizzato preposto al grandioso miracolo dell'esperienza cosciente. La coscienza è ovunque nel cervello...." – Michael Gazzaniga


Scrive 
Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborgsimbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane.

Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della IA, ma senza mai dimenticarsi di essere esseri umani.

SoloTablet ha deciso di farlo coinvolgendo persone che sull’intelligenza artificiale stanno lavorando, investendo, filosofeggiando e creando scenari futuri venturi.  


In questo articolo proponiamo l’intervista che Carlo Mazzucchelli  ha condotto con Riccardo Manzotti, filosofo e ingegnere, PhD in Robotics, attualmente professore di filosofia teoretica alla IULM di Milano; si è occupato per anni del problema della coscienza e delle sue basi fisiche, tra intelligenza artificiale, neuroscienze e filosofia della mente. Il suo ultimo libro in Italiano è “La mente allargata” (Il Saggiatore, 2020). 

Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Ritiene utile una riflessione sull'era tecnologica e dell'informazione che stiamo sperimentando? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati?

Io sono un filosofo teoretico che si occupa di trovare una risposta alla domanda: che cosa vuol dire essere cosciente? Che cosa è la coscienza? Non a caso, da giovane, ho iniziato come ingegnere robotico e mi sono occupato (e lo faccio ancora) di intelligenza artificiale.

Possiamo costruire un sistema fisico che sia come noi? E se non potessimo, perché? Premetto subito che, da fisicalista, credo non ci siano ostacoli di principio, così come non c’era alcun ostacolo a realizzare macchine che si muovono, corrono, volano, riconoscono i volti. Tuttavia, c’è ancora una barriera non superata: la coscienza.

La mente non è solo un insieme di funzioni, ma è anche esperienza cosciente. Per esempio, un cellulare è in grado di riconosce il mio volto con una accuratezza anche superiore a quella di un essere umano, non mi “vede”, nel senso che non fa esperienza del mio viso. Questa differenza è quella, ancora insuperata, tra macchine e organismi senzienti. Oggi non sappiano neppure se questa differenza sia dovuta al confine che separa le macchine dagli organismi viventi; in effetti, non abbiamo motivo per pensarlo.

Come hanno eloquentemente notato Harari e molti altri (per esempio Max Tegmark) due grandi rivoluzioni stanno convergendo: da un lato la macchinizzazione della persona e della vita, dall’altro la scalata dell’artificiale al biologico e al mentale. I grandi paradigmi si stanno sovrapponendo: dal un lato il DNA è trattato come una stringa di informazione e il corpo è tradotto in meccanismi, dall’altro le macchine sono descritte in termini di evoluzione biologica e usiamo metafore tratte dalla mente per descrivere i computer. Eppure, il fatto è che la coscienza rappresenta un salto di paradigma. Per capirci, è come quando si cercava di comprendere la combustione nucleare del sole quando si conoscevano solo i processi di ossidazione (per un grande fisico come Lord Kelvin, l’esistenza del sole era un mistero).

È qualcosa che è completamente inspiegato e, anzi, inspiegabile. Niente nella nostra conoscenza del sistema nervoso suggerisce il fatto che noi facciamo esperienza del mondo. Potremmo essere semplicemente dei sistemi intelligenti che interagiscono in modo efficienti nell’ambiente. Come mai siamo coscienti? Non si sa. Eppure lo siamo e quindi possiamo assumere due ipotesi. La prima è che per fare gli organismi veramente capaci di interagire con l’ambiente e creare nuove soluzioni è necessario essere coscienti, e non solo intelligenti. La seconda è che è possibile creare un sistema fisico il cui funzionamento determina l’esistenza di un soggetto che fa esperienza.

Finora l’intelligenza artificiale ha consistito soltanto nell’implementazione di funzioni più o meno simili a quelle del nostro sistema cognitivo. Pensiamo che la mente sia solo una collezione di funzioni (giocare a scacchi, usare i tempi giusti dei verbi, risolvere il problema di trovare il partner più adatto, guidare l’automobile). Ma lo facciamo non perché la mente sia solo queste funzioni, ma perché le funzioni cognitive sono l’unica cosa che sappiamo usare. Parafrasando Bertrand Russell a proposito della relazione tra matematica e fisica, usiamo le scienze cognitive per descrivere la mente umana, non perché ne sappiamo tanto, ma perché ne sappiamo poco.

Siamo un po’ nella stessa situazione dei grandi fisici dell’Ottocento (come Michelson, Morley, Mach, Lorentz) di fronte al problema della velocità della luce. È un fatto, ma niente nel nostro sistema di teorie e prove empiriche, lo anticipa.

Abbiamo bisogno di un salto di paradigma.

 

Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono IA semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, IA specializzate (quelle delle Auto), IA generali (AGI o Strong AI) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, IA superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione da dell’intelligenza artificiale, quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil?

Non solo è possibile, è inevitabile.

Cito qualche fatto incontrovertibile: in circa un secolo siamo passati dal telegrafo a una rete onnipresente che rende accessibile in ogni punto della terra tutta l’informazione esistente in ogni parte del pianeta. Negli ultimi dieci anni, i progressi dell’IA sono stati maggiori che nei precedenti cento. Ogni tecnologia crea le condizioni per accelerare lo sviluppo della successiva generazione.

Come ha detto lei, non c’è un’unica intelligenza artificiale, ma ce ne sono molte. È una considerazione valida, perché stiamo assistendo a quello che, in biologia, si chiama una “radiazione evolutiva”; ovvero una esplosione di possibilità. Possiamo ragionevolmente concepire ogni essere intelligente come una particolare versione. Le intelligenze biologiche, come noi, non sono sicuramente le uniche possibili. Lo sviluppo di deep learning, big data, reti neurali e molte altre soluzione che stiamo scoprendo adesso, stanno aprendo la strada alla realizzazione di nuove forme di intelligenza, alcune decisamente aliene e persino incomprensibili a noi, ma tutte accomunate dalla capacità di riorganizzare l’esistente e trovare nuove soluzioni. Alcune di queste potranno essere cosciente e altre, forse, non lo saranno. E questa è una delle possibilità più inquietanti: potremmo creare macchine intelligenti, ma non vive e macchine intelligenti, ma non coscienti. In questa tassonomia, gli esseri umani hanno il ruolo di macchine intelligenti, vive e coscienti.

Le intelligenze artificiali, per quanto sofisticate, oggi mancano del tassello fondamentale: il significato. L’informazione è pura forma, sequenze infinite di simboli senza alcun concetto. Dentro i processori che muovono robot e IA, l’informazione non ha alcun colore, suono o senso. Si tratta soltanto di configurazioni elettroniche prive di contenuto.

Certo, si potrebbe obiettare che anche dentro i nostri cervelli, le configurazioni dei neuroni non sono altro che una nuvola di reazioni chimiche senza significato. Si tratta di una obiezione che ha il suo valore e che si traduce nel famoso hard problem della coscienza: ovvero nessuno ha la più pallida idea del perché siamo coscienti. È vero. Tuttavia, è altrettanto vero che ognuno di noi sa benissimo che esistere vuol dire di fare esperienza del mondo e non semplicemente funzionare. Quando noi siamo svegli, non siamo solo una successione di configurazioni di neuroni, non siamo solo informazione. Noi troviamo nella nostra esistenza un mondo fatto di suoni, forme, colori, persone, oggetti, idee. Tutte queste cose dove si trovano? Le neuroscienze non lo sanno e, più scavano a fondo dentro il cervello, più il mistero si infittisce. Le scienze cognitive propongono i loro modelli funzionali e l’intelligenza artificiale cerca di ridurre tutto a semplice funzionamento.

L’essere umano non è solo “funzione” è anche “esistenza”, incrociare queste due dimensioni è la vera sfida dell’intelligenza artificiale dei prossimi anni. Una persona esiste e fa esperienza del mondo. Io, per esempio, sostengo che le due cose coincidano, ma le scienze cognitive e l’IA classica, che sono dualiste senza saperlo, pensano che siano aspetti diverse. Sia come sia, al momento attuale, un software intelligente non esiste se non in quanto strumento di un essere umano che lo utilizza per realizzare qualche scopo. In futuro, potranno essere prodotte delle intelligenze artificiali che esistono per se stesse. E questo supererà la barriera tra uomo e macchina.

L’IA non è una novità, ha una storia datata anni ‘50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’IA. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della IA? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza?

Ogni tecnologia viene accolta con sospetto (persino i libri erano stati accusati nientedimeno che da Platone di indebolire la mente dei giovani ateniesi) e in fondo è vero. La tecnologia si sostituisce a una capacità umana che automaticamente si atrofizza perché la macchina, che non ha i limiti del biologico, supera l’originale. Ma la combinazione uomo e tecnologia è più potente dell’uomo solo e quindi vince sempre. È futile resistere (cit!).

L’invenzione dell’arco ci ha resi incapaci di lanciare pietre con grande precisione con la sola forza delle braccia. L'invenzione della pistola ci ha resi incapaci di usare la spada. L’agricoltura ci ha resi meno sensibili alle impronte degli animali selvaggi. I libri hanno indebolito la nostra memoria. Le calcolatrici hanno eliminato la nostra abilità di fare calcoli a mente. Il navigatore ha portato via il nostro senso dell’orientamento. E così via. Ma l’uomo dotato di arco, supermercato, pistola, automobile, navigatore e portatile sa fare molte più cose del suo antenato a mani e piedi nudi.

In questa fase, l’intelligenza artificiale potrebbe sostituire l’uomo nella sua interezza.

In fondo, l’arco ha bisogno di qualcuno che lo usi, la calcolatrice ha bisogno di qualcuno che debba far di conto, e il navigatore di qualcuno che voglia andare da qualche parte. Ma rimane sempre un utente, un essere umano che ha obiettivi da realizzare. E se anche quest’ultima parte venisse sostituita da una macchina? Se ci fossero algoritmi o robot che hanno proprie motivazioni? A che cosa servirebbe più l’essere umano?

Ecco il problema è proprio questo: c’è ancora spazio e necessità per l’essere umano o sta diventando obsoleto?

Secondo Harari e molti altri, ci stiamo avvicinando a questo punto critico, quando l’essere umano potrà essere tranquillamente messo da parte.

Alle origini dell’intelligenza artificiale, uno dei suoi fondatori, Norbert Wiener, aveva fondato la disciplina (poi scomparsa perché in anticipo sui propri tempi) della cibernetica: creare macchine dotate di fini e obiettivi. Finora questo non era realizzabile, ma adesso ci stiamo avvicinando e potrebbe succedere in tempi piuttosto rapidi. Che fare? Se le macchine acquistassero esperienza, significato e motivazioni, che cosa le differenzierebbe dagli esseri umani? Certo, noi siamo fatti di DNA e le macchine di altri materiali, ma sarebbe davvero importante? Se una intelligenza artificiale potesse acquistare azioni in borsa e diventare miliardaria e conseguire suoi obiettivi, chi potrebbe impedirle di possedere beni e persone? E se questa macchina decidesse di sostituire i propri dipendenti con altrettante intelligenze artificiali invece che esseri umani, non si porrebbero le basi per una rapida sostituzione della nostra specie?

Certo, si potrebbe sostenere che ci sarebbe spazio per tutti, e che intelligenze artificiali ed esseri umani, essendo estremamente diversi, potrebbero convivere ognuno con una nicchia ecologica diversa. Ma quanti cavalli trovate in città dopo l’invenzione dell’automobile?

Il punto cruciale, ben compreso dagli artisti e meno dai tecnici, è quello della motivazione.

La differenza tra soggetti e oggetti – tra persone e macchine – sta nella capacità dei primi di avere autentiche motivazioni che guidano il loro agire. Ovviamente si può discutere e la motivazione è qualcosa di reale o è solo un epiciclo epistemico; una entità fittizia creata per descrivere il comportamento di agenti complessi. Nel recente passato, molti autori hanno sostenuto, a partire da Daniel Dennett, che le motivazioni non esistono e che l’intenzionalità degli esseri umani è soltanto una comoda scorciatoia linguistiche per descrivere il nostro agire. Anche Darwin, in fondo, aveva sviluppato tutta la sua teoria per liberarsi dello scomodo finalismo del regno dei viventi.

Ma la domanda rimane, anche a livello di compatibilismo, stiamo avvicinandoci a un momento in cui l’intelligenza artificiale avrà obiettivi analoghi ai nostri? Quel giorno sarà un giorno cruciale perché, per la prima volta, le macchine varcheranno, come i Germani sul limes imperiale, il confine tra mezzo e fine, tra oggetto e soggetto, tra offerta e domanda e diventeranno, fuori di metafora e molto concretamente, gli attori del processo economico invece che gli strumenti.

 

Nel suo ultimo libro (Le cinque leggi bronzee dell’era digitale), Francesco Varanini rilegge a modo suo e in senso critico la storia dell’intelligenza artificiale. Lo fa attraverso la (ri)lettura di testi sulla IA di recente pubblicazione di autori come: Vinge, Tegmark, Kurzweil, Bostrom, Haraway, Yudkowsy, e altri. La critica è rivolta ai tecno-entusiasti che celebrando l’avvenire solare della IA si mettono, “con lo sguardo interessato del tecnico” dalla parte della macchina a spese dell’essere umano. È come se attraverso l’IA volessero innalzare l’uomo proprio mentre lo stanno sterilizzando rendendolo impotente, oltre che sottomesso e servile. Lei da che parte sta, del tecnico/esperto/tecnocrate o dell’essere umano o in una terra di mezzo? Non la preoccupa la potenza dell’IA, la sua crescita e diffusione (in Cina ad esempio con finalità di controllo e sorveglianza)?

Diceva un grande filosofo italiano, Evandro Agazzi, che la tecnologia è la realizzazione di tutti i possibili. Ha ragione. Anche l’evoluzione biologica fa lo stesso: esplora ogni possibilità. La tecnologia lo fa molto più rapidamente. Che cosa fa estinguere una specie? Il fatto che altre e nuove specie esplorino delle soluzioni migliori. In un certo senso, noi stiamo creando il nostro nemico, stiamo lavorando per creare una nuova specie, senza le nostre limitazioni, fatta di componenti artificiali e quindi potenzialmente immortale.

Quando Varanini difende la specificità dell’essere umano fa una affermazione nobile, ma il punto è chiedersi se l’essere umano sia qualcosa di reale o sia soltanto una invenzione culturale. Gli esseri umani si sono sempre concepiti come unici. Di conseguenza, le teorie antropocentriche hanno abbondato. Tuttavia, finora, si sono rivelate altrettanti omaggi al narcisismo dell’essere umano, per usare le parole di Freud. Credevamo di essere al centro dell’universo e di avere una posizione privilegiata nel regno animale, poi sono arrivati Copernico e Darwin e ci siamo dovuto rassegnare.

Difendere l’unicità dell’essere umano richiede di poter individuare una specificità reale nella nostra esistenza. Ma abbiamo qualche prova di essere veramente un principio irriducibile? In fondo, dalla parte del biologico la nostra posizione privilegiata è stata erosa dalla teoria dell’evoluzione. Dalla parte dell’artificiale, finora, sembravamo avere qualche vantaggio, ma stiamo rapidamente venendo surclassati in tanti settori che, solo mezzo secolo fa, sembravano una prerogativa della nostra specie – dagli scacchi al riconoscimento dei volti, dalla guida di autoveicoli alla creazione artistica.

E siamo solo agli inizi di una rivoluzione epocale.

Nel 1998, in un famoso articolo sulla natura della mente, due famosi filosofi, David Chalmers e Andy Clark, hanno proposto il principio della parità funzionale, ovvero non importa se la stessa funzione è realizzata all’interno di un corpo biologico o in un sistema artificiale, quello che conta è se la funzione è fatta correttamente. Applicando questo principio all’intelligenza artificiale, ne segue che gli esseri umani, in quanto Homo Sapiens, non hanno niente di speciale, sono solo macchine biologiche che eseguono funzioni.

Come ho detto prima, mentre ci sono molto buoni motivi per rifiutare il funzionalismo tradizionale (quello di Chalmers e Clark), non ci sono buone ragioni per pensare che gli esseri umani siano unici e irriproducibili. Gli esseri umani sono il primo organismo biologico con certe caratteristiche, come l’Archaeopteryx è stato il primo animale a volare (o planare, chissà) con ali coperte di piume. Siamo arrivati primi, ma non c’è motivo per pensare che saremo gli unici. E chi arriva dopo di noi, potrebbe essere molto meglio di noi.

L’intelligenza artificiale mette in discussione il nostro innato antropocentrismo e ci costringe a rivedere il modello di noi stessi.

Che cosa è l’essere umano? Potremmo scoprire che noi siamo solo uno dei tanti modi in cui un soggetto – dotato di esperienza, motivazioni, cognizione – può essere realizzato fisicamente. Se questo fosse vero, non avrebbe senso difendere il concetto tradizionale di uomo, perché ciò che conterebbe sarebbe un senso nuovo del termine persona, che prescinderebbe dalla sua base materiale, filogenetica e storica. Questo uomo nuovo potrebbe essere proprio l’intelligenza artificiale. In un’ottica molto futuristica, potremmo immaginare che la vita biologica sia un passaggio necessario ma non definitivo di un processo più grande che vede sistemi intelligenti con capacità progressivamente maggiore. In fondo è la tesi del movimento del Transumanista.

Non siamo ancora a quel punto, fortunatamente o sfortunatamente (a seconda dei punti di vista), ma è un fatto che stiamo andando oltre le intuizioni che Walter Benjamin ebbe nel suo famosissimo saggio L’opera d’arte nell’epoca della sua riproducibilità meccanica. Oggi non solo l’opera d’arte, ma l’artista stesso potrebbe essere riprodotto meccanicamente.

 

Ai tempi del Coronavirus molti si stanno interrogando sulla sparizione del lavoro. Altri invece celebrano lo smartworking e le tecnologie che lo rendono possibile. Là dove lo smartworking non è possibile, fabbriche, impianti di produzione, ecc., si diffonde la robotica, l’automazione e l’IA. Il dibattito sulla sparizione del lavoro per colpa della tecnica (capacità di fare) / tecnologia (impiego della tecnica e della conoscenza per fare) non è nuovo, oggi si è fatto più urgente. Le IA non stanno sostituendo solo il lavoro manuale ma anche quello cognitivo. Le varie automazioni in corso stanno demolendo intere filiere produttive, modelli economici e organizzativi. Lei cosa ne pensa? L’IA, per come si sta manifestando oggi, creerà nuove opportunità di lavoro o sarà protagonista della distruzione di posti di lavoro più consistente della storia come molti paventano? Alcuni sostengono che il futuro sarà popolato di nuovi lavoratori, tecnici che danno forma a nuove macchine (software e hardware), le fanno funzionare e le curano, tecnici che formano altri tecnici e ad altre forme di lavoro associate al funzionamento delle macchine tecnologiche. Sarà veramente così? E se anche fosse non sarebbe per tutti o per molti! Si verrebbero a creare delle élite ma molti perderebbero comunque il lavoro, l’unica cosa che per un individuo serva a essere sé stesso. Nessuna preoccupazione o riflessione in merito?

Ai miei studenti di IA dico sempre questo. L’intelligenza artificiale era prima un sogno, poi è diventata un programma scientifico, adesso è un progetto tecnologico. Domani sarà un problema sociale ed economico. In futuro potrebbe essere una guerra, speriamo non diventi mai un massacro.

L’economia è mossa da due principi complementari: la domanda e l’offerta. L’offerta è fatta da beni e servizi, sostanzialmente strumenti e oggetti. La domanda invece richiede dei soggetti con desideri, fini, sensazioni. Infatti, le scienze economiche hanno il loro punto debole nel dover supporre l’esistenza di soggetti che, per loro natura, esulano dallo schema quantitativo di tali discipline. Come una partita a dama. Fino a ieri, il mondo dell’economia corrispondeva a questa dicotomia. Gli esseri umani giocavano sulle caselle bianche della domanda e gli oggetti e le macchine giocavano sulle caselle nere dell’offerta. Al massimo, ogni tanto, gli esseri umani scivolano sulle caselle nere perché vengono oggettivati nel processo economico, per esempio, citando Robert Musil nell’Uomo senza qualità, «quando uno vende tutta la sua persona invece che solo il suo corpo come si fa nella prostituzione».

Oggi, però, per la prima volta, l’intelligenza artificiale comincia a invadere il mondo delle caselle bianche, acquistando autonomia e finalità proprie. Non è mai successo prima e non sappiamo come la società si adatterà a questo cambiamento.

Ci sono varie soluzioni, come il reddito universale per gli esseri umani, ma nessuno sa dire come reagirà la società. Come dicevo, la maggiore debolezza delle discipline economiche è il nostro modello di essere umano. Se si cambia quello, cambia tutto e l’intelligenza artificiale farà proprio questo.

 

L’IA è anche un tema politico. Lo è sempre stato ma oggi lo è in modo specifico per il suo utilizzo in termini di sorveglianza e controllo. Se ne parla poco ma tutti possono vedere (guardare non basta) cosa sta succedendo in Cina. Non tanto per l’implementazione di sistemi di riconoscimento facciale ma per le strategie di utilizzo dell’IA per il futuro dominio del mondo. Altro aspetto da non sottovalutare, forse determinato dal controllo pervasivo reso possibile dal controllo di tutti i dati, è la complicità del cittadino, la sua partecipazione al progetto strategico nazionale rinunciando alla propria libertà. Un segnale di cosa potrebbe succedere domani anche da noi in termini di minori libertà e sparizione dei sistemi democratici che ci caratterizzano come occidentali? O un’esasperata reazione non motivata dal fatto che le IA possono comunque essere sviluppate e governate anche con finalità e scopi diversi?

Noi stiamo esternalizzando molte delle nostre funzioni cognitive. In misura crescente le nostre capacità sono realizzate nel mondo esterno. Addirittura, secondo molti autori, in un futuro non lontano, i sistemi di personal health e altri algoritmi, saranno in grado di prendere decisioni al nostro posto. Un esempio concreto è offerto dagli algoritmi di Amazon che riescono a prevedere con buona approssimazione che cosa ci piacerebbe comprare.

In un futuro prossimo, secondo Harari, ci saranno algoritmi in grado di proporci il partner ideale in modo molto più efficiente dei nostri gusti personali, così come, già oggi, i navigatori sono molto più bravi di noi a dirci come muoverci in una grande città. Se questo processo di outsourcing delle nostre capacità mentali procederà è facile prevedere una progressiva erosione della nostra autonomia.

Un effetto collaterale di questa perdita di autonomia sarà la diffidenza reciproca degli esseri umani. Faccio un caso semplice e già attuale. Supponete di salire su un Taxi in una grande città e di notare che il guidatore non sta utilizzando alcun navigatore digitale. Voi avete fretta o siete semplicemente preoccupati che il guidatore segua un percorso inutilmente lungo (e corrispondentemente costoso). Probabilmente sareste un po’ infastidito del fatto che il tassista usa la sua memoria invece che un navigatore digitale con il GPS. Sarei pronto a scommettere che tirereste fuori il vostro cellulare e sbircereste per vedere se il vostro pilota si comporta bene. Una volta (pochi anni fa) non sarebbe stato così.

Oggi nessuno calcola a mente il totale di una spesa. Non solo perché costa fatica, ma perché gli altri esseri umani non si fiderebbero. Nessuno disegna a mano planimetrie e progetti meccanici, le possibilità di errore si moltiplicherebbero. Piano piano, gli stessi esseri umani diffidano di se stessi e si affidano all’infallibilità degli algoritmi.

Credo manchi poco al giorno in cui la stessa diffidenza per l’abilità del singolo essere umano sarà riservata a molte altre professioni, dal medico al giudice. Di fronte alla possibilità di accedere in un tempo quasi istantaneo a una quantità praticamente infinita di informazioni e conoscenze, l’essere umano costretto a immagazzinare con enorme fatica le sue competenze con un hardware obsoleto selezionato dalla natura per compiti completamente diverse.

Se, come molti ormai credono, la scienza riassume il mondo del pensiero, non ci può essere più divergenza. Se si appiattisce il mondo dei valori e dell’esistenza a quello della conoscenza e del numero – conseguenza inevitabile di una visione funzionalistica dell’essere umano – le scienze forti (economia, neuroscienze, scienze sociali) non possono che consumare lo spazio dell’esistenza. In questo contesto, una opinione alternativa può essere solo il risultato di un errore e un errore non può che avere, alla sua origine, una forma patologica. Pensare diversamente può essere solo un errore di calcolo, un bug da individuare e correggere.

Il ragionamento sembrerebbe invincibile: se la tecnologia assorbe ogni conoscenza, non c’è più spazio per altro. È solo una questione di tempo e ogni nostro passo e decisione sarà fatta da una app collegata a una intelligenza artificiale nutrita con la conoscenza assoluta della scienza. Tutto questo mentre le nuove tecnologie (dall’intelligenza artificiale allo smart working, dalle app sui cellulari al commercio online) stanno progressivamente erodendo lo spazio di autonomia delle singole persone e delegando a sistemi esterni (spesso artificiali) l’intelligenza, la capacità decisionale e la responsabilità dei singoli. Sempre più spesso, la persona viene considerata come un possibile pericolo, legato alla sua fallibilità, più o meno accentuata, e quindi come un’agente che deve essere protetto, ma anche controllato, limitato ed eteroguidato.

La cultura della sicurezza a tutti i costi è anche la cultura della prigionia dal mondo esterno, una cultura che ben si intreccia con quello che lo storico Yuval Harari chiama il culto dell’informazione e che, nel mondo delle scienze cognitive, delle neuroscienze e della intelligenza artificiale, corrisponde a credere che la mente umana non sia altro che l’informazione contenuta dentro i cervelli e quindi, come una anima tecnologica, deve essere continuamente difesa dal mondo esterno. La visione funzionalistica dell’uomo vede il mondo esterno e gli altri non più come la materia di cui è fatta l’esistenza, ma come nemici, ostacolo o, nel caso migliore, strumenti per garantire la salvezza individuale intesa come sopravvivenza materiale e individuale.

Non a caso, in questo momento sta avvenendo una rivoluzione che definirà una «periodizzazione», ovvero un cambio di epoca, che richiederà che la filosofia riconquisti il luogo ove si discute del senso delle cose e della cornice dentro cui avviene tale discussione. Nei periodi tranquilli, il paesaggio concettuale è stabile. Si lavora di bulino per perfezionare qualche dettaglio. Si fa sfoggio di abilità personale e competenza accademica. Si opera dentro quello spirito cooperativo e incrementale che Thomas Kuhn definì scienza ordinaria. Ma quando l’orizzonte concettuale ed esistenziale si incrina e si spacca, quando il pavimento si sfonda e vengono meno i punti di riferimenti, ecco che giunge il momento per ridiscutere alla radice il senso delle cose, i valori su cui è basato il nostro vivere (e morire) e la cornice di riferimento all’interno della quale si fa ricerca scientifica. Si scopre così che è necessario riscoprire la scienza straordinaria, sintesi di ripensamento dei presupposti di partenza e condizione indispensabile per futuri progressi.

Purtroppo per noi, il mondo in cui viviamo è sempre più un mondo a misura di macchine e sempre meno a misura di scimmie e l’Homo Sapiens è più vicino alle seconde che alle prime. 

 

Vuole aggiungere altro per i lettori di SoloTablet, ad esempio qualche suggerimento di lettura sul tema AI? Vuole suggerire temi correlati da approfondire in attività future? Cosa suggerisce per condividere e far conoscere l'iniziativa nella quale anche lei è stato/a coinvolto/a?

Diceva Albert Einstein, a volte l’unico passo avanti, nella scienza, è un passo indietro.

Il grande fisico voleva dirci che quando ci troviamo di fronte a qualcosa di radicalmente nuovo dobbiamo rimettere in discussione le nostre premesse, che spesso sono solo pregiudizi ingiustificati. In questo caso, si tratta di rimettere in discussione il nostro significato di esseri umani e capire se le macchine siano il nostro futuro o se, effettivamente, abbiamo qualcosa che non possiamo rischiare di perdere.

L’intelligenza artificiale mette in discussione la nostra natura di animale razionale, di soggetto d’esperienza, di sostanza pensante; distrugge la distinzione antropocentrica tra soggetti e oggetti.

Ma questa rivoluzione non è ideologicamente neutra.

Finora lo sviluppo dell’intelligenza artificiale si è affiancato a una visione funzionalistica della realtà. Eppure questa visione potrebbe essere limitata, potrebbe essere l’espressione della nostra ignoranza e non della complessità del mondo. Anche il concetto di macchina, in fondo, è obsoleto. È il prodotto del meccanicismo seicentesco e ormai andrebbe rivista.

La rivoluzione tecnologica dell’intelligenza artificiale richiede una profonda revisione ontologica delle categorie di base per descrivere la realtà, il mondo, noi stessi. E, forse, c’è un luogo del pensiero che non è ancora a rischio di essere rubato dalla tecnica, quel luogo che è stato all’origine del pensiero speculativo dell’uomo: la filosofia.

Negli ultimi anni la filosofia si è involuta, nella presunzione di imitare le scienze forti. A partire da Wittgenstein, i filosofi hanno cercato di sviluppare una tecnica filosofica, come se fosse possibile chiudere il pensiero in una serie di formule esatte. È stato il bacio della morte tra logica e filosofia che ha partorito l’ibrido sterile che ha per nome di filosofia analitica.

Oggi la realtà bussa alla porta: dall’intelligenza artificiale agli organismi modificati, il modello dell’essere umano e del mondo cade sotto i colpi di nuove realtà. Ma la filosofia non è una disciplina tecnica, la filosofia è apertura verso un mondo che non è ancora descritto in nessuna teoria. La filosofia è scoperta, non analisi. È il luogo dove la persona e il mondo sono la stessa cosa, dove la domanda e la risposta sono due declinazioni dello stesso momento di esistenza, dove soggetto e oggetto non sono ancora distinti.

Per questo motivo, la filosofia non è un settore disciplinare, ma la cifra più radicale dell’essere umano: potranno esserci intelligenze artificiali capaci di fare filosofia?

 

*Alcune immagini sono state tratte dal sito Neuroscience Background

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database