Homo sapiens e Homo digitalis /

La responsabilità di come una tecnologia viene impiegata è solo e soltanto nostra (Marco Rigamonti)

La responsabilità di come una tecnologia viene impiegata è solo e soltanto nostra (Marco Rigamonti)

29 Ottobre 2020 The sapiens
The sapiens
The sapiens
share
Ritengo che lo sviluppo e l’implementazione dell’AI vadano assolutamente regolamentati: quello che però mi preoccupa maggiormente non è la possibilità che le macchine prendano il sopravvento sull’uomo, bensì gli effetti e le conseguenze che un utilizzo acritico dell’AI potrebbe avere sulla nostra società, portando a un ulteriore incremento delle disuguaglianze, con tutte le conseguenze che ciò può comportare sulla tenuta delle nostre democrazie.

“Qui non si tratta di enfatizzare o demonizzare le enormi potenzialità presenti e future dei mezzi di comunicazione, ma di capire come l'uomo profondamente si trasforma per effetto di questo potenziamento. [...] L'uomo non è qualcosa che prescinde dal modo con cui manipola il mondo, e trascurare questa relazione significa non rendersi conto che a trasformarsi non saranno solo i mezzi di comunicazione, ma, come dice McLuhan, l'uomo stesso” – Umberto Galimberti

Scrive Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborgsimbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane.

Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della Intelligenza Artificiale, ma senza mai dimenticarsi di essere esseri umani.

SoloTablet ha deciso di farlo coinvolgendo persone che sull’intelligenza artificiale stanno lavorando, investendo, filosofeggiando e creando scenari futuri venturi.

SoloTablet ha deciso di farlo coinvolgendo persone che sull’intelligenza artificiale stanno lavorando, investendo, filosofeggiando e creando scenari futuri venturi.

In questo articolo proponiamo l’intervista che Carlo Mazzucchelli  ha condotto con Marco Rigamonti, ingegnere nucleare con un PhD in Machine Learning & Risk Analysis e un’esperienza come ricercatore alla NASA, che si occupa dello sviluppo e dell’applicazione di modelli di AI in ambiti e settori che vanno dal mondo energetico a quello finanziario.

 

Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Ritiene utile una riflessione sull'era tecnologica e dell'informazione che stiamo sperimentando? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati?

Buongiorno, mi chiamo Marco e sono un ingegnere nucleare. Mi occupo di AI e in particolare di Machine Learning da ormai 6-7 anni, dopo aver cominciato ad interessarmene durante il mio dottorato al Politecnico di Milano in cui ho sviluppato modelli di rischio per la Predictive Maintenance in ambito industriale ed energetico.

Pur non avendo un’estrazione IT, appena ho scoperto il mondo del Machine Learning e dell’AI ne sono stato attratto immediatamente perché colpito dalle enormi potenzialità e soprattutto dalla trasversalità, cosa che mi avrebbe poi permesso di approcciare settori molto diversi tra loro, come l’industria energetica, il settore medicale e il mondo della finanza.

Attualmente mi sto interessando al mondo proptech, che secondo me è uno dei settori emergenti più interessanti a livello commerciale: in particolare, mi sto concentrando su come il Machine Learning possa essere applicato al settore real estate per migliorare le condizioni abitative delle persone.

Inoltre sto lavorando su applicazioni di ML in ambito fintech: l’obiettivo è l’automazione avanzata dei processi industriali, in modo da rendere sempre più efficienti e competitive le compagnie che intraprendono questi percorsi di trasformazione e innovazione. Tuttavia, sebbene queste applicazioni possano sembrare in un certo senso all’avanguardia, non lo sono se si restringe il perimetro al mondo dell’AI.

Mi spiego meglio: ad oggi, per quanto riguarda la mia esperienza lavorativa al di fuori della ricerca, posso dire di aver partecipato all’implementazione a livello industriale di tecnologie ML che, per quanto innovative, sono anche quelle più pronte a livello commerciale. Il valore aggiunto di queste tecnologie è principalmente quello di eseguire dei compiti in maniera più rapida, efficiente ed economica. Le faccio un esempio: se prima per leggere e analizzare documenti e contratti erano necessari un certo numero di professionisti, ora grazie all’AI è possibile analizzare ed estrarre informazioni complesse da un volume molto maggiore di documenti in tempi molto più rapidi.

Questa tecnologie sono disruptive dal punto di vista dell’organizzazione aziendale, ma a mio modo di vedere non introducono all’interno della società quei cambiamenti qualitativi che tutti ci aspettiamo dall’AI: non introducono delle nuove capacità, ma fanno in modo più efficiente quello che si sapeva già fare prima.

Al contrario, nel mondo dell’AI esistono anche delle applicazioni d’avanguardia che permettono di fare cose che prima non si potevano fare, e che potrebbero avere impatti incredibili sulla nostra società: basti pensare alla diagnostica per immagini, che in alcuni casi ha dei livelli di accuratezza superiori a quelli della media degli specialisti 1,2.

Proprio per questo ritengo che una riflessione approfondita sul funzionamento dell’AI, sui cambiamenti che può introdurre e sulle regole che deve rispettare non sia solo dovuta ma necessaria.

 

Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono AI semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, AI specializzate (quelle delle Auto), AI generali (AGI o Strong AI) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, AI superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione da dell’intelligenza artificiale, quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil? 

La mia personale definizione di AI, o almeno di quella parte di AI che al momento è già parzialmente utilizzata dalle aziende e quindi in qualche modo industrializzata, è quella di un bambino non eccessivamente sveglio ma molto efficace nello svolgere il compito che gli è stato spiegato, ma solo fino al momento in cui le carte in tavola non vengono sparigliate. Con questo intendo che la maggior parte delle applicazioni attualmente in uso sono in grado di fare molto bene cose anche complesse, ma sanno fare solo quelle e solo nelle condizioni specifiche per cui sono state addestrate. Se le condizioni al contorno cambiano in modo significativo, i modelli smettono di funzionare perché non sono in grado di riconoscere il loro ambiente: è come se fossero persi.

Un esempio di questo è dato dai cambiamenti portati Covid: improvvisamente tutte le condizioni economiche sono cambiate in un modo che non era mai successo prima, e i modelli previsionali hanno smesso di funzionare perché non avevano mai incontrato niente del genere: non che per gli esseri umani sia andata poi tanto meglio, eh…però la capacità di reazione e di “speculazione”, nel senso dell’immaginarsi quella che potrà essere la direzione futura di un fenomeno, non è al momento minimamente paragonabile.

Se consideriamo invece la ricerca scientifica sul tema però la situazione cambia: si sta cercando di creare dei modelli di AI che cerchino di imitare il funzionamento del modo di ragionare degli esseri umani, mirando a riprodurre le tecniche di apprendimento dei bambini 3,4. Ovviamente non si è nemmeno lontanamente vicini a creare qualcosa di veramente “intelligente” per come lo intendiamo noi, ma si sta iniziando a tracciare la strada per qualcosa che prima o poi ci permetterà di creare qualcosa in grado di replicare l’intelligenza umana, se non di superarla.

Ci sono algoritmi di AI, come ad esempio il Reinforcement Learning, a cui non servono più dati storici per imparare, ma che necessitano però della possibilità di interagire con l’ambiente attraverso un simulatore. In una prima fase questi modelli, come quello sviluppato per Alpha Go, avevano bisogni di un numero di simulazioni elevatissimo: quante volte invece un bambino si scotta prima di smettere di toccare i fornelli? Non molte, direi.

Ecco, grazie alle più recenti innovazioni nell’ambito questi modelli riescono a permettere ad un robot di imparare attraverso l’esempio diretto di un umano5, o di imparare a camminare6,7, o addirittura di imparare da solo a usare degli attrezzi8. Questo può sembrare banale, ed in un certo senso lo è anche, ma in realtà è soltanto il primo passo per avvicinarsi a un modo di ragionare ed apprendere più simile a quello umano, dove per imparare non è più necessaria una grande mole di informazioni e/o di tentativi, ma dove per necessità bisogna imparare in fretta dall’esperienza e quindi attraverso un numero di interazioni limitate con l’ambiente circostante.

Per rispondere invece alla domanda relativa alla possibilità di raggiungere la Singolarità nell’accezione di Kurzweil, posso solo dire che la vedo più come una questione di quando che di se, almeno a livello potenziale: nel momento in cui saremo in grado di replicare il processo di apprendimento umano, l’AI non ci metterà molto a superare le nostre capacità cognitive, sia per la mole di informazioni a cui potrà attingere sia per la sua capacità di elaborazione. Da qui a dire che le macchine ci domineranno però ci passa il mondo…

Anche perché per quanto noi saremo in grado di creare qualcosa con capacità di ragionamento superiori alle nostre, sarà comunque l’uomo a definire gli obiettivi finali ai quali tenderà la macchina. In sostanza, le macchine possono essere create e programmate per raggiungere un obiettivo: è possibile che per raggiungere quell’obiettivo utilizzino strade impensabili che noi non siamo in grado né di capire né di controllare. Ma l’obiettivo finale lo decidiamo noi e soltanto noi: se mai ci sarà una situazione in cui le macchine domineranno l’uomo, non sarà per colpa delle macchine ma sarà, più o meno inconsapevolmente, colpa dell’uomo. Come sempre del resto. 

 

L’AI non è una novità, ha una storia datata anni ‘50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’AI. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della AI? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza? 

Io ritengo che lo sviluppo e l’implementazione dell’AI vadano assolutamente regolamentati: quello che però mi preoccupa maggiormente non è la possibilità che le macchine prendano il sopravvento sull’uomo, bensì gli effetti e le conseguenze che un utilizzo acritico dell’AI potrebbe avere sulla nostra società, portando a un ulteriore incremento delle disuguaglianze, con tutte le conseguenze che ciò può comportare sulla tenuta delle nostre democrazie. Basti pensare ai sistemi di riconoscimento facciale, ai modelli di previsione dei crimini o anche ai modelli di valutazione del credito che già ora hanno performance e accuratezza decisamente inferiore se utilizzati sulle minoranze, che vengono così ulteriormente discriminate. Questo però non è colpa dei modelli, ma dei bias presenti nei dati che vengono utilizzati per addestrare questi modelli, e che sono rappresentativi dei bias intrinseci della nostra società.

Per questo motivo ritengo che ci debbano essere delle regolamentazioni specifiche e rigorose su quelle che sono le applicazioni dell’AI che direttamente si ripercuotono sulla vita delle persone. Ovviamente ciò non ha la stessa importanza per tutte le applicazioni: è ovvio che è molto più importante regolamentare un’applicazione che determina se una persona può avere accesso o meno a un finanziamento rispetto ad una che predice la durata residua di un motore.

Per quanto riguarda invece la ricerca scientifica il discorso è diverso: secondo me, almeno in questo momento, non avrebbe senso regolamentare la ricerca in questo settore. Non stiamo parlando di armi batteriologiche, che se incidentalmente scappassero da un laboratorio potrebbero diventare incontrollabili: l’AI in questo momento non può scappare per sbaglio da un server e anche se potesse, a differenza di un virus, non sarebbe “abilitata” ad eseguire azioni sui sistemi reali.

Le faccio un esempio: nel febbraio del 2019 OpenAI aveva rifiutato di rilasciare un modello linguistico molto avanzato (i.e., GPT-29), poiché lo riteneva pericoloso per la disinformazione che avrebbe potuto creare. GPT-2 era sostanzialmente un bot capace di elaborare dei testi altamente realistici, e che quindi avrebbe potuto essere scambiato per un essere umano. Solo 9 mesi dopo, e in seguito all’annuncio di uno studente che era stato in grado di replicare il modello10, OpenAI ha cambiato idea e ha rilasciato il modello completo di GPT-211,12, senza che ciò abbia avuto nessun effetto sul mare di disinformazione che già troviamo online.

Come sempre, la responsabilità di come una tecnologia viene impiegata è solo e soltanto nostra. Del resto qualcosa di ben più pericoloso esiste già da almeno 75 anni, ma per ora sembra che, almeno da quel punto vista, per fortuna siamo riusciti a fermarci in tempo.

Per quanto riguarda invece la possibilità che le macchine ci rendano irrilevanti, anche quella dipenderà da come decideremo di usarle: queste potrebbero renderci la vita molto più semplice, svolgendo tutti quei compiti noiosi e ripetitivi che a livello personale non ci danno nessun valore aggiunto, regalandoci così più tempo per fare cose che a loro non servono, come essere felici. Oppure, se usate nel modo sbagliato, potrebbero relegare una grandissima fetta della popolazione all’ignoranza e all’irrilevanza sociale, culturale ed economica, con tutte le conseguenze del caso.

A tal proposito c’è un film che secondo me affronta l’argomento in maniera visionaria, anche se forse le intenzioni iniziali erano diverse, e il titolo del film è “Idiocracy”. Questo film del 2006 nasce come una commedia demenziale ambientata in un futuro in cui le macchine fanno tutto, e di conseguenza la gente è diventata più stupida perché non ha più necessità di ragionare: in soli 14 anni il mio giudizio su questo film è passato da film carino per gli appassionati di comicità demenziale (eccomi!) a profezia. C’è però da sottolineare che, facendo riferimento alla nostra società attuale, la parte del leone nel processo di atrofizzazione del pensiero della società non è ancora responsabilità delle macchine intelligenti, ma dei social network: questo però è tutto un altro discorso (forse), che andrebbe affrontato in un'altra sede. 

 

Nel suo ultimo libro (Le cinque leggi bronzee dell’era digitale), Francesco Varanini rilegge a modo suo e in senso critico la storia dell’intelligenza artificiale. Lo fa attraverso la (ri)lettura di testi sulla AI di recente pubblicazione di autori come: Vinge, Tegmark, Kurzweil, Bostrom, Haraway, Yudkowsy, e altri. La critica è rivolta ai tecno-entusiasti che celebrando l’avvenire solare della AI si mettono, “con lo sguardo interessato del tecnico” dalla parte della macchina a spese dell’essere umano. È come se attraverso l’AI volessero innalzare l’uomo proprio mentre lo stanno sterilizzando rendendolo impotente, oltre che sottomesso e servile. Lei da che parte sta, del tecnico/esperto/tecnocrate o dell’essere umano o in una terra di mezzo? Non la preoccupa la potenza dell’AI, la sua crescita e diffusione (in Cina ad esempio con finalità di controllo e sorveglianza)? 

Ovviamente io mi metto totalmente dalla parte dell’uomo: per me l’unico scopo dell’AI è quello di renderci la vita migliore. Nella mia visione la tecnologia in generale ha senso solo se serve all’uomo, e per quanto la tecnica possa essere affascinante non può essere fine a stessa, a meno che non venga intesa a fini artistici. Ma la scienza questo non se lo può permettere, al momento ci sono ancora troppe cose da fare. In tutta onestà devo dire però che più che l’avanzata dell’AI, a preoccuparmi davvero sono gli essere umani e le loro scelte.

Basta pensare a come stiamo affrontando il problema del cambiamento climatico, la più grande minaccia che sia mai esistita per la sopravvivenza della specie umana: pur avendo la consapevolezza che il tempo è quasi finito (sperando che non lo sia già), e che tutte le evidenze scientifiche puntino nella stessa direzione, sembra che l’unica reazione che sia i governanti che la gran parte dei cittadini siano in grado di avere è quella di voltare lo sguardo dall’altra parte. In questo contesto gli unici che non ci stanno a fare finta di niente sono i più giovani, anzi i giovanissimi, perché sono quelli che hanno di più da perdere: purtroppo penso che la vera svolta possa arrivare solo da loro, e dico purtroppo perché anche la generazione dei 30enni, di cui io faccio parte, per quanto possa essere sensibile all’argomento non ha mai dato l’impressione di saper andare oltre ad un sostegno passivo e sterile alla questione. E se non riusciamo ad organizzarci e a collaborare per combattere qualcosa di così grande e che ci minaccia direttamente tutti, non vedo come potremo mai cooperare per arginare la diffusione l’AI nel caso in cui dovesse trasformarsi in qualcosa che minaccia “solo” molti.

Per ricollegarmi alla domanda, e proprio alla luce di quanto detto sopra, devo ammettere che sì, mi preoccupa molto l’avanzata dell’AI, e i motivi principali sono due: le conseguenze che potrebbe avere sull’occupazione e le possibili limitazioni della libertà degli individui. 

 

Ai tempi del Coronavirus molti si stanno interrogando sulla sparizione del lavoro. Altri invece celebrano lo smartworking e le tecnologie che lo rendono possibile. Là dove lo smartworking non è possibile, fabbriche, impianti di produzione, ecc., si diffonde la robotica, l’automazione e l’AI. Il dibattito sulla sparizione del lavoro per colpa della tecnica (capacità di fare) / tecnologia (impiego della tecnica e della conoscenza per fare) non è nuovo, oggi si è fatto più urgente. Le AI non stanno sostituendo solo il lavoro manuale ma anche quello cognitivo. Le varie automazioni in corso stanno demolendo intere filiere produttive, modelli economici e organizzativi. Lei cosa ne pensa? L’AI, per come si sta manifestando oggi, creerà nuove opportunità di lavoro o sarà protagonista della distruzione di posti di lavoro più consistente della storia come molti paventano? Alcuni sostengono che il futuro sarà popolato di nuovi lavoratori, tecnici che danno forma a nuove macchine (software e hardware), le fanno funzionare e le curano, tecnici che formano altri tecnici e ad altre forme di lavoro associate al funzionamento delle macchine tecnologiche. Sarà veramente così? E se anche fosse non sarebbe per tutti o per molti! Si verrebbero a creare delle élite ma molti perderebbero comunque il lavoro, l’unica cosa che per un individuo serva a essere sé stesso. Nessuna preoccupazione o riflessione in merito?

Assolutamente sì, come detto prima questa è una delle due tematiche che mi inquietano di più.

Le mie preoccupazioni in merito possono sembrare luddiste, però secondo me bisogna considerare che il tasso di sostituzione di forza lavoro che l’AI può comportare non è lontanamente paragonabile a quanto successo durante le due rivoluzioni industriali. Ad oggi la conversione dei lavoratori richiederebbe dei livelli di specializzazione e di up-skilling che sono onestamente irrealistici.

Proviamo a immaginare cosa succederebbe se fra due anni i sistemi di guida autonoma fossero già in uso e perfettamente funzionanti: da un giorno all’altro la professione dell’autista (bus, camion, taxi, etc.) non esisterebbe più. Così come i call center o gli operatori di front desk nel momento in cui gli Assistenti Virtuali diventeranno in grado di gestire anche richieste complesse, e non su questo non siamo per nulla lontani. Per questo ritengo che l’unico modo in cui questa questione possa essere affrontata senza sacrificare economicamente grosse fette della società e senza limitare di proposito il progresso tecnologico consista in nuove forme di sostegno, come ad esempio l’UBI (Universal Basic Income), proposto anche da Stephen Hawking ed Elon Musk13,14,15. E per essere in grado di implementare queste misure sarà necessario tassare le macchine, sia quelle fisiche (robot) che quelle decisionali (AI): onestamente non vedo altre alternative.

Se nel futuro non saremo in grado di redistribuire parte della ricchezza che le macchine creeranno, avremo masse di persone non più necessarie al sistema produttivo che non avranno modo di guadagnarsi da vivere, né di sopravvivere, e le disuguaglianze sociali che già attualmente sono a livelli massimi potrebbero esplodere in maniera ancora più irreversibile. 

 

L’AI è anche un tema politico. Lo è sempre stato ma oggi lo è in modo specifico per il suo utilizzo in termini di sorveglianza e controllo. Se ne parla poco ma tutti possono vedere (guardare non basta) cosa sta succedendo in Cina. Non tanto per l’implementazione di sistemi di riconoscimento facciale ma per le strategie di utilizzo dell’AI per il futuro dominio del mondo. Altro aspetto da non sottovalutare, forse determinato dal controllo pervasivo reso possibile dal controllo di tutti i dati, è la complicità del cittadino, la sua partecipazione al progetto strategico nazionale rinunciando alla propria libertà. Un segnale di cosa potrebbe succedere domani anche da noi in termini di minori libertà e sparizione dei sistemi democratici che ci caratterizzano come occidentali? O un’esasperata reazione non motivata dal fatto che le AI possono comunque essere sviluppate e governate anche con finalità e scopi diversi?

E qui passiamo alla seconda tematica che mi preoccupa, se possibile, ancora di più.

Anche in questo caso, però, ritengo che la pericolosità non sia una caratteristica intrinseca della tecnologia, ma sia dovuta a come le persone che la controlleranno decideranno di usarla. Attualmente siamo infatti già tutti in qualche modo sorvegliati da Google, Amazon, Facebook, ma lo siamo principalmente a fini commerciali: basti pensare ad Alexa che ascolta le conversazioni degli utenti anche quando il device non è in teoria attivo15, o Google quando ci propone la pubblicità di qualcosa di cui abbiamo appena parlato.

E se la stessa tecnologia non fosse utilizzata a fini commerciali ma a fini repressivi?

Al momento l’infrastruttura è già pronta: viviamo tutti con un microfono, un GPS e una telecamera sempre con noi che possono essere tecnicamente attivati da remoto, per non contare poi tutti i device esterni come le telecamere sulle strade, gli assistenti vocali, le automobili, etc. Se anziché in una democrazia vivessimo in un regime totalitario, non ci sarebbe alcuna possibilità di sfuggire al controllo: al confronto di quello che potenzialmente potrebbe essere già ora, 1984 di Orwell sembrerebbe una favola per bambini. L’AI permetterebbe di ascoltare e analizzare ogni conversazione che facciamo nel raggio d’azione di uno smartphone con microfono connesso alla rete e potrebbe identificare le conversazioni indesiderate con uno sforzo minimo di personale umano. Facendo sempre un riferimento cinematografico, è come se fossimo nel film “Le vite degli altri”, e ognuno di noi avesse il suo agente della Stasi personale che lo controlla: per i governi non sarebbe più nemmeno necessario scegliere chi sorvegliare, potrebbero sorvegliarci tutti costantemente e senza sforzo.

E se solo ci penso questo mi fa rabbrividire. 

 

Siamo dentro l’era digitale. La viviamo da sonnambuli felici dotati di strumenti che nessuno prima di noi ha avuto la fortuna di usare. Viviamo dentro realtà parallele, percepite tutte come reali, accettiamo la mediazione tecnologica in ogni attività: cognitiva, relazionale, emotiva, sociale, economica e politica. L’accettazione diffusa di questa mediazione riflette una difficoltà crescente nella comprensione umana della realtà e del mondo (ci pensano le macchine!) e della crescente incertezza. In che modo le macchine, le intelligenze artificiali potrebbero oggi svolgere un ruolo diverso nel rimettere l’uomo al centro, nel soddisfare il suo bisogno di comunità e relazioni reali, e nel superare l’incertezza?

Purtroppo non penso di essere in grado di rispondere a questa domanda.

Forse le macchine potrebbero aiutarci facilitando il processo attraverso cui incontriamo e condividiamo le esperienze con gli altri, facendo in qualche modo da intermediatori silenziosi. Ma alla fine della fiera ci sarà sempre bisogno di un rapporto umano, cosa che le macchine potranno forse emulare ma non potranno mai sostituire davvero. Quindi in ogni caso starà a noi, alla nostra voglia di mantenere i nostri spazi e le nostre relazioni che hanno bisogno di essere reali e concrete. Però, come le dicevo all’inizio, onestamente è una domanda a cui non saprei davvero rispondere. Ci vorrebbe un filosofo, e io sono solo un ingegnere. 

 

Vuole aggiungere altro per i lettori di SoloTablet, ad esempio qualche suggerimento di lettura sul tema AI? Vuole suggerire temi correlati da approfondire in attività future? Cosa suggerisce per condividere e far conoscere l'iniziativa nella quale anche lei è stato/a coinvolto/a?

L’argomento che mi sento di consigliare in quanto lo ritengo essere sia il più interessante che quello con il potenziale maggiore sul medio-lungo periodo è il Reinforcement Learning, ovvero l’algoritmo che sta alla base di Alpha Go e di altre applicazioni sviluppate da DeepMind.

Ma se la sua applicazione a giochi e simili può sembrare interessante ma fine a sé stessa, bisogna considerare ad esempio che lo stesso algoritmo è stato usato da Google per gestire l’impianto di raffreddamento di uno dei suoi data center: il risultato è stato che da un giorno all’altro l’algoritmo ha permesso di ridurre del 40% il consumo energetico dell’impianto17, con tutti i benefici sia economici che soprattutto ambientali che ne conseguono. E questo è un risultato che non si sarebbe potuto raggiungere nemmeno con un’equipe di esperti dedicati esclusivamente a questo, perché richiederebbe il controllo simultaneo di un numero di variabili esagerato.

Immaginiamo ora di poter applicare un sistema simile alla gestione delle reti energetiche e dei consumi sia industriali che abitativi: se anche permettesse di ridurre il consumo attuale solo del 5%, sarebbe un risultato incredibile che in qualche modo segnerebbe la via da seguire per la trasformazione energetica necessaria ad evitare il disastro climatico ed ambientale che ci attende. E la cosa più incredibile e che lo si potrebbe ottenere senza dover modificare radicalmente tutta la filiera produttiva energetica (cosa che bisognerà comunque fare a breve), ma solo gestendo in modo automatico e più intelligente le modalità di consumo. Ecco, secondo me è questa la vera rivoluzione che mi aspetto dall’AI: permetterci di fare qualcosa che senza di lei non saremmo mai in grado di fare, rendendo alla fine il mondo un posto davvero migliore. 


 

1)    McKinney, Scott Mayer, et al. "International evaluation of an AI system for breast cancer screening." Nature 577.7788 (2020): 89-94.
3)    Lake, Brenden M., Ruslan Salakhutdinov, and Joshua B. Tenenbaum. "Human-level concept learning through probabilistic program induction." Science 350.6266 (2015): 1332-1338.
5)    https://news.mit.edu/2020/showing-robots-learn-chores-0306
6)    Ha, Sehoon, et al. "Learning to Walk in the Real World with Minimal Human Effort." arXiv preprint arXiv:2002.08550 (2020).
13)  https://www.newsweek.com/stephen-hawking-wealth-redistribution-reddit-845497
14)  https://www.businessinsider.com/elon-musk-universal-basic-income-2017-2?IR=T
17)  https://deepmind.com/blog/article/deepmind-ai-reduces-google-data-centre-cooling-bill-40

 

* Header picture:  Theo Triantafyllidis, How to Everything (2016). 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database