Homo sapiens e Homo digitalis /

La rivoluzione tecnologica in atto ci coglie in un certo senso impreparati (dialogo con Gianfranco Barone)

La rivoluzione tecnologica in atto ci coglie in un certo senso impreparati (dialogo con Gianfranco Barone)

08 Novembre 2020 The sapiens
The sapiens
The sapiens
share
L’essere umano è ancora un meccanismo troppo avanzato da imitare: oltre alla capacità logiche, come razza umana siamo dotati di una serie di “soft skills” come ad esempio l’empatia, la compassione, l’altruismo che non sono solo degli attributi casuali della nostra coscienza, ma ritengo che siano gli elementi fondanti che ci hanno permesso, durante l’evoluzione, di avere un vantaggio competitivo sulle altre specie.

Focalizzarsi sulla singolarità delle macchine e intelligenze artificiali superiori è, al momento, in qualche modo deleterio, perché distrae il dibattito da argomenti molto più significativi che hanno risvolti pratici e devono essere affrontati. Ad oggi il problema non è legato a macchine super-intelligenti, ma a macchine super-stupide cui spesso deleghiamo scelte importanti, senza una supervisione umana, semplicemente perché è più comodo o costa meno.

“L’avvento delle macchine ci costringe a una nuova educazione, autoeducazione; ci impone di reagire, riscoprendo le nostre potenzialità, la nostra forza, il nostro coraggio, la nostra saggezza. Dovremo imparare a scegliere. Dovremo scoprire in noi il senso della misura, arrivare a saper dire di no, a saper mettere limite all’invasione delle macchine nelle nostre vite, nei nostri stessi corpi” – Francesco Varanini

Scrive Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborgsimbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane.

Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della IA, ma senza mai dimenticarsi di essere esseri umani.

SoloTablet ha deciso di farlo coinvolgendo persone che sull’intelligenza artificiale stanno lavorando, investendo, filosofeggiando e creando scenari futuri venturi.

In questo articolo proponiamo l’intervista che Carlo Mazzucchelli  ha condotto con Gianfranco Barone, Machine Learning Engineer e docente di Intelligenza Artificiale e Machine Learning.

Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Ritiene utile una riflessione sull'era tecnologica e dell'informazione che stiamo sperimentando? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati? 

Sono un ingegnere e mi occupo da 20 di intelligenza artificiale. Lavoro come consulente ed aiuto le aziende a sviluppare ed implementare soluzioni IA per trasformarle in aziende potenziate dall’IA. Mi occupo anche di formazione e sono docente di un corso di Intelligenza Artificiale e Machine Learning presso una società privata di alta formazione.

La rivoluzione tecnologica in atto ci coglie in un certo senso impreparati perché sta avvenendo in maniera molto veloce, per cui ritengo assolutamente doveroso riservare un ampio spazio ad una riflessione profonda nei rapporti tra uomo, macchine e tecnologia.

Per fare un esempio: al momento un progetto a cui sto lavorando è un corso dal titolo “Intelligenza Artificiale per aziende e professionisti” che nasce proprio da una riflessione di questo tipo. Mentre stiamo iniziando a formare personale tecnico in grado di creare sistemi di IA (con corsi di laurea e percorsi specifici), occorre anche formare quadri e dirigenti (anche nella PA) che, senza andare troppo nei dettagli tecnici, né conoscano limiti e potenzialità in modo da capire se è utile implementarli ed in caso positivo rivolgersi ai tecnici IA per svilupparli. 

Un altro progetto che sto portando avanti è un sistema IA basato sul processamento del linguaggio naturale facendolo sviluppare ai ragazzi di una scuola superiore in modo da avvicinarli all’uso di queste tecnologie che nel prossimo futuro saranno indispensabili per supportarci nel nostro lavoro e ritengo quindi necessario che i giovani abbiamo il prima possibile un primo contatto con l’IA. 

Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono IA semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, IA specializzate (quelle delle Auto), IA generali (AGI o Strong IA) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, IA superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione da dell’intelligenza artificiale, quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil? 

Uno dei problemi fondamentali in ambito di IA è che non esiste una definizione di intelligenza artificiale (e di intelligenza umana in senso più generale) valida, nel senso di una definizione che ci permetta di capire cosa è intelligenza (artificiale) e cosa non lo è. Ad esempio, una semplice calcolatrice nel medioevo sarebbe stata considerata IA, perché riesce a calcolare la radice quadrata di un numero più velocemente di qualsiasi essere umano. Oggi per noi una calcolatrice è un oggetto banale.

La definizione di cosa è IA e cosa non lo è ha anche una dimensione storica. In tal senso concordo con il prof. Floridi che evidenzia come la velocità con cui l’innovazione tecnologica modifica la società, ci trova impreparati non solo da un punto di vista sociale, ma anche, ad un livello più profondo, da un punto di vista linguistico-semantico: non abbiamo ancora trovato delle parole per descrivere queste tecnologie e quindi utilizziamo definizioni imprecise per identificarle. E questo è un problema molto grave perché nel momento in cui dobbiamo regolamentare queste tecnologie creiamo delle ambiguità: come regolamentare qualcosa che non sappiamo neanche definire?

Per quanto riguarda la possibile creazione di una super-intelligenza e la conseguente deriva della singolarità tecnologica non credo che nel medio periodo sia uno scenario possibile. L’essere umano è ancora un meccanismo troppo avanzato da imitare: oltre alla capacità logiche, come razza umana siamo dotati di una serie di “soft skills” come ad esempio l’empatia, la compassione, l’altruismo che non sono solo degli attributi casuali della nostra coscienza, ma ritengo che siano gli elementi fondanti che ci hanno permesso, durante l’evoluzione, di avere un vantaggio competitivo sulle altre specie. Quando le macchine saranno dotate di empatia (reale, non una simulazione che ci trasmette l’illusione di empatia) o saranno capaci di provare paura e dolore, allora potremmo chiederci se queste macchine posso dar luogo ad una super-intelligenza e portarci alla singolarità tecnologica, ma in questo caso forse dovremmo prima chiederci se possiamo ancora considerarle solo ed esclusivamente delle macchine.

Ritengo, quindi che il focalizzarsi su singolarità e intelligenze superiori sia, al momento, in qualche modo deleterio, perché distrae il dibattito da argomenti molto più significativi che hanno risvolti pratici e devono essere affrontati. Ad oggi il problema non è legato a macchine super-intelligenti, ma a macchine super-stupide cui spesso deleghiamo scelte importanti, senza una supervisione umana, semplicemente perché è più comodo o costa meno.     

 

L’IA non è una novità, ha una storia datata anni ‘50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’IA. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della IA? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza? 

Credo che fare completo affidamento sulle macchine porti a sbagliare.

Questo del resto è insito nella natura più intima di queste tecnologie: ad oggi l’IA è composta per lo più da macchine correlatrici, macchine spinte ai limiti computazionali nel trovare correlazioni tra i dati (sono super-stupide non sanno fare altro). Il problema è che la correlazione non implica la causalità: se ho un aumento del consumo dei gelati e un aumento degli attacchi di squali (ho una correlazione) un IA potrebbe suggerire di vietare la vendita di gelati per evitare ulteriori attacchi, pur non essendoci nessun rapporto di causa-effetto tra i 2 fenomeni, che sono invece entrambi causati dall’aumento delle temperature (la causa reale) che implica una maggior propensione all’acquisto di gelati e a fare il bagno a mare.

Un essere umano riesce agevolmente a caratterizzare il fenomeno perché non si affida solo ai dati, ma fa un’interpretazione dei dati contestualizzandola attraverso la sua cultura e conoscenza dei fenomeni del mondo. Le macchine al momento non riescono a farlo e probabilmente non lo sapranno fare per diverso tempo. Sono quindi per una regolamentazione “soft” legata all’utilizzo (servizio/prodotto) e non alla tecnologia vera propria. 

Nel suo ultimo libro (Le cinque leggi bronzee dell’era digitale), Francesco Varanini rilegge a modo suo e in senso critico la storia dell’intelligenza artificiale. Lo fa attraverso la (ri)lettura di testi sulla IA di recente pubblicazione di autori come: Vinge, Tegmark, Kurzweil, Bostrom, Haraway, Yudkowsy, e altri. La critica è rivolta IA tecno-entusiasti che celebrando l’avvenire solare della IA si mettono, “con lo sguardo interessato del tecnico” dalla parte della macchina a spese dell’essere umano. È come se attraverso l’IA volessero innalzare l’uomo proprio mentre lo stanno sterilizzando rendendolo impotente, oltre che sottomesso e servile. Lei da che parte sta, del tecnico/esperto/tecnocrate o dell’essere umano o in una terra di mezzo? Non la preoccupa la potenza dell’IA, la sua crescita e diffusione (in Cina ad esempio con finalità di controllo e sorveglianza)? 

L’intelligenza artificiale è uno strumento molto potente capace di aumentare esponenzialmente quello che siamo in grado di fare. Per fare una citazione fumettistica:” Da un grande potere, derivano grandi responsabilità.”

Un simile potere deve essere in qualche modo gestito. Il problema è che non può essere un gestito da un singolo stato o gruppo di stati ma per essere efficace deve essere fatto su scala internazionale, altrimenti si potrebbero creare distorsioni significative che possono accentuare un altro problema legato a queste tecnologie il cosiddetto AI Divide, ossia la differenza di capacità di accesso e utilizzo di queste tecnologie tra le diverse porzioni della popolazione mondiale. Per fare un esempio, il modello di IA più complesso finora creato, il famoso GPT-3, è costato in termini di risorse computazionali 12 milioni di dollari.

Con l’IA si rischia di creare un divario sempre più marcato tra primi e ultimi, proprio quello che si dovrebbe evitare.   

 

Ai tempi del Coronavirus molti si stanno interrogando sulla sparizione del lavoro. Altri invece celebrano lo smartworking e le tecnologie che lo rendono possibile. Là dove lo smartworking non è possibile, fabbriche, impianti di produzione, ecc., si diffonde la robotica, l’automazione e l’IA. Il dibattito sulla sparizione del lavoro per colpa della tecnica (capacità di fare) / tecnologia (impiego della tecnica e della conoscenza per fare) non è nuovo, oggi si è fatto più urgente. Le IA non stanno sostituendo solo il lavoro manuale ma anche quello cognitivo. Le varie automazioni in corso stanno demolendo intere filiere produttive, modelli economici e organizzativi. Lei cosa ne pensa? L’IA, per come si sta manifestando oggi, creerà nuove opportunità di lavoro o sarà protagonista della distruzione di posti di lavoro più consistente della storia come molti paventano? Alcuni sostengono che il futuro sarà popolato di nuovi lavoratori, tecnici che danno forma a nuove macchine (software e hardware), le fanno funzionare e le curano, tecnici che formano altri tecnici e ad altre forme di lavoro associate al funzionamento delle macchine tecnologiche. Sarà veramente così? E se anche fosse non sarebbe per tutti o per molti! Si verrebbero a creare delle élite ma molti perderebbero comunque il lavoro, l’unica cosa che per un individuo serva a essere sé stesso. Nessuna preoccupazione o riflessione in merito? 

Non credo che con che l’IA scompariranno molti posti di lavoro, quello che scomparirà sono diversi tipi di lavoro.  In tal senso ho una visione che si potrebbe definire di “materialismo storico”: l’IA risolve alcuni problemi ma contemporaneamente ne crea di nuovi è più complessi che dovranno essere risolti dagli esseri umani. Del resto la storia è piena di esempi del genere; 20 anni fa con l’esplosione di internet alcuni servizi si sono estinti (ad esempio il noleggio di vhs) ad altri sono stati creati (come lo streaming online).

Le tecnologie non “distruggono” i posti di lavoro, ma li trasformano. Per questo è fondamentale la formazione e la capacità di rinnovarsi. Quello che dobbiamo fare è tutelare le categorie più deboli in questa trasformazione fornendo loro le risorse per affrontare il cambiamento. Citando Eric Topol: “L’intelligenza artificiale non sostituirà il medico, ma il medico che utilizza l’intelligenza artificiale sostituirà il medico che non la utilizza”. 

L’IA è anche un tema politico. Lo è sempre stato ma oggi lo è in modo specifico per il suo utilizzo in termini di sorveglianza e controllo. Se ne parla poco ma tutti possono vedere (guardare non basta) cosa sta succedendo in Cina. Non tanto per l’implementazione di sistemi di riconoscimento facciale ma per le strategie di utilizzo dell’IA per il futuro dominio del mondo. Altro aspetto da non sottovalutare, forse determinato dal controllo pervasivo reso possibile dal controllo di tutti i dati, è la complicità del cittadino, la sua partecipazione al progetto strategico nazionale rinunciando alla propria libertà. Un segnale di cosa potrebbe succedere domani anche da noi in termini di minori libertà e sparizione dei sistemi democratici che ci caratterizzano come occidentali? O un’esasperata reazione non motivata dal fatto che le IA possono comunque essere sviluppate e governate anche con finalità e scopi diversi? 

L’IA è un importante tema sociale e politico. Credo, però, che ha differenza della Cina, in Italia il problema maggiore sia legato al fatto di un’eccessiva de-responsabilizzazione dell’essere umano nei confronti della tecnologia. Ad esempio nella strategia italiana per l’AI 2020 si legge “nelle politiche pubbliche sono a portata di mano strumenti [l’IA] di contrasto all’evasione e ad altre forme di illegalità che limitano la discriminazione, anche involontaria, frutto di valutazioni esclusivamente umane”. In realtà, come detto prima, essendo questi sistemi delle macchine correlatrici sono molto propense a creare discriminazioni ad esempio correlando la probabilità di un atteggiamento illegale alla regione di appartenenza o alla categoria sociale. Non ritengo corretta una visione di questo tipo, che pretende di delegare ad una macchina compiti così delicati.

Passando alla politica estera invece, paesi “non amici” potrebbe utilizzare la loro potenza computazionale per creare distorsioni all’interno dei confini nazionali. 

Ci sono poi diverse applicazioni dell’IA che possono avere effetti destabilizzanti. Ad esempio i modelli di linguaggio naturale possono essere utilizzati per inondare i social media con fake news e quindi influenzare l’opinione pubblica. Similmente i deep-fake video (video montaggi generati automaticamente) creano un grande problema di falsificazione e post-verità: non solo è possibile creare un video falso, ma la sola esistenza di questa capacità rende falsificabile anche un video vero, nel senso che un video di un fatto reale potrebbe essere scambiato per un video falso: potremmo non essere più in grado di distinguere il vero dal falso e quindi iniziare a percepire realtà che non esistono ma sono frutto di una narrazione propagandistica andando a creare strati della popolazione civile totalmente alienati dal contesto sociale.   

Oblò

Siamo dentro l’era digitale. La viviamo da sonnambuli felici dotati di strumenti che nessuno prima di noi ha avuto la fortuna di usare. Viviamo dentro realtà parallele, percepite tutte come reali, accettiamo la mediazione tecnologica in ogni attività: cognitiva, relazionale, emotiva, sociale, economica e politica. L’accettazione diffusa di questa mediazione riflette una difficoltà crescente nella comprensione umana della realtà e del mondo (ci pensano le macchine!) e della crescente incertezza. In che modo le macchine, le intelligenze artificiali potrebbero oggi svolgere un ruolo diverso nel rimettere l’uomo al centro, nel soddisfare il suo bisogno di comunità e relazioni reali, e nel superare l’incertezza? 

Credo che questa sia una narrazione molto enfatizzata.

Faccio un esempio di un caso reale: oggi se prendo un autobus la maggior parte delle persone guarda lo smartphone. Quando da ragazzo prendevo l’autobus molti avevamo il walkman con le cuffie. Da bambino, sempre sull’autobus, tante persone leggevano libri. L’ estraniarsi è proprio della personalità non è colpa della tecnologia, che al massimo lo rende più semplice. Ma è vero anche il contrario: la tecnologia spesso aiuta a rinsaldare e mantenere vivi i rapporti ed a migliorare lo stile di vita.

Videochiamate, social media e chat permettono di sentire vicine persone che sono fisicamente lontane. Il lavoro da remoto permette di risparmiare tempo e contemporaneamente di rispettare l’ambiente.

Quello che è preoccupante invece è che l’utilizzo delle tecnologie, favorisce una grande esposizione ad informazioni che sfruttano i canali dopaminergici del nostro cervello per contrabbandare idee e pensieri alienanti (teorie del complotto, info-trash, etc.) e creare un info-dipendenza in una sorta di feedback che si auto-alimenta senza soluzione di continuità. Questo però non è un problema tecnologico, ma di tipo formativo: solo la cultura fornisce gli anticorpi per evitare il lavaggio del cervello. 

Vuole aggiungere altro per i lettori di SoloTablet, ad esempio qualche suggerimento di lettura sul tema IA? Vuole suggerire temi correlati da approfondire in attività future? Cosa suggerisce per condividere e far conoscere l'iniziativa nella quale anche lei è stato/a coinvolto/a? 

Sicuramente vorrei segnalare il libro di E. Topol “Deep Medicine”, su come le tecnologie di IA stanno rivoluzionando il settore medico e quindi indirettamente le nostre vite, e quello (gratuito) di S. Barocas “Fairness and machine learning”. Inoltre consiglio di seguire il prof. L. Floridi che trovo sempre stimolante e capace di toccare con assoluta precisione i temi forti dell’AI e renderli chiari ed accessibili.

 

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database