Scrive Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborg, simbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane.
Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della IA, ma senza mai dimenticarsi di essere esseri umani.
SoloTablet ha deciso di farlo coinvolgendo persone che sull’intelligenza artificiale stanno lavorando, investendo, filosofeggiando e creando scenari futuri venturi.
In questo articolo proponiamo l’intervista che Carlo Mazzucchelli ha condotto con Monica Bormetti, psicologa, TEDx speaker e autrice si occupa di benessere e cultura digitale nelle aziende.
Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Ritiene utile una riflessione sull'era tecnologica e dell'informazione che stiamo sperimentando? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati?
Buongiorno Carlo. Io sono interessata alla tecnologia, da un punto di vista dell’impatto che questa ha sull’essere umano, essendo io psicologa. In questo senso quindi mi interesso soprattutto degli effetti che il digitale ha sulle nostre capacità cognitive, sulle nostre emozioni e sul nostro senso di identità.
Con il progetto smartbreak.it mi occupo dal 2017 di benessere e cultura digitale. La mia attività si divide un due filoni: da una parte faccio divulgazione e dall’altra formazione e coaching. Sul primo versante faccio speech, organizzo eventi, ho scritto un libro e ho un blog con podcast in cui intervisto professionisti rispetto al loro uso della tecnologia. Rispetto al secondo versante svolgo percorsi formativi e di coaching nelle aziende e per i professionisti.
Mi rivolgo in particolare a quelle aziende che hanno intenzione di promuovere un certo livello di benessere per le proprie persone e quindi oggi la loro riflessione in tal senso non può prescindere dal digitale. Il mio obiettivo quindi è guidare l’azienda a individuare linee guida per le proprie persone in modo da aiutarle a lavorare e stare meglio in un periodo storico in cui la tendenza di essere always-on aumenta i livelli di stress.
Il mio interesse per l’intelligenza artificiale si inserisce quindi nel mio interesse per le intersezioni tra esseri umani e tecnologia in senso più ampio. Oggi quando parliamo di dispositivi digitali non possiamo praticamente più prescindere dall’uso di sistemi di IA.
Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono IA semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, IA specializzate (quelle delle Auto), IA generali (AGI o Strong AI) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, IA superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione da dell’intelligenza artificiale, quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil?
Premetto che non mi ritengo un’esperta di intelligenza artificiale quindi non so esattamente quale sia il suo stato di evoluzione. Detto questo, credo che oggi l’ IA sia molto più presente nelle nostre vite di quanto pensiamo. Può sembrare un argomento ancora relegato alla fantascienza e invece riguarda la nostra quotidianità. Un esempio è il sistema di intelligenza artificiale che dipinge dei falsi Rembrandt, progetto del Museo Rembrandt stesso. Un altro è l’uso dell’IA come deejay che lavora in collaborazione un essere umano deejay nei locali di Tokyo. Infine in Cina il boa di Microsoft ha prodotto una serie di poesie da cui ne sono state selezionate alcune per la pubblicazione di un libro.
Questi esempi ci dicono che l’IA non è una tecnologia da laboratorio ma che in realtà entra anche in una serie di ambiti che abbiamo sempre ritenuto umani, come l’arte.
Non credo arriveremo alla singolarità di cui si parla tanto in questi anni, lo vedo uno scenario più vicino alla fantascienza che non alla realtà attuale. Ma ovviamente rimane un’opinione, Kurzweil ci dice che nel 2045 arriveremo alla singolarità, il tempo ci mostrerà la sua evoluzione.
L’IA non è una novità, ha una storia datata anni ‘50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’IA. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della IA? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza?
Hollywood ci ha offerto una serie di film da scenario distopico che spaventa e attrae l’essere umano. Io però non credo arriveremo al punto in cui le macchine “vogliano vivere” come degli esseri umani. In questo senso mi ritrovo nel pensiero di Benasayag.
Credo però che per noi esseri umani appoggiarsi continuamente a sistemi esterni tecnologici per la presa di decisioni che riguardano la nostra vita non sia funzionale. Questo perché il nostro cervello è plastico, si adatta a seconda di ciò che facciamo e non facciamo. In questo senso per esempio utilizzare continuamente sistemi di orientamento spaziale (GPS in macchina per capirci) ci porta a subappaltare ad un dispositivo esterno una capacità che invece prima allenavamo e mantenevamo.
Le machine al lavoro, gli umani senza lavoro felici e contenti!
Credo più che uno scenario in cui la macchina prenda il sopravvento sull’uomo è possibile uno scenario in cui l’uomo non si accorga nemmeno di quanto è nelle sue mani e quanto invece sia nelle mani del dispositivo digitale di turno. In questo senso Huxley nel suo nuovo mondo dipinge uno scenario possibile.
Nel suo ultimo libro (Le cinque leggi bronzee dell’era digitale), Francesco Varanini rilegge a modo suo e in senso critico la storia dell’intelligenza artificiale. Lo fa attraverso la (ri)lettura di testi sulla IA di recente pubblicazione di autori come: Vinge, Tegmark, Kurzweil, Bostrom, Haraway, Yudkowsy, e altri. La critica è rivolta ai tecno-entusiasti che celebrando l’avvenire solare della IA si mettono, “con lo sguardo interessato del tecnico” dalla parte della macchina a spese dell’essere umano. È come se attraverso l’IA volessero innalzare l’uomo proprio mentre lo stanno sterilizzando rendendolo impotente, oltre che sottomesso e servile. Lei da che parte sta, del tecnico/esperto/tecnocrate o dell’essere umano o in una terra di mezzo? Non la preoccupa la potenza dell’IA, la sua crescita e diffusione (in Cina ad esempio con finalità di controllo e sorveglianza)?
Si mi preoccupa la crescita e la diffusione dell’IA. Sopratutto perché stiamo pensando e costruendo questi strumenti che poi useremo con il nostro cervello che funziona in modo molto simile a milioni di anni fa. La velocità di sviluppo tecnologico di questi anni non è mai stata esperita nella storia dell’evoluzione umana. Questo può renderci totalmente impreparati a ciò che stiamo creando.
Pensiamo alla semplicità con cui il “semplice” sistema di notifiche del nostro smartphone riesca a comunicare in modo diretto, e per noi inconsapevole, con il nostro cervello rettilineo facendoci reagire a stimoli che razionalmente riteniamo poco interessanti.
Credo ci siano delle potenziali ripercussioni dell’IA che oggi non possiamo nemmeno immaginare ma che sperimenteremo. Non è semplice oggi determinare criteri per ciò che è “giusto” e “sbagliato” nell’uso dell’IA ma sicuramente coinvolgere esponenti di varie discipline e settori, nel momento in cui si crea un nuovo prodotto di IA aiuta ad ampliare la visuale delle possibili ripercussioni.
Ai tempi del Coronavirus molti si stanno interrogando sulla sparizione del lavoro. Altri invece celebrano lo smartworking e le tecnologie che lo rendono possibile. Là dove lo smartworking non è possibile, fabbriche, impianti di produzione, ecc., si diffonde la robotica, l’automazione e l’IA. Il dibattito sulla sparizione del lavoro per colpa della tecnica (capacità di fare) / tecnologia (impiego della tecnica e della conoscenza per fare) non è nuovo, oggi si è fatto più urgente. Le IA non stanno sostituendo solo il lavoro manuale ma anche quello cognitivo. Le varie automazioni in corso stanno demolendo intere filiere produttive, modelli economici e organizzativi. Lei cosa ne pensa? L’IA, per come si sta manifestando oggi, creerà nuove opportunità di lavoro o sarà protagonista della distruzione di posti di lavoro più consistente della storia come molti paventano? Alcuni sostengono che il futuro sarà popolato di nuovi lavoratori, tecnici che danno forma a nuove macchine (software e hardware), le fanno funzionare e le curano, tecnici che formano altri tecnici e ad altre forme di lavoro associate al funzionamento delle macchine tecnologiche. Sarà veramente così? E se anche fosse non sarebbe per tutti o per molti! Si verrebbero a creare delle élite ma molti perderebbero comunque il lavoro, l’unica cosa che per un individuo serva a essere sé stesso. Nessuna preoccupazione o riflessione in merito?
Vorrei la sfera di cristallo per vedere come si evolve il mercato del lavoro nei prossimi 30 anni ma purtroppo non l’abbiamo. Facendo delle speculazioni sul futuro osservando ciò che sta accadendo oggi ritengo che ci troviamo davanti ad una rivoluzione molto importante per il nostro ruolo di lavoratori su questo pianeta.
Le previsioni ci dicono ci sarà un enorme perdita di posti di lavoro, ma ci dicono anche che ci sarà una grande richiesta di lavoratori da parte della aziende che faticheranno a coprire alcune posizioni. Quindi la situazione probabilmente sarà più quella di miss-match tra domanda e offerta.
Ciò che vedo abbastanza certo è che serviranno nuove competenze, che oggi non possiamo nemmeno totalmente prevedere. E per questo le persone che avranno una “employability” più alta saranno quelle che saranno in grado di aggiornarsi continuamente, imparare materie nuove e integrare la propria conoscenza man mano che il mondo evolve.
Ciò che vedo improbabile è lo scenario lavorativo dei baby-boomers che hanno mantenuto uno stesso lavoro per la vita, non dovendo aggiornare le proprie competenze. Ecco perché diventa sempre più importante oggi, e domani, imparare ad imparare.
L’IA è anche un tema politico. Lo è sempre stato ma oggi lo è in modo specifico per il suo utilizzo in termini di sorveglianza e controllo. Se ne parla poco ma tutti possono vedere (guardare non basta) cosa sta succedendo in Cina. Non tanto per l’implementazione di sistemi di riconoscimento facciale ma per le strategie di utilizzo dell’IA per il futuro dominio del mondo. Altro aspetto da non sottovalutare, forse determinato dal controllo pervasivo reso possibile dal controllo di tutti i dati, è la complicità del cittadino, la sua partecipazione al progetto strategico nazionale rinunciando alla propria libertà. Un segnale di cosa potrebbe succedere domani anche da noi in termini di minori libertà e sparizione dei sistemi democratici che ci caratterizzano come occidentali? O un’esasperata reazione non motivata dal fatto che le IA possono comunque essere sviluppate e governate anche con finalità e scopi diversi?
Probabilmente la verità sta nel mezzo. Però è certo che la raccolta massiccia di dati relativi alle abitudini di consumo, intrattenimento, spostamenti, frequentazioni ecc. delle persone offre terreno fertile per un maggior controllo dei cittadini stessi. Il controllo, anche prima dell’IA, lede la libertà dell’individuo per tutelare potenzialmente la sicurezza del gruppo (della nazione per esempio).
Senza per forza spostarci in Cina e pensando a cosa accade a noi in Italia nelle nostre abitudini di consumo e intrattenimento sorge spontaneo l’interrogativo su dove il libero arbitrio dell’individuo nella scelta del nuovo film da vedere mentre sfoglia la galleria di Netflix che con il suo sistema di IA gli propone delle scelte adatte a lui. Si tratta solo di un film e l’intento può essere di servire al meglio il proprio cliente. Resta comunque aperta la questione di quanta libertà l’individuo davvero abbia di fronte ad un catalogo pre-selezionato secondo i criteri di un’azienda che fa profitto dai click e dalle ore spese sulla sua piattaforma.
Noi esseri umani utilizziamo una serie di scorciatoie cognitive che ci permettono di leggere la complessità del mondo in modo più semplice. Questo meccanismo porta però a degli errori, dei bias cognitivi talvolta. Uno di questi è il bias di conferma, ovvero tendiamo a cercare la conferma di ciò che già pensiamo piuttosto che raccogliere informazioni su opinioni opposte.
Nella diffusione di informazioni politiche online questo meccanismo viene spesso sfruttato e così, grazie agli algoritmi di IA dei social e motori di ricerca che frequentiamo, ci verrà proposta sempre informazione a conferma dei nostri pensieri. E questo probabilmente non favorisce la libertà dell’individuo di formarsi un’opinione più completa su un fatto.
Siamo dentro l’era digitale. La viviamo da sonnambuli felici dotati di strumenti che nessuno prima di noi ha avuto la fortuna di usare. Viviamo dentro realtà parallele, percepite tutte come reali, accettiamo la mediazione tecnologica in ogni attività: cognitiva, relazionale, emotiva, sociale, economica e politica. L’accettazione diffusa di questa mediazione riflette una difficoltà crescente nella comprensione umana della realtà e del mondo (ci pensano le macchine!) e della crescente incertezza. In che modo le macchine, le intelligenze artificiali potrebbero oggi svolgere un ruolo diverso nel rimettere l’uomo al centro, nel soddisfare il suo bisogno di comunità e relazioni reali, e nel superare l’incertezza?
Per avere sistemi di IA che veramente favoriscano lo sviluppo dell’uomo la conversazione forse dovrebbe concentrarsi sui parametri che chi costruisce quel sistema usa per determinarne la bontà. Riprendendo l’esempio di Netflix, se un parametro di definizione del successo dell’azienda fosse “ore trascorse a guardare serie e film sulla piattaforma” dovremmo chiederci se questo aiuta davvero l’essere umano a stare meglio. Quindi credo che tutto parta dal cercare di proporre alle aziende tecnologiche dei parametri di definizione del loro successo che siano davvero allineati alla qualità della vita delle persone.
La grande difficoltà delle piattaforme tecnologiche poi è trovare un equilibrio tra il desiderio di costruire prodotti pro-human e le esigenze degli share holders a cui presentare i conti.
Couch surfing tempo fa fece un esperimento interessante cercando di usare una metrica di definizione del suo successo che tenesse in considerazione il tempo che le persone trascorrevano fisicamente insieme. Infatti l’obiettivo della piattaforma era favorire il contatto tra individui di nazioni e città diverse, non semplicemente farli chattare online. Il nodo non ancora dipanato oggi resta come rendere monetizzabili i buoni intenti di chi progetta le piattaforme che frequentiamo.