Homo sapiens e Homo digitalis /

Intelligenza Artificiale: Servirebbe un framework etico (Dialogo con Fabrizio Gramuglio)

Intelligenza Artificiale: Servirebbe un framework etico (Dialogo con Fabrizio Gramuglio)

21 Novembre 2020 The sapiens
The sapiens
The sapiens
share
Ci avviamo rapidamente verso una vita vissuta in una multi-realtà, reale e virtuale, entrambe pervase di dati, interconnesse, una realtà dove i dati e le decisioni saranno mediate da AI che vivranno all’interno dei nostri servizi, case e uffici. Una realtà che si avvicina rapidamente e che impone una pianificazione meticolosa, per evitare che l’essere umano venga messo da parte e relegato ad un ruolo di supporto. Ma, questa era di sviluppo esponenziale, ci presenta anche opportunità senza precedenti: ovvero la possibilità di utilizzare questa innovazione esponenziale per concentraci nella creazione di uno sviluppo sostenibile, che vede al centro dell’evoluzione il nostro pianeta e tutte le sue forme di vita.

LE INTERVISTE FIN QUI RACCOLTE

La tecnologia avanza più rapidamente della coscienza necessaria all'uomo per padroneggiarla. E' necessario fare uno sforzo per conoscere, per essere in grado di controllarla a vantaggio degli uomini, evitando di farsi condizionare da essa in modo diretto o in modo occulto e di essere in un certo senso alla sua mercé." – Giampaolo Bellini, Evandro Agazzi (L'uomo nell'era della tecnoscienza)

Scrive Noah Harari che “quando la tecnologia ci permetterà di reingegnerizzare le menti umane, Homo sapiens scomparirà […] e un processo completamente nuovo avrà inizio”. La previsione può rivelarsi errata ma se si riflette sulla profondità dei cambiamenti in corso e il ruolo che la tecnologia sta avendo nel determinarli, si comprende che siamo in una fase di cambio di paradigma. Quando il nuovo emergerà noi potremmo non essere più umani. Cyborgsimbionti, semplici intelligenze artificiali più o meno ibridate, potenti, intelligenti e capaci di apprendere ma non più umane.

Se questa prospettiva è verosimile è più che mai necessaria una riflessione approfondita, puntuale e critica di quanto sta avvenendo. Paradigmatico per questa riflessione è il tema dell’intelligenza artificiale che, più di altri, suggerisce bene il rischio e la sfida che tutto il genere umano si trova di fronte. Un rischio da molti sottovalutato e una sfida da molti accettata forse con eccessiva superficialità. Un tema che comunque è di interesse generale e vale la pena approfondire. E la riflessione deve essere fatta da tecnici, esperti, fautori della IA, ma senza mai dimenticarsi di essere esseri umani.

SoloTablet ha deciso di farlo coinvolgendo persone che sull’intelligenza artificiale stanno lavorando, investendo, filosofeggiando e creando scenari futuri venturi. 

In questo articolo proponiamo l’intervista che Carlo Mazzucchelli  ha condotto con Fabrizio Gramuglio, Optimistic Realist & Futurist, Edge Innovator, Passionate Speaker, Committed Advisor, SingularityU Ambassador

Qui proponiamo la prima parte dell'intervista!


Buongiorno, può raccontarci qualcosa di lei, della sua attività attuale, del suo interesse per l’intelligenza artificiale? Ritiene utile una riflessione sull'era tecnologica e dell'informazione che stiamo sperimentando? Su quali progetti, idee imprenditoriali sta lavorando? Con quali finalità e obiettivi? A chi sono rivolti e in che ambiti sono implementati? 

Il mio interesse nasce, in primo luogo, dalla mia passione per lo sviluppo tecnologico a 360 gradi, dalla mia maniacale dipendenza dai film di fantascienza, e della loro capacità di predire o ispirare sviluppi tecnologici (come il Medical Tricoder di StarTrek che è stato l’oggetto di un Xprize[1], il film Minority Report che ha dato il nome ad una delle tecnologie di predizione del crimine, etc. Tutti esempi legati a doppio filo con il tema di questa intervista: AI e futuro), e dal network di persone che frequento che hanno sempre saputo guardare lontano, sapendo che l’unico futuro che possiamo predire è quello che decidiamo di costruire (frase che viene attribuita a diversi personaggi storici da Lincoln ad Einstein).

L’interesse per l’AI è un interesse obbligatorio per chi ama le tecnologie innovative, cosi come la comprensione e l’utilizzo di Blockchain, le Brain-Computer interfaces etc.

Riguardo ai progetti sui quali sto lavorando, devo confessare di essere stato estremamente fortunato dall’essere stato scelto da diverse società, in contesti assolutamente disparati, che vanno dall’utilizzo dell’AI nell’ambito dell’esplorazione spaziale con International Space Medicine Consortium; l’utilizzo di AI per abbattere le decennali barriere che confinano le nostre personalità all’interno di sintetici curricula che male ci rappresentano per creare una piattaforma capace di aiutare milioni di persone, soprattutto in questo momento di rapida accelerazione e trasformazione, a identificare e sviluppare il proprio talento per metterlo a disposizione di team, progetti o idee con Connecting Talents.

Ho il piacere anche di supportare la formazione e l’informazione su queste tecnologie in diverse ambiti sia privati che pubblici come Ambassador di Singularity University ed Exponential organization consultant di OpenExo. Oltre a questo lavoro di Advisor, ho anche due società Forever Identity che si occupa di comprendere e digitalizzare l’animo umano e i suoi comportamenti, e Xperience Plus attiva nell’emergente settore dell’Internet of Senses e delle BCI (Brain-Computer Interface[2]).

Lo sforzo principale, che è trasversale ad ognuna di queste attività, è rendere le tecnologie esponenziali comprensibili ed applicabili a chiunque, senza nascondersi dietro a complessi, e spesso superflui, tecnicismi, ma utilizzando un linguaggio informale e disegnando scenari facilmente immaginabili e condivisibili. 

Oggi tutti parlano di Intelligenza Artificiale ma probabilmente lo fanno senza una adeguata comprensione di cosa sia, delle sue diverse implementazioni, implicazioni ed effetti. Anche i media non favoriscono informazione, comprensione e conoscenza. Si confondono IA semplicemente reattive (Arend Hintze) come Deep Blue o AlphaGo, IA specializzate (quelle delle Auto), IA generali (AGI o Strong AI) capaci di simulare la mente umana e di elaborare loro rappresentazioni del mondo e delle persone, IA superiori (Superintelligenze) capaci di avere una coscienza di sé stesse fino a determinare la singolarità tecnologica. Lei che definizione da dell’intelligenza artificiale, quale pensa sia il suo stato di evoluzione corrente e quali possono essere quelle future? Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil? 

Concordo che ci sia parecchia confusione sul termine AI, e sulla sua applicazione, come perfettamente descritto dalla sua domanda. Si fa molta confusione, non solo sui media generalisti, ma anche sui canali specializzati, dove le aziende usano il termine AI per vendere qualsiasi software che vada da un semplice algoritmo ad un “recommendation engine”[3] basato su calcoli statistici. 

Solitamente, quando mi viene chiesto di parlare di AI, la mia slide preferita è questa: 

Bisogna ammetterlo, ahime, AI è diventata una buzzword, una di quelle parole che bisogna mettere forzatamente nelle conversazioni commerciali, nei curricula, ed in bella vista sui siti web delle aziende. Vista la molteplicità delle tipologie di AI e la loro applicazione dare una definizione univoca, è decisamente difficile, ma per fortuna esiste una fondamentale risorsa per chi è interessato alle AI, che è Emerj (https://emerj.com) del giornalista scientifico Daniel Faggella. Daniel dedica il suo tempo a fare formazione di altissimo livello sul tema delle AI, ad aziende private ed alle piu’ conosciute organizzazione mondiali, tra le quali, vale la pena di ricordare: United Nations, Interpol, Worldbank, OECD, etc.). All’interno dei suoi articoli si trovano anche una serie di articoli dedicati al “debunking”[4] di aziende e prodotti che si mettono l’etichetta di AI … Mi scuso per la digressione, ma vale assolutamente la pena di leggerli, ed ahimè devo informare il lettore che non sarà né la prima né l’ultima. Tornando alla definizione, diversi anni fa, apparse, questo articolo su Emerj: che sintetizza l’AI come


“Artificial intelligence is an entity (or collective set of cooperative entities), able to receive inputs from the environment, interpret and learn from such inputs, and exhibit related and flexible behaviors and actions that help the entity achieve a particular goal or objective over a period of time.” 

Nonostante siano passati diversi anni da questo articolo, la sua definizione resta assolutamente valida (almeno fino alle ASI Artificial Super intelligence). Le motivazioni dietro la scelta di questa definizione, le ho incluse in un articolo scritto su Linkedin dal provocatorio titolo “Acronyms for Dummies #1: AI & AGI”, articolo interamente in italiano e disponibile a questo link.

Per chi non avesse la pazienza di leggerlo, lo possiamo riassumere in quattro punti fondamentali:

  1. Essere in grado di ricevere input
  2. Imparare da questi input (se non c’è la parte di “learning” non c’è intelligenza)
  3. Produrre una reazione adeguata e commisurata all’input ricevuto
  4. Risolvere un particolare problema. 

Riguardo allo stato attuale dell’AI, se mi fosse stato chiesto due anni fa, avrei senza dubbio risposto con le parole di Peter Lee (Microsoft) pronunciate all’AI for Good Global forum: “Siamo ancora nell’era dell’artigianato, stiamo sbagliando ed imparando, e lo stiamo facendo rapidamente”. Parole estremamente sincere, che mi sento, ancora oggi, di condividere e che rappresenta(va)no l’esatto stato dell’arte, senza il bisogno di presentare realtà fantascientifiche, o panacee tecnologiche capaci di guarire tutti i mali. Nel frattempo sono passati 2 anni (e mezzo) e le AI si sono evolute rapidamente sia in termini di capacità. Giusto per fare alcuni rapidissimi esempi dello stato di evoluzione, e di “reasoning” (la capacità di ragionamento) possiamo pensare al salto evolutivo che ha fatto GPT.

GPT, il cui acronimo sta per “generative pre-trained transformer” è una serie di tools sviluppati da Open AI[5], la nuova versione, la versione 3 (GPT-3), è in grado di scrivere codice partendo da semplici concetti, per farvi una rapida idea, e restare impressionati dalle sue capacità vi suggerisco di guardare questo video dimostrativo:  oppure, qualora voleste rivedere completamente il vostro concetto di Bot o di assistenti virtuali, ecco un assistente virtuale generato con GPT-3. Decisamente impressionante, ma questo è il livello a cui siamo arrivati oggi, e, tenete presente che GPT-3 è un prodotto disponibile a chiunque tramite API[6] 

L’evoluzione non è stata esponenziale solo in termini di capacità di “reasoning”, ma anche per quanto concerne la diffusione (si prevedere che l’80% delle app sui diversi app store conterranno parti di AI e Machine Learning già l’anno prossimo). 

Un altro salto evolutivo si è avuto con l’utilizzo di GAN (Generative Adversarial Networks) o agli Algoritmi Genetici, che hanno permesso alle AI non solo di creare musica, quadri, testi, ma anche di immaginare ciò che non esisteva: come creare persone fittizie, o seguire il movimento di una persona anche dietro ad un muro. GAN è in grado di trasformare immagini (dal giorno alla notte, da primavera ad inverno) o di generarne di assolutamente nuove, come persone, personaggi dei fumetti, paesaggi etc. Qui, di seguito, alcuni esempi delle sue capacità: 

Ovviamente, a questo punto, non possiamo non menzionare i Deep Fakes. La parola nasce dalla combinazione di "deep learning" e "fake” ed indica dei media sintetici in cui una persona in un'immagine o in un esistente viene sostituita con qualcun altro, e questo avviene in real-time. Credo che l’esempio piu’ conosciuto, ed anche piu’ godibile, sia quello realizzato sostituendo il viso di Nicholas Cage in diversi film e ruoli (https://www.youtube.com/watch?v=BU9YAHigNx8) 

Se aggiungiamo alla parte video, la possibilità di generare la voce di qualsiasi persona partendo da alcuni minuti di registrazione, grazie ad un altro prodotto liberamente accessibile, sempre basato su deep-learning che si chiama Tactotron2 lo scenario diventa maggiormente inquietante. Qui alcuni esempi di voci generate:

Ok, mi sono accorto che abbiamo messo troppa carne al fuoco, facciamo un passo indietro ed un po' di chiarezza sui termini che abbiamo usato.

Il Deep Learning, la cui traduzione letterale significa apprendimento profondo, è una sottocategoria del Machine Learning (che letteralmente viene tradotto come apprendimento automatico) e indica quella branca dell’Intelligenza Artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello chiamate reti neurali artificiali.

Un algoritmo genetico è un algoritmo euristico utilizzato per tentare di risolvere problemi di ottimizzazione per i quali non si conoscono altri algoritmi efficienti di complessità lineare o polinomiale. L'aggettivo "genetico", ispirato al principio della selezione naturale ed evoluzione biologica teorizzato nel 1859 da Charles Darwin, deriva dal fatto che, al pari del modello evolutivo darwiniano che trova spiegazioni nella branca della biologia detta genetica, gli algoritmi genetici attuano dei meccanismi concettualmente simili a quelli dei processi biochimici scoperti da questa scienza. (da Wikipedia

A parte le definizioni, la cosa più interessante, è che questi algoritmi sono apertamente disponibili a chiunque.

Sapevate che, da oggi, potete fare la vostre call su Zoom o Skype utilizzando le fattezze di Elon Musk, Monnalisa, Gandhi, etc., direttamente dal vostro PC ed in tempo reale? 

Se volete provare questa esperienza, leggete questo articolo, scaricate il software e sorprendete i vostri colleghi/amici.

Pensa che sia possibile in futuro una Superintelligenza capace di condurci alla Singolarità nell’accezione di Kurzweil?

Anche questa è una domanda complessa, e che ha diverse risposte valide. Osservando l’evoluzione dei sistemi intelligenti negli ultimi anni, e la loro accelerazione in termini di capacità computazionale e complessità di ragionamento, sono stati disegnati diversi scenari possibili, dove uno di questi è proprio quello della Singolarità tecnologica. 

Prima di tutto credo bisogni spiegare cosa si intende con Singolarità. Il termine singolarità, nell’accezione proposto da Ray Kurzweil nel suo libro “La singolarità è vicina”, uscito nel 2006, racconta di un mondo, in un futuro prossimo, in l’intelligenza artificiale supererà quella umana e la natura umana supererà la soglia biologica (questo ultimo concetto ha ispirato il movimento chiamato 2045 che si basa proprio sull’idea dell’upload della coscienza e l’abbandono del corpo umano e la sua sostituzione con avatar virtuali o fisici nella forma di robot o nano-macchine). 

Il libro, riprende il concetto di Singolarità Tecnologica, già espressa da John von Neumann[7], ed altri, dove la crescita tecnologica diventa incontrollabile e irreversibile, determinando cambiamenti imprevedibili nella civiltà umana. 

Secondo la versione più popolare dell'ipotesi della singolarità, chiamata esplosione di intelligenza, un agente intelligente aggiornabile finirà per entrare in una "reazione incontrollabile" di cicli di auto-miglioramento, ogni nuova generazione più intelligente che appare sempre più rapidamente, provocando una "esplosione" nell'intelligenza e risultando in una potente superintelligenza che qualitativamente supera di gran lunga tutta l'intelligenza umana.” (da Wikipedia)

Prima di addentrarci all’interno delle speculazioni sul futuro dell’AI, va sicuramente messo un punto fermo, ovvero lo sforzo e la necessità di creare un framework etico per l’utilizzo di queste tecnologie. Moltissimi paesi ed organizzazione stanno lavorando su questo punto, ad esempio l’Europa con il suo “Ethics guidelines for trustworthy AI”, o l’Ethical OS (https://ethicalos.org).

Ed il motivo per cui abbiamo bisogno di un framework etico per l’AI è per evitare che uno dei possibili futuri distopici che abbiamo immaginato si avveri. 

Un ottimo esempio è quello descritto nel basilisco di Roko, che Wired[8] classifica come “l‘esperimento mentale più terrificante di sempre“, ed allo stesso tempo la “cosa più stupida presente su internet”, è uno dei meme dei futuristi.

La storia è piuttosto semplice di per sé: supponiamo di sviluppare una AI benevola (una super-intelligenza dell’era della singolarità), il cui scopo è quello di aiutare la razza umana. Il Basilisco svilupperà un’etica utilitaristica, ed il suo scopo sarà quello di creare una strategia per aiutare il maggior numero di esseri umani. Il Basilisco, concluderà inevitabilmente, che per ogni giorno di non-esistenza ci sono state persone che avrebbero potuto essere salvate.
Il passaggio logico successivo, quindi, è quello di accelerare la propria creazione, e per fare questo, escludendo la possibilità (logicamente non percorribile del viaggio nel tempo), deciderà di punire retroattivamente le persone che non hanno fatto abbastanza per contribuire alla sua creazione, e premiando coloro che hanno contribuito.

La parte più interessante, ed inquietante, dell’esperimento mentale è che il Basilisco non punirebbe solo governi, lobby, aziende, ecc., che si sono opposti alla sua creazione, ma anche coloro che non hanno fatto abbastanza.

Ad esempio, tu lettore di questa intervista, che sei venuto a contatto con l’idea del Basilisco potresti essere premiato o punito per aver contribuito o meno alla creazione del Basilisco stesso.

Mi scuso, nuovamente, per la divagazione sulla parte etica inerente alla creazione di super-intelligenze, e veniamo alla domanda, penso che sia possibile o meno? Credo che la risposta sia si, ma, allo stesso tempo, credo vada motivata e vada fornito uno scenario di riferimento piu’ dettagliato.

Ancora una volta, mi sento di dover citare Daniel e i suoi preziosi contenuti sull’argomento, e nello specifico le sue interviste sul tema della Singolarità. Per chi non avesse il tempo di leggere tutto l’articolo cominciamo col dire che la maggior parte degli addetti ai lavori non hanno dubbi in merito, ma le ipotesi differiscono parecchio per quanto concerne il quando, spostando la predizione di Ray Kurzweil di 10 o 40 anni in avanti (tra il 2060 ed il 2100).

Il secondo dettaglio che dobbiamo aggiungere è il come, ovvero come si manifesterà? Come un Singleton[9], un’intelligenza unica, o gruppi di aggregate super-intelligenze con obiettivi diversi o concorrenti. Ad oggi, l’ipotesi più probabile sembra proprio questa seconda ipotesi, ovviamente dettata da una logica umana e da quello che stiamo vivendo, ovvero l’esistenza contemporanea di diverse AI sempre più specializzate che vivranno in un equilibrio dinamico. A questo punto, la vera domanda diventa quale sarà il ruolo dell’umanità in questo nuovo contesto? 

 

L’IA non è una novità, ha una storia datata anni ‘50. Mai però come in questi tempi si è sviluppata una reazione preoccupata a cosa essa possa determinare per il futuro del genere umano. Numerosi scienziati nel 2015 hanno sottoscritto un appello (per alcuni un modo ipocrita di lavarsi la coscienza) invitando a una regolamentazione dell’IA. Lei cosa ne pensa? È per lasciare libera ricerca e implementazione o per una regolamentazione della IA? Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? A preoccupare dovrebbe essere la supremazia e la potenza delle macchine ma soprattutto l’irrilevanza della specie umana che potrebbe derivarne. O questa è semplicemente paura del futuro e delle ibridazioni che lo caratterizzeranno? Secondo il filosofo Benasayag le macchine sono fatte per funzionare bene, noi per funzionare (processi chimici, ecc.) ed esistere (vivere). Gli umani non possono essere ridotti a una raccolta di (Big) dati o al calcolo binario, hanno bisogno di complessità, di un corpo, di senso, di cultura, di esperienze, di sperimentare la negatività e il non sapere. Le macchine no e mai ne avranno necessità. O secondo lei si? Non crede che fare completo affidamento sulle macchine ci porti all’impotenza? 

Abbiamo già accennato a framework etici ed il possibile ruolo delle AI nel controllo della razza umana, e vi ricordo che, in qualità di lettori, siete “colpevoli” di aver letto del Basilisco.

Come accennato precedentemente, credo sia fondamentale avere un framework di riferimento per la commercializzazione e l’utilizzo delle AI. Sul mercato ci sono già casi estremamente preoccupanti di errato utilizzo di queste tecnologie.

Un caso che, personalmente, trovo assurdo è il fatto nel 2020 di poter essere arrestato all’interno di una banca perché i miei tratti somatici (si si state leggendo correttamente, non si tratta di un errore di battitura) sono statisticamente simili a quelli di un terrorista o un White-Collar offender, o peggio. 

Stiamo dicendo che esiste un’azienda che ha ripreso in mano il lavoro di Cesare Lombroso[10], ha disegnato un algoritmo intorno alle teorie pseudo-scientifiche della frenologia, e l’ha venduto, anzi, continua a venderlo come prodotto scientifico ad istituti pubblici. Se applichiamo questi ‘studi’ ad una super-intelligenza il mondo che stiamo progettando è decisamente ben oltre le peggiori trama distopiche di Hollywood. 

E quello, non è l’unico esempio, nelle cronache leggiamo sempre più di sovente di errori commessi dai sistemi intelligenti e, soprattutto, della quantità di bias che abbiamo introdotto all’interno di questi software, nelle applicazioni di profiling o di controllo di massa. Uno per tutti, il caso del NIST (National Institute of Standards and Technologies). Il NIST è il sistema che dovrebbe verificare l’accuratezza degli altri sistemi di riconoscimento facciale, peccato che nel costruire il proprio database di immagini, e di conseguenza i propri criteri di giudizio, abbiamo usato le foto di bambini abusati “prestate” dal dipartimento di Homeland Security[11].

Io sono un sostenitore della libera ricerca, di OpenAI e di tutte le iniziative che tendono a democratizzare l’accesso a queste risorse rendendole disponibili ad aziende e imprenditori, ma divento decisamente più restrittivo nel caso dell’applicazione di queste tecnologie qualora vadano a limitare la libertà personale. 

Un framework etico ci permetterà di avere il controllo di ciò che stiamo costruendo e come lo stiamo applicando, e come recita la home page del sito di Ethical OS “How not to regret the things you will build”. 

Abbiamo presentato il problema legato al riconoscimento facciale, identificazione e profiling (per saperne di piu’ un ottimo consiglio un ottimo articolo di Nature[12]), ma pensiamo all’utilizzo di AI e CRISPR. 

CRISPR, o meglio, “CRISPR CAS9” acronimo di Clustered Regularly Interspaced Short Palindromic Repeats, espressione traducibile in italiano con brevi ripetizioni palindrome raggruppate e separate a intervalli regolari, una sorta di forbice molecolare in grado di tagliare un DNA bersaglio, che può essere programmata per effettuare specifiche modifiche al genoma di una cellula, sia questa animale, umana o vegetale. 

Ancora più brevemente, un sistema artificiale per correggere parti del nostro codice genetico, e, potenzialmente, creare bambini su ordinazione con determinate caratteristiche, il che sembra piuttosto futuristico, ma è già successo nel Maggio del 2018 in China[13] 

Ovviamente CRISPR nasce per una terapia genica avanzata e puntuale, ma ovviamente il rischio è quello che venga usato per eliminare alcuni tratti che reputiamo “malati” all’interno del nostro DNA. Il salto da terapia genica al miglioramento del codice genetico umano è breve, ed altrettanto breve il salto al eugenetica. Se volete saperne di più, un altro articolo che mi sento di consigliare, è questo articolo di Nature che spiega molto accuratamente quale potrebbe essere la transizione da uno stadio all’altro.  

Non crede che qualora le macchine intelligenti rubassero il comando agli esseri umani, per essi la vita avrebbe meno senso? 

Nonostante l’esempio del Basilisco, non credo che le macchine ruberanno il comando agli esseri umani. Personalmente preferisco pensare alle AI non come concorrenti o sostitute degli esseri umani, ma come entità distinte capaci di fondersi per generare nuove possibilità, e quindi al concetto di Augmented Intelligence. 

Esistono già ottimi esempi di Augmented Intelligence in settori di mercato disparati, dal supporto clienti alla ricerca, e questo è solo l’inizio se pensiamo all’avvento dello Spatial Web[14] o del MirrorWorld, come l’ha definito Wired[15], in cui la nostra realtà sarà pervasa da un layer di dati accessibile in tempo reale. 

A questo punto, immagino che molti staranno pensando ad un ulteriore livello di integrazione tra uomo e macchina, ovvero le Brain-Computer Interfaces (BCI), grazie anche, e soprattutto, alla pubblicità di Neuralink di Elon Musk.

Ci avviamo rapidamente verso una vita vissuta in una multi-realtà (reale e virtuale) entrambe pervase di dati, interconnesse, una realtà dove i dati e le decisioni saranno mediate da AI che vivranno all’interno dei nostri servizi, case e uffici. Una realtà che si avvicina rapidamente e che impone una pianificazione meticolosa, per evitare che l’essere umano venga messo da parte e relegato ad un ruolo di supporto. Ma, questa era di sviluppo esponenziale, ci presenta anche opportunità senza precedenti: ovvero la possibilità di utilizzare questa innovazione esponenziale per concentraci nella creazione di uno sviluppo sostenibile, che vede al centro dell’evoluzione il nostro pianeta e tutte le sue forme di vita. Questo concetto è chiaramente esplicitato negli SDGs, ovvero i “Sustainable Development Goals” (Obiettivi per lo Sviluppo Sostenibile). Sono costituiti da 17 punti, individuati dall'Onu nel 2015 con un orizzonte che arriva fino al 2030[16].

Ed a questi obiettivi si è unita la comunità di sviluppo delle diverse AI, in un progetto internazionale che va sotto il nome di AI for Good[17]  


 

 

[1] https://tricorder.xprize.org/prizes/tricorder

[2] https://en.wikipedia.org/wiki/Brain–computer_interface

[3] https://en.wikipedia.org/wiki/Recommender_system

[4] https://en.wikipedia.org/wiki/Debunker

[5] https://openai.com

[6] https://openai.com/blog/openai-api/

[7] https://en.wikipedia.org/wiki/John_von_Neumann

[8] https://www.wired.it/attualita/tech/2019/02/23/leggende-metropolitane-intelligenza-artificiale/?refresh_ce=

[9] Nick Bostrom - https://nickbostrom.com/fut/singleton.html

[10] it.wikipedia.org/wiki/Cesare_Lombroso

[11] https://www.biometricupdate.com/201903/researchers-say-nist-biometric-datasets-include-images-of-vulnerable-individuals-taken-without-consent

[12] https://www.nature.com/articles/d41586-020-03256-7?WT.ec_id=NATURE-20201119&utm_source=nature_etoc&utm_medium=email&utm_campaign=20201119&sap-outbound-id=B0B7ED9A79D3670A248A4A534F5E9A98BF7738C4

[13] https://www.technologyreview.com/2018/11/25/138962/exclusive-chinese-scientists-are-creating-crispr-babies/

[14] https://singularityhub.com/2018/11/16/the-spatial-web-will-map-our-3d-world-and-change-everything-about-it-in-the-process/

[15] https://www.wired.com/story/mirrorworld-ar-next-big-tech-platform/

[16] https://sdgs.un.org/goals

[17] https://aiforgood.itu.int

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database