Lifestyle /

I dati sono il carbone del terzo millennio

I dati sono il carbone del terzo millennio

28 Settembre 2016 Redazione SoloTablet
SoloTablet
Redazione SoloTablet
share
L’acqua è destinata a diventare la risorsa più scarsa, il petrolio quella in fase di esaurimento ma i dati e le informazioni continueranno a proliferare diventando la vera risorsa energetica degli anni a venire. Una risorsa diventata accessibile grazie a sofisticate tecniche algoritmiche di estrazione e a grandi magazzini di stoccaggio, avveniristici, potenti, centralizzati ma a disposizione di tutti.

L’evoluzione dei Big Data non è solo argomento della narrazione mediatica e tecnologica ma testimoniata giornalmente dalle numerose attività che ci vedono impegnati a interagire con i nostri dispositivi mobili. Le nuove tecnologie per la raccolta, archiviazione e analisi dei dati sono diventate così potenti e pervasive dall’essere associate a rivoluzioni precedenti come quella industriale, resa possibile dalla disponibilità di risorse come il carbone che permisero lo sviluppo delle fabbriche tessili e l’invenzione della locomotiva a vapore.

Nell’era del surplus informativo la risorsa in sovrabbondanza è l‘informazione. Ogni interazione tecnologica produce milioni di dati e ne produrrà sempre di più grazie al costante progresso delle nuove tecnologie, capaci di raccogliere sempre nuovi dati (riconoscimenti facciali, sorveglianza dronica, ecc.) , di apprendere ad usarli meglio, anche con capacità cognitive crescenti, per la produzione di nuove conoscenze.

I dati prodotti dalle nuove macchine raccoglitrici e pensanti sono diventati ormai combustile indispensabile per una miriade di attori del mondo tecnologico e per miliardi di utilizzatori di dispositivi mobili e motore potente di modelli di business fondati sulla loro disponibilità e produttività. A fare la differenza oggi non è solo la quantità di dati a disposizione ma anche la capacità di trarne il massimo del vantaggio. Le tecniche di raccolta dati sono sempre più efficienti e i dati ancora di più perché le tecnologie attuali e i loro algoritmi permettono qualcosa di più delle semplice correlazioni a cui ci avevano abituato i database relazionali. Oggi gli algoritmi e le tecnologie del dato hanno imparato ad apprendere e possono contare su dizionari e banche dati immense di dati accumulati precedentemente.

Benchè si parli molto di intelligenza artificiale e algoritmi intelligenti, le macchine continuano a rimanere stupide, almeno se confrontate con quanto ancora sa fare il cervello di un essere umano e/i animale. Il livello di stupidità delle macchine è però in costante fase calante grazie alla accresciuta capacità di elaborazione ma soprattutto alla immensa quantità di dati disponibili. Riconoscere una categoria di oggetti è oggi una missione facilmente realizzabile grazie alla possibilità di visionare, confrontare e analizzare milioni di immagini e informazioni e alla capacità delle macchine di ricordarsi come sono arrivate al risultato per attività simili future.

Queste macchine non vanno identificate con singoli dispositivi hardware ma come reti neurali di risorse, sedimentate in memorie condivise e conoscenze, accessibili in tempi rapidissimi per gli usi più diversi e in grado di collaborare per l’espletamento di un compito o l’esecuzione di un calcolo o azione. L’intelligenza artificiale di oggi non è più concentrata in una macchina che mira a simulare il cervello umano e cerca di riprodurre il ragionamento umano. Questa forma di intelligenza artificiale, tipica degli sviluppi degli anni ’80, è oggi sostituita da una più distribuita e concentrata sulla capacità di ingurgitare informazioni e contesti attraverso enormi masse di dati. E’ l’approccio ad esempio usato da Google per il suo motore di traduzione. Il Gogle Translate precedente mirava ad imparare una nuova lingua più o meno come lo faceva un umano, oggi è impegnato a imparare parola per parola. Grazie alla miriade di parole, analogie, categorie, contesti memorizzati Google Translate è oggi capace di stimare quali siano le corrispondenze più verosimili o statisticamente possibili tra lingue diverse. Il progresso avvenuto negli ultimi tempo del motore di traduzione di Google testimonia la validità dell’approccio, l’importanza dei dati e l’accresciuta capacità delle macchine di apprendere.

Le miriadi di dati disponibili sono oggi il carburante perfetto che permettono alle macchine di diventare esperte in campi specializzati e a chi le sviluppa per predisporre i Big Data contenenti le informazioni e i contesti necessari alla specializzazione. Sul lungo termine dati e contesti potranno essere mischiati e permettere alle stesse macchine di diventare esperte in materie e campi diverse e di agire sempre più con modalità simili a quelle degli esseri umani.

La megamacchina dotata di una super intelligenza artificiale è ancora di là da venire ma gli effetti delle reti neurali sono già visibili per il loro utilizzo attuale nel migliorare l’efficienza del dato e la produzione di informazione e conoscenza. L’esempio più evidente è quello della robotica e dell’automazione industriale, un ambito che ha bisogno di grandissime quantità di dati ma anche di elevata specializzazione. Oggi robot e macchine intelligenti hanno accesso a Big Data ma sanno anche apprendere, utilizzando una miriade di sensori e di algoritmi, in alcuni casi semplicemente attraverso simulazioni del mondo reale e delle azioni degli esseri umani.

La destinazione futura sembra però un’altra. Quella di macchine cognitive, macchine che sanno pensare e lo possono fare disponendo per le risorse hardware di cui dispongono ma anche per la loro capacità di astrazione e simbolica che permetta loro di elaborare paradigmi logici e di alimentarli dei dati e delle informazioni necessarie a generalizzare e a generare conoscenza. Il passaggio successivo sarà di insegnare alle macchine, già di per sé intelligenti, a pensare in modo intelligente sfruttando le informazioni disponibili in un modo che neppure gli umani potranno fare. I dati dei Big Data sono archiviati per essere sempre accessibili e utilizzabili, quelli del cervello umano si dimenticano.

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database


EiS Srl

Operiamo in ambito ICT come System Integrator presentando un’offerta costruita ad...

Vai al profilo

Aidilab srl

Nata nel 2010 come startup dell’Interaction Design Lab (IDA) dell’Università di...

Vai al profilo

Third Millenium

Software house dedicata allo sviluppo di App per il mondo mobile

Vai al profilo

Arsenal S.R.L.

Simulatori e visual simulation immersiva ad elevata interattivita' - con software di...

Vai al profilo