
Questa è una dichiarazione su cui riflettere, soprattutto alla luce della volontà odierna delle aziende di superare l’hype legato all’intelligenza artificiale per tradurre queste tecnologie in un impatto concreto sull’efficienza operativa e sul business.
“Nel mondo tecnologico e aziendale, sottolinea Mirko Gubian, Global Demand Senior Manager & Partner di Axiante, una parola d’ordine viene spesso soppiantata da un’altra, anche troppo frettolosamente. E questo, vale anche per il passaggio dai Big Data all’AI. L’entusiasmo che sta accompagnando la diffusione di quest’ultima e la risonanza che sta raccogliendo in tutti gli ambiti, rischia di mettere in secondo piano il fondamento cardine di questa innovazione: la gestione profonda dei dati. ‘Conditio sine qua non’ di qualsiasi progetto aziendale efficace che coinvolga l’intelligenza artificiale”.
Il legame tra Big Data e AI è ritenuto infatti imprescindibile dal momento che il primo fornisce il volume di dati che il secondo elabora e interpreta, consentendo così alle aziende di prendere decisioni più mirate e aggiornate, anche in maniera automatica e in tempo reale, come di personalizzare le esperienze dei clienti o le raccomandazioni sul sito oppure di ottimizzare alcune operazioni.
SoloTablet intervista gli sviluppatori di APP italiani: Exprivia
In altre parole, aggiunge Gubian, i Big Data forniscono il carburante all’intelligenza artificiale, consentendo alle organizzazioni di analizzare modelli, riconoscere tendenze e prendere decisioni basate sui dati. L'enorme volume di informazioni oggi disponibili, dalle interazioni sui social media ai dati dei sensori dei macchinari, dalle ricerche di mercato ai dati di acquisto delle carte fedeltà, consente ai sistemi di intelligenza artificiale di migliorare continuamente precisione e prestazioni. Inoltre, le soluzioni di apprendimento automatico o predittive necessitano di grandi set di dati per addestrare e perfezionare le loro capacità; ulteriore conferma che i Big Data sono indispensabili nello sviluppo e nell'implementazione
Anche grandi sfide
Se da un lato la sinergia tra Big Data e AI offre grandi opportunità alle aziende, dall'altro presenta anche importanti sfide. La gestione di enormi set di dati tramite l’AI pone alle imprese questioni in termini di cybersecurity, di rispetto della privacy e di compliance alle normative vigenti, oltre a richiede un'infrastruttura e software solidi di gestione dei dati.
“Ma soprattutto, sottolinea ancora il manager di Axiante, se si vuole dare vita a un progetto aziendale d’impiego dell’AI efficace, non bisogna dimenticare il requisito fondamentale di quantità, qualità e affidabilità dei dati, anche se spesso si è portati a credere erroneamente che queste caratteristiche siano “magicamente” garantite dal solo impiego delle tecnologie di intelligenza artificiale. Al contrario, è bene riaffermarlo, la qualità e la quantità dei dati fornite all’AI sono fondamentali per il valore del output, si può solo eventualmente discutere su quale dei due attributi sia maggiormente rilevante. Un’indagine di Gartner per VentureBeat ha stimato che ben l'85% di tutti i modelli/progetti di intelligenza artificiale implementati nel 2022 non avrebbe avuto successo e una percentuale ancora maggiore non avrebbe generato un ROI positivo a causa della bassa qualità dei dati o della scarsità o assenza di dati rilevanti”.
Sintetizzare i dati?
Disporre di dati di qualità e nelle giuste quantità è pertanto un requisito fondamentale per sviluppare soluzioni e strumenti di intelligenza artificiale accurati e quindi efficaci. Una sfida, tra l’altro, in crescita dal momento che da una parte aumenta sempre più velocemente la sofisticatezza dei modelli di AI; dall’altra è sempre più complesso disporre di set di dati reali consistenti a causa dei nuovi problemi legati alla privacy, delle restrizioni legali e dei costi elevati per l'acquisizione e la catalogazione dei dati.
La sete crescente di dati di qualità delle soluzioni AI e machine learning sta non solo alimentando lo sviluppo delle soluzioni per la generazione di dati sintetici, ma soprattutto sta cambiando la valutazione di “qualità inferiore” a cui fino a poco tempo fa erano associati. Al contrario i sintetici possono essere un'efficace integrazione o alternativa ai dati reali insufficienti o troppo costosi, per realizzare modelli di intelligenza artificiale accurati, soprattutto se combinati con quelli disponibili.
Le tecniche di elaborazione di dati sintetici assicurano ottimi risultati ma non va sottovalutato che la qualità dei dati sintetici dipende spesso dalla qualità del modello che li ha creati e del set di dati sviluppato. Un passaggio fondamentale nella generazione di dati sintetici è pertanto il data profiling, ovvero l’analisi sistematica dei dati originali per comprenderne struttura, distribuzioni, relazioni e anomalie.