MISCELLANEA /

All’AI con cognizione di causa

All’AI con cognizione di causa

14 Giugno 2024 Gian Carlo Lanzetti
SoloTablet
Gian Carlo Lanzetti
share
Cohesity è una azienda leader nella sicurezza e gestione dei dati potenziati dall’AI; come tale aiuta le imprese a difendersi dalle minacce cyber con funzionalità complete di security e gestione dei dati. Può quindi essere interessante raccogliere il suo punto di vista sulle implicazioni dell’AI nelle organizzazioni pubbliche e private, con particolare riguardo alla sicurezza.

Per Manlio De Benedetto, Senior Director Sales Engineering EMEA di Cohesity, in questa fase storica è più che mai opportuno procedere con estrema calma, in modo controllato e con cognizione di causa.

Come possono allora i team IT sfruttare il potenziale di questa tecnologia senza creare nuove vulnerabilità? Il consiglio di Cohesity è quello di  introdurre l'AI lentamente, in modo controllato.

Un buon inizio in tema di AI è legato alle operations aziendali e a tutti quei processi e passaggi in cui i team IT devono intervenire manualmente e investire tempo e risorse per portare a termine il flusso con successo, un approccio LEAN automatizzato, E’ necessario esaminare le caratteristiche dei dati a cui accedono, le fonti di dati interne ed esterne che consultano e i partner con cui condividono le informazioni. Poiché alcuni moduli di AI sono progettati a livello globale e inoltrano automaticamente i dati interni ai server esterni, alcune aziende sono state sorprese da questo sviluppo e hanno appreso faticosamente che gli utenti interni stavano alimentando i data base degli strumenti di AI globali.

Gli approcci all'AI guidati dal vendor, come quello di Cohesity, vengono integrati nel loro ambiente e ne rivelano il funzionamento, consentendo ai team IT di valutare con precisione il rischio e di evitare possibili scambi di dati con l’esterno. I team IT devono essere selettivi su sistemi e fonti di dati che i moduli di AI esaminano attivamente, per iniziare con un piccolo cluster e introdurre l'AI in modo controllato.

Dedicare tempo all’apprendimento

Quando i moduli di AI vengono attivati, il loro funzionamento e i loro suggerimenti devono essere monitorati da un responsabile del team IT per un ampio periodo di tempo. “L'AI, afferma De Benedetto,  agirà sempre meglio e in modo più accurato quanto più a lungo lavorerà e quanti più dati e modelli avrà raccolto nel singolo ambiente dell'azienda. Inizialmente, quindi, commetterà più errori man mano che impara. I dati sono fondamentali: più sono, meglio è. E’ consigliato di adottare anche il processo Retrieval-Augmented Generation (RAG), per ampliare i dati di apprendimento.

CONSIGLIATO PER TE:

Siamo già oltre i Millennials

In ogni caso, i moduli possono suggerire rapidamente le misure più appropriate, soprattutto per le attività standard. Se, ad esempio, gli indirizzi IP provenienti da aree geografiche sospette vengono bloccati da un firewall, l'AI può suggerire le regole giuste e un esperto di IT deve solo approvarle. L'AI suggerisce, mentre la decisione finale spetta all'uomo.  “Più l’AI diventa sofisticata, precisa, più è in grado di preparare decisioni critiche e di aiutare in modo sostanziale i team a risparmiare tempo, smistando in anticipo il volume di informazioni nelle operazioni aziendali. Gli ambienti odierni generano quotidianamente petabyte di dati di log, che indicano varie criticità legate alla sicurezza o alle performance. Nella maggior parte degli ambienti, l'80% di queste informazioni non viene valutato perché il volume è troppo elevato. L’AI può elaborare questi dati su base giornaliera e renderli accessibili per le query vocali”.

Prepararsi ad affrontare l’esterno

In particolare, i moduli AI relativi alla sicurezza vengono spesso istruiti ad aggiornarsi all'esterno - su nuovi metodi di attacco, vulnerabilità, patch e così via. In questo caso è necessario controllare attentamente quali informazioni escono e quali dati tornano indietro. Nessun CISO accetterà che i dettagli sulla propria struttura di rete e sulle vulnerabilità e patch attuali vengano inseriti in un motore di AI esterno. È opportuno analizzare in un test pilota quali dati vengono realmente inviati. I vendor con approcci maturi all'AI possono mostrare in dettaglio quali informazioni immettere e se ci sono modi per l’azienda di escludere alcuni elementi fin dall'inizio. Esaminare ogni singolo input diventa complicato su base giornaliera a causa del volume di aggiornamenti dei moduli di AI, a meno non venga sviluppata un'autorità di controllo dell'AI, che a sua volta controlli gli input e gli output dell'AI dal punto di vista della sicurezza.

Tuttavia, i team IT dovrebbero impegnarsi in questo processo, perché il potenziale dell'AI autonoma nella propria rete è immenso, dove ogni area di attività ne trarrà vantaggio e si creeranno in automatico delle sinergie. Si pensi che l'AI delle risorse umane scambi informazioni con l'AI della sicurezza e con quella del magazzino sul fatto che un utente dell’ufficio finanziario sta accedendo ai server di ricerca tramite il suo smartphone. Un messaggio di allarme verrebbe inviato immediatamente al team di sicurezza.

Conclusioni

In conclusione, se ben impiegata l'intelligenza artificiale può ridurre drasticamente l'enorme carico di lavoro dei team IT e di sicurezza, fornendo report completi e indicazioni chiare e precise sui passaggi successivi, dando una prospettiva di lavoro ai gruppi operativi che sono sottodimensionati per i difficili compiti da svolgere. “Oggi l’AI, è il messaggio forse più importante di De Benedetto,  può essere di grande supporto, svolgendo in autonomia molte delle attività più importanti ma al tempo stesso ripetitive e noiose, trasmettendo gli eventi ai team IT/Security quando diventano critici e complicati. In questo modo, l’AI può contribuire in modo decisivo ad accrescere la resilienza informatica contro gli attacchi che, ironia della sorte, sono sempre più spesso sferrati dall'intelligenza artificiale”.

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database