
L'esplosione dell'IA
L'adozione delle tecnologie IA sta accelerando a un ritmo senza precedenti. ChatGPT, per esempio, ha raggiunto 100 milioni di utenti dopo soli 60 giorni dal lancio e ora vanta oltre 3 miliardi di visite mensili. Questa crescita esplosiva non si limita a ChatGPT; anche altri modelli di IA come Claude, Gemini e Midjourney stanno registrando un'ampia adozione. Dimension Market Research prevede che entro il 2033 il mercato globale dei modelli linguistici di grandi dimensioni raggiungerà i 140,8 miliardi di dollari. Le tecnologie di IA richiedono enormi quantità di risorse di calcolo, per cui la rapida adozione di queste tecnologie sta già determinando un enorme aumento di spazio, acqua ed energia necessari per supportarle. L'entità della pressione esercitata dall'IA sulle risorse naturali si farà sentire nel 2025.
Risorse energetiche e innovazione
La proliferazione dell'IA sta mettendo a dura prova le risorse energetiche globali. I data center, la spina dorsale delle operazioni di Intelligenza Artificiale, si stanno moltiplicando rapidamente, utilizzando spazio, energia e acqua, risorse naturali preziose già sotto pressione. Secondo McKinsey, il loro numero è raddoppiato dai 3.500 del 2015 ai 7.000 del 2024. Deloitte prevede che il consumo di energia da parte di questi centri salirà da 508 TWh nel 2024 a un'incredibile livello di 1580 TWh entro il 2034, pari all'intero consumo energetico annuale dell'India.
Goldman Sachs Research stima che la domanda di energia dei data center crescerà del 160% entro il 2030 e che l'intelligenza artificiale rappresenterà circa il 19% della domanda di energia entro il 2028. Questa domanda di energia senza precedenti richiede un passaggio a fonti di energia più sostenibili e a soluzioni di raffreddamento innovative per carichi di lavoro di IA ad alta densità. Sebbene siano state raggiunte molte innovazioni in termini di sfruttamento di fonti energetiche alternative, l'energia nucleare sarà probabilmente sfruttata per alimentare l'aumento del consumo energetico alimentato dall'IA.
L'IA responsabile trasformerà lo sviluppo del software
L'intelligenza artificiale è destinata a rivoluzionare la programmazione del software. Stiamo andando oltre i semplici strumenti di completamento del codice come GitHub Copilot per passare a piattaforme di creazione di codice completo come CursorAI e Replit.com. Se da un lato questo progresso promette un aumento della produttività, dall'altro comporta notevoli rischi per la sicurezza. L'intelligenza artificiale offre a qualsiasi criminale informatico la possibilità di generare malware completo da un singolo prompt, inaugurando una nuova era di minacce informatiche. La barriera d'ingresso per i criminali informatici scomparirà man mano che questi diventeranno più sofisticati e diffusi, rendendo il nostro mondo digitale molto meno sicuro.
Questa minaccia, continua Dan Karpati, alimenterà il settore dell'IA responsabile. L'IA responsabile si riferisce alla pratica dei fornitori di Intelligenza Artificiale di costruire barriere di protezione per impedire l'uso di armi o l’utilizzo malevolo dei loro modelli linguistici di grandi dimensioni (LLM). Gli sviluppatori di software e i fornitori di sicurezza informatica dovrebbero collaborare per ottenere un'IA responsabile grazie alla loro profonda esperienza nella comprensione della mentalità dell'attaccante per simulare e prevedere nuove tecniche di attacco.
I sistemi di intelligenza artificiale multi-agente
Nel 2025 assisteremo all'emergere di sistemi di intelligenza artificiale multi-agente sia negli attacchi informatici che nella difesa. Gli agenti di IA sono la prossima fase di evoluzione degli assistenti digitali basati sull’Intelligenza Artificiale. Si tratta di sistemi autonomi che prendono decisioni, eseguono compiti e interagiscono con l'ambiente, spesso agendo per conto dell'uomo. Operano con un intervento umano minimo, comunicano con entità quali altri agenti di IA, database, sensori, API, applicazioni, siti web ed e-mail e si adattano in base al feedback. Gli aggressori li utilizzano per attacchi coordinati e difficili da individuare, mentre i difensori li impiegano per migliorare il rilevamento delle minacce, la risposta e la collaborazione in tempo reale tra reti e dispositivi. I sistemi di intelligenza artificiale multi-agente possono difendersi da più attacchi simultanei, lavorando insieme in modo collaborativo, condividendo informazioni sulle minacce in tempo reale e coordinando le azioni difensive per identificare e mitigare gli attacchi in modo più efficace.
Anche sfide etiche e normative
Man mano che l'Intelligenza Artificiale diventa sempre più pervasiva, ci troveremo ad affrontare sfide etiche e normative sempre maggiori. Due importanti leggi sono già destinate a entrare in vigore nel 2025. La legge sull'IA dell'UE entrata in vigore il 2 febbraio 2025, con ulteriori disposizioni in vigore il 2 agosto. Negli Stati Uniti, si prevede l'attuazione di un nuovo quadro normativo sull'IA attraverso il National Defense Authorization Act (NDAA) e altre misure legislative. Queste nuove leggi obbligheranno le imprese a esercitare un maggiore controllo sulle loro implementazioni di IA ed emergeranno nuove piattaforme di governance dell'IA per aiutarle a costruire fiducia, trasparenza ed etica.
Conclusioni
Il 2025, queste le conclusioni del manager di Check Point Software (tra i fornitori leader di piattaforme di cyber security basate sull’IA e cloud delivered che protegge oltre 100.000 organizzazioni a livello globale), si preannuncia un anno cruciale per l'Intelligenza Artificiale e la sicurezza informatica. Se da un lato l'IA offre opportunità di progresso senza precedenti, dall'altro presenta sfide significative. Sarà necessaria una stretta collaborazione tra il settore commerciale, i fornitori di software e sicurezza, i governi e le forze dell'ordine per fare dell’IA uno strumento utile nelle imprese e nella società.