
I dati emergono da un report di Trend Micro,tra i leader globali della cybersecurity, sulle minacce informatiche che caratterizzeranno il 2025, dal titolo “The Easy Way In/Out: Securing The Artificial Future”.
I gemelli digitali cattivi
A causa del loro grande potenziale, i deepfake sono destinati a diventare la più grande minaccia legata all’intelligenza artificiale e verranno utilizzati per rendere sempre più credibili truffe già popolari e basate sull’ingegneria sociale. I cybercriminali useranno anche LLM (Large Language Model) addestrati sui post pubblici di una persona per imitare lo stile di scrittura e la personalità, creando delle imitazioni convincenti che prenderanno di mira nuove vittime inconsapevoli, dando via al fenomeno dei malicious digital twins, i gemelli digitali cattivi. I cybercriminali creeranno anche dei falsi dipendenti per attaccare le aziende in nuove truffe Business Email Compromise (BEC) e si avvarranno anche di dati biometrici esposti involontariamente, oltre che di video e audio. Anche gli stessi sistemi di intelligenza artificiale potranno essere manipolati per compiere azioni dannose o non autorizzate e per creare kit di phishing personalizzati su misura, rendendo l’underground cybercriminale sempre più efficiente. Per gli utenti, diventerà sempre più difficile comprendere la veridicità e la legittimità dei contenuti creati online attraverso l’IA.
L’automazione nasconderà i difetti agli occhi umani
Nel momento in cui l’intelligenza artificiale inizierà a utilizzare strumenti e computer aziendali in modo autonomo, creerà una catena di eventi e interazioni invisibili agli operatori umani. Questa mancanza di visibilità può essere un problema di sicurezza, poiché sarà difficile monitorare e controllare le azioni dell’AI in tempo reale.
Il potere delle faccine nelle relazioni digitali
Le aziende saranno sempre più esposte a maggiori vulnerabilità, dovute anche alla possibile divulgazione di informazioni sensibili da parte degli LLM durante le interazioni con dipendenti e clienti. I cybercriminali potrebbero anche impossessarsi di agenti di intelligenza artificiale per compiere attività dannose. Il consumo delle risorse di sistema da parte degli agenti AI, sia benigni sia dannosi, potrà anche portare alla negazione di un servizio quando le risorse sono sopraffatte.
Ransomware più efficienti
Nel 2024 sono aumentati i gruppi ransomware che sfruttavano strumenti legittimi per l'esfiltrazione dei dati, collezionare credenziali e replicarle, con l’obiettivo di effettuare movimenti laterali e guadagnare privilegi. Questo trend continuerà anche nel 2025 e gli attacchi ransomware sfrutteranno sempre più spesso vulnerabilità o account compromessi, a discapito di tattiche più tradizionali legate al phishing. Gli attacchi ransomware potrebbero anche spostarsi verso modelli di business che non necessitano più di crittografia.
Inoltre le informazioni raccolte dagli infostealer sono molto utili per i cybercriminali e i gruppi ransomware continueranno a utilizzare i dati, come gli account utente raccolti dagli infostealer, nei loro attacchi. Anche per questo, le minacce legate al malvertising, già sotto i riflettori a causa della loro diffusione e proliferazione, continueranno nel 2025.
Le raccomandazioni Trend Micro
Ecco i suggerimenti di Trend Micro per arginare o contenere questi fenomeni:
- Implementare un approccio alla sicurezza informatica basato sul rischio, che abiliti un'identificazione delle risorse a livello centrale e un'efficace valutazione, assegnazione delle priorità e mitigazione del rischio
- Sfruttare l’IA per beneficiare di informazioni sulle minacce, gestire i profili delle risorse, prevenire il percorso di un attacco e avere indicazioni per la risoluzione, idealmente da un'unica piattaforma
- Formare e sensibilizzare gli utenti sui recenti progressi dell'IA e il modo in cui questa potrebbe favorire la criminalità informatica
- Monitorare e proteggere l'intelligenza artificiale dagli abusi, compresa la sicurezza per la convalida degli input e delle risposte o delle azioni generate dall'intelligenza artificiale
- Per la sicurezza LLM: rafforzare gli ambienti sandbox, implementare una rigorosa convalida dei dati e difese multilivello contro attività di injection
- Comprendere la posizione dell'organizzazione all'interno della supply chain, affrontare le vulnerabilità nei server rivolti al pubblico e implementare difese a più livelli all'interno delle reti interne
- Facilitare la visibilità end-to-end sugli agenti AI
- Implementare la previsione del percorso di attacco per mitigare le minacce cloud.