MISCELLANEA /

Robot, intelligenze artificiali e cybercriminalità

Robot, intelligenze artificiali e cybercriminalità

14 Dicembre 2016 Redazione SoloTablet
SoloTablet
Redazione SoloTablet
share
Molta attenzione mediatica è oggi concentrata sul ruolo che i robot e le macchine intelligenti hanno nel rubare posti di lavoro sostituendosi a lavoratori in carne e ossa. Minore attenzione è rivolta invece a come queste macchine intelligenti potrebbero comportarsi in futuro nel caso in cui venissero attaccate e controllate da cybercriminali per usi criminogeni.

Scenari e mondi distopici nei quali le macchine prendono il controllo sull'uomo hanno riempito da sempre le narrazioni di fantascienza. Le macchine protagoniste di queste narrazioni sono solitamente grandi computer, come HAL9000 di  2001: Odissea nello spazio, dotati di intelligenza artificiale ma anche di altre caratteristiche umane come quelle di provare emozioni o di avere una loro consapevolezza e coscienza. L'arrivo del computer ha cambiato anche la narrazione fantascientifica dando luogo alla creazione di mondi virtuali e utopici, realtà parallele e aumentate abitate da hacker, geek e milioni di neuromanti, tutti dotati della loro console di accesso al cyberspazio e di sperimentarne opportunità, libertà e possibilità. L'arrivo delle narrazioni Cyberpunk ha messo in scena macchine capaci di creare realtà e dare forma a scenari futuri utopici nei quali rifugiarsi come se la tecnologa offrisse mondi migliori di quelli reali e fattuali e che al contrario possono trasformarsi in mondi distopici. Questi scenari sono quelli raccontati in film come Tron e il suo mondo controllato da un programma software, come Il tagliaerba con la sua ambientazione virtuale legata al potenziamento mentale,  come Matrix e i suoi computer che hanno preso il completo controllo della realtà.

Molte storie di tecno-fantascienza raccontano di come computer e macchine possano trasformarsi, nelle mani sbagliate, in strumenti pericolosi per le sorti delle persone o in agenti di salvataggio dell'umanità. Nel film Wargames il controllo di un computer da parte di un ragazzino rischia di scatenare una guerra mondiale. In Indipendence Day l'attacco alieno che sta distruggendo la Terra sarà bloccato solo grazie all'introduzione di un virus nel potente sistema informatico dell'astronave madre in modo da mettere fuori uso il suo schermo protettivo. In entrambe le sceneggiature si racconta di tentativi di hackeraggio riusciti, uno contro uno dei più protetti e sicuri computer della difesa americana e l'altro contro un computer alieno di molte generazioni più evoluto di quelli terrestri.

Gli scenari fin qui descritti sono solo alcuni dei molti possibili e già raccontati dalla produzione letteraria e cinematografica di fantascienza. In molte di queste narrazioni fanno la loro apparizione macchine antropomorfizzate sempre più potenti e intelligenti. In genere queste macchine, capaci di apprendere, sono protagoniste in positivo delle storie narrate e non fanno altro che raccontare una evoluzione tecnologica che si sta portando molto lontano persino da HAL9000.

Con la loro capacità di apprendere le nuove forme di intelligenza artificiale stanno dando vita a macchine così potenti e intelligenti da essere usate in ogni ambito applicativo, con mansioni non solo manuali ma anche cognitive. Fin qui queste macchine sembrano avere prodotto, con la loro efficienza, adattabilità e capacità produttiva, solo benefici e vantaggi. Ma cosa succederebbe se l'intelligenza artificiale di una di queste macchine venisse hackerata e controllata da cybercriminali? Cosa succederebbe se questa macchina operasse in ambienti critici per la sicurezza? E se la macchina hacherata fosse impiegata nella gestione degli algoritmi che gestiscono gli scambi borsistici?  E se fosse controllata da gruppi di potere, criminali, nazionali o politici?

Se una realtà di questo tipo si avverasse, svanirebbe la paura delle macchine per la loro capacità di rubare posti di lavoro e aumenterebbe quella legata al futuro stesso. E' una realtà possibile e che si può già intravedere nel modo in cui operano i cybercriminali attuali. La cybercriminalità non può più essere misurata sugli attacchi attraverso strumenti di spam, phishing o ransomware. Ciò che sta emergendo è la capacità organizzativa della cybercriminalità, la sofisticatezza dei modelli e delle pratiche criminali e l'abilità di muoversi in modo strutturato, progettuale e mirato, agendo come vere e proprie realtà aziendali.

L'analisi predittiva degli attacchi cybercriminali correnti indicano le tendenze in atto e la trasformazione in corso. Una trasformazione che sembra essere guidata da modelli di attacchi criminali guidati dai dati(data-driven) e dalla applicazione di modelli di business basati sul ROI (Return on Investment).

Dalle analisi condotte sulle modalità operative dei cybercriminali emerge il loro crescente interesse verso le soluzioni di intelligenza artificiale impiegate in ambiti lavorativi e aziende con l'obiettivo di trarre vantaggio dei punti di debolezza delle misure di difesa in esse allestite.

Riuscire a controllare una intelligenza artificiale dotata di capacità di apprendere darebbe al cybercriminale un potere immenso nel superamento di ogni tipo di difesa, comprese quelle di tipo biometrico. I cybercriminali stanno operando da tempo nella realizzazione di armi di attacco impercettibili dagli esseri umani e capaci di imbrogliare le macchine predisposte a loro difesa.

La diffusione di strumenti dotati di intelligenza artificiale come Echo di Amazon, Siri di Apple o OK Google aumenta la possibilità di nuovi attacchi criminali, in particolare di quelli legati all'uso della voce umana, sempre più facilmente ricreabile e copiabile da parte di macchine intelligenti.

I rischi non sono solo legati all'uso criminale di gadget tecnologici individuali ma soprattutto alla manipolazione di dati finanziari, economici o politici, solitamente usati in processi decisionali che fanno grande affidamento sulle informazioni da essi prodotte.

Se i prossimi attacchi criminali attraverso intelligenze artificiali d robot o macchine intelligenti dovessero avere successo, verrebbero meno le famose leggi che Asimov aveva definito per i robot, leggi che recitano che una macchina non può recare danno a un umano, deve obbedire ai suoi ordini a meno che siano in conflitto con la prima legge e deve proteggere se stessa a meno che farlo non entri in conflitto con la prima e la seconda legge.

I robot di Asimov sembrano essere molto lontani da quelli attuali, così come sembrano esserlo le loro leggi. Le intelligenze artificiali attuali e quelle più evolute che verranno sembrano essere andate oltre ogni legge. Sono diventate un semplice strumento diffuso e nelle mani di un numero crescente di persone. Uno strumento che, come un coltello, può avere usi diversi e non tutti necessariamente rispettosi della prima legge di Asimov.

In attesa che le nuove intelligenze artificiali siano dotate di codici etici capaci di impedire attacchi criminali, non rimane che prevedere la possibilità di attacchi e rischi a essi associati.

Prevedere questi rischi significa fin d'ora predisporre quanto serve alla prevenzione, alla difesa e alla immediata reazione in caso di attacchi riusciti. La prevenzione non potrà essere condotta con metodi e strumenti tecnologici come quelli descritti nel film Minority Report ma è l'unico approccio possibile per impedire che attacchi futuri abbiano successo.

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database