Possiamo (af)fidarci alla tecnologia?
La fiducia è componente fondamentale di ogni interazione umana interpersonale. Lo è anche per le nostre interazioni in contesti popolati da intelligenze artificiali. Le implicazioni possono essere pesanti, specialmente in interazioni di tipo economico, lavorativo e finanziario. Le interazioni sociali umane determinano anche le relazioni con le macchine in termini di fiducia, credibilità e affidabilità. In questo tipo di interazione uomo-macchina è fondamentale che sempre ci si interroghi sulla capacità estrattiva e voracità delle macchine nel collezionare dati e informazioni, spesso all’insaputa di chi li ha prodotti.
Può una fiducia cieca, basata sull’accettazione di tutto ciò che la tecnologia propone, soddisfare i nostri bisogni più profondi? Dare tutto per scontato limita conoscenze e conoscenza, lasciando libero campo a produttori di tecnologia, tecnici e tecnocrati che si sentono svincolati da ogni responsabilità etica pur di trasformare tecnologicamente il mondo.
La tecnologia non è neutrale
L’idea che la tecnologia sia neutrale continua a circolare come un mantra (“Dipende da come la usi!”) nelle comunità popolose di quanti vedono in ogni espressione critica e richiamo a comporne una, una manifestazione di tecnofobia.
Eppure tutti ormai dovrebbero sapere che la tecnologia non è neutrale, non può esserlo. La tecnologia non è un utensile che nelle nostre mani possa diventare espressione e proiezione buona o cattiva, positiva o negativa, della mia volontà. Il motivo è semplice. Ogni tecnologia ha già inscritto dentro di sé, oggi in forma di funzionalità social, di algoritmi (sequenze di istruzioni per compiere per azioni predefinite da qualcun altro), ecc., la logica di fondo che ci suggerisce come usarla e in alcuni casi ci forza a farlo.
Le machine al lavoro, gli umani senza lavoro felici e contenti!
Partire dalla consapevolezza della non neutralità della tecnologia è il primo passo per poter esercitare un pensiero riflessivo, critico, sulle tecnologie oggi più avanzate come le intelligenze artificiali con le loro capacità di apprendimento e abilità transumane. Un primo passo reso urgente dalla pervasività delle intelligenze artificiali in ogni ambito e disciplina, dall’uso che ne viene fatto da produttori di tecnologie, agenzie governative e multinazionali, e dalla scarsa conoscenza che se ne ha. Una conoscenza limitata perché non tutti dispongono oggi delle informazioni utili a una maggiore comprensione del ruolo che le intelligenze artificiali avranno nel futuro umano anche perché non sanno come e dove reperirle per accedervi, leggerle e analizzarle.
L’impossibilità di avere le informazioni che servono per una valutazione personale è sempre accompagnata dalla richiesta implicita in ogni pratica tecnologica di (af)fidarsi allo strumento, alla piattaforma, alla Rete, al dispositivo ecc. Ma concedere la propria fiducia non è cosa da fare a cuor leggero, in particolare se la fiducia viene chiesta a prescindere in contesti nei quali la trasparenza è assente. La trasparenza che Facebook chiede a tutti, non a caso ogni profilo è associato a un nome e cognome, non è però contraccambiata. Nessuno o quasi sa come funzionano gli algoritmi, nessuno sa come e perché sono state implementate alcune funzionalità e non altre. Non lo sa perché non conosce e non ha accesso a nessuno dei tecnici, matematici, filosofi e psicologi che hanno pensato, sviluppato e implementato algoritmi, funzionalità e piattaforme. Non potendo fidarci di questi esperti, siamo chiamati a esprimere o a negare la nostra fiducia sulla base delle nostre esperienze con la tecnologia.
In queste esperienze ci siamo abituati ad affidarci, a metterci letteralmente nelle mani di strumenti tecnologici di cui sappiamo sempre meno. E’ di questi giorni la scoperta che alcune videocamere installate per garantire la sicurezza erano collegate e trasmettevano dati e informazioni a server cinesi. Chi le ha installate si è fidato delle competenze dei tecnici che le hanno proposte loro e poi installate. I tecnici che le hanno proposte e installate hanno fatto affidamento alle specificità tecniche e funzionali, sulle referenze e diffusione del prodotto sul mercato. Tutto senza assicurarsi che la fiducia fosse ben riposta e che il patto fiduciario fosse rispettato da tutti i contraenti.
Macchine, umani, fiducia
Come umani non sappiamo veramente mai cosa passa nella testa delle persone con le quali interagiamo. Non lo sappiamo perché tutto ciò che possiamo sapere è ciò che intuiamo o inferiamo speculativamente dalle parole e dalle azioni degli altri o da ciò che gli altri ci rivelano intenzionalmente. La diffusione di macchine e robot ha fatto aumentare l’ansia associata alla scarsa conoscenza che abbiamo degli altri, oggi anche nella forma di manufatti e artefatti tecnologici dotati di intelligenza artificiale e capacità di apprendere. Mentre possiamo credere di poter dedurre che i pensieri e le motivazioni degli altri siano in qualche modo simili o coerenti con i nostri, non posiamo fare la stessa cosa con le machine. Ne deriva un’ansia crescente legata all’inconoscibile che il funzionamento di queste macchine rappresenta. E poco importa se oggi molti sforzi legati allo sviluppo di intelligenze artificiali sono rivolti a renderle sempre più capaci di rassicurare, di ottenere fiducia e spiegare i metodi decisionali e di apprendimento utilizzati.
Il problema nasce dal fatto che ci viene chiesto di fidarci di artefatti, mentre la fiducia è fondamentalmente una cosa umana, nel senso che coinvolge persone in carne e ossa. La fiducia può essere tradita da un umano, non da una macchina costruita solo e soltanto per svolgere con efficacia ed efficienza il compito ad essa assegnato. Il fatto che nella vita quotidiana applichiamo la parola fiducia indifferentemente agli esseri umani e alle macchine non dovrebbe impedirci a cogliere e valutarne le differenze. E queste differenze sono sostanziali nel momento in cui si affrontano i temi dell’etica e di tecnologie etiche.
Se si fa questa semplice differenza si riesce a capire che antropomorfizzare le intelligenze artificiali, come stiamo facendo e siamo condizionati a fare, non ci aiuta a valutare di chi e/o cosa dobbiamo fidarci. Non ci aiuta neppure a ragionare su altri elementi etici quali la responsabilità, la consapevolezza, l’onestà delle persone coinvolte nello sviluppo delle tecnologie, in particolare delle intelligenze artificiali e degli algoritmi che le caratterizzano, ma anche dei Big Data, delle Reti degli Oggetti, delle interfacce, delle APP e delle piattaforme.
Mentre prolifera lo storytelling, spesso omologato e conformistico, sulle splendide e promettenti sorti dell’intelligenza artificiale, latitano alla grande riflessioni, narrazioni e contro-narrazioni con al centro le persone che al destino delle AI stanno lavorando. Persone alle quali Jerome Lanier ha rivolto da tempo un messaggio forte e chiaro di fermarsi per riflettere su ciò che sta succedendo e contribuire a costruire tecnologie più umane, più attente alle persone, entità fatte di elementi che le macchine non possono avere: intenzioni, empatia, stati mentali e cognitivi, emozioni, coscienza. A meno che non vogliamo lasciare ai posteri la responsabilità di ridefinire tutto questo nel loro essere, magari in un futuro prossimo neppure lontano, ibridati con la tecnologia. A quel tempo allora forse anche l’etica potrebbe avere definizioni completamente diverse e tenere conto del comportamento delle macchine come se fosse equiparabile a quello di un essere umano.
In un futuro dominato dalle machine e dalle intelligenze artificiali noi non ci saremo. Oggi abbiamo tutti la responsabilità etica di porci delle domande e porle anche a coloro che le nuove tecnologie le stanno sviluppando. Sviluppatori, nerd, esperti di machine learning e Big Data, di strumenti analitici e IoT, ecc. In assenza di regolamenti e normative finalizzate a validare se e quanto ci possiamo fidare delle tecnologie prodotte e dei loro produttori/creatori, non ci resta che continuare a dubitare, a non dare nulla per scontato, a fare domande, ad agire come San Tommaso, a decostruire messaggi e storytelling, a chiedere trasparenza e accountability, rispetto della privacy e della riservatezza, a contrastare ogni politica o pratica che usa la tecnologia per scopi di sorveglianza e controllo e molto altro ancora.
Un altro modo per riflettere è provare a supporre di vedersi rifiutata una assicurazione sanitaria come risultato di una valutazione del rischio fornita da un algoritmo, di vedersi rifiutato un mutuo per colpa di un algoritmo e che la banca non sappia spiegare perché e come quella decisione sia stata presa. Serve a riflettere anche supporre che la polizia provveda a un arresto preventivo sulla base di analisi condotte da algoritmi di intelligenza artificiale operativi su un supercomputer.
Come ci si potrebbe (af)fidare di questi algoritmi? Quali potrebbero essere i costi associati alle loro decisioni? Come fidarsi di algoritmi con processi decisionali così complessi che neppure i loro ideatori e costruttori sono più in grado di spiegare? La complessità di questi algoritmi sta creando innumerevoli black box che, visti gli ambiti sempre più eterogenei nei quali sono applicate le intelligenze artificiali, fanno aumentare la difficoltà a comprenderne comportamenti, scelte e decisioni, con potenziali pericoli determinati dalla perdita di controllo su di essi da parte degli umani.