Filosofia e tecnologia /

La tecnologia è il modo dell’umano di stare al mondo: difficile distinguere dove finisce l’una e inizia l’altro (Cosimo Accoto)

La tecnologia è il modo dell’umano di stare al mondo: difficile distinguere dove finisce l’una e inizia l’altro (Cosimo Accoto)

02 Ottobre 2020 Interviste filosofiche
Interviste filosofiche
Interviste filosofiche
share
Ogni trasformazione delle tecnologie porta con sé una ridefinizione dell’umano e, di conseguenza, di molti dei concetti che usiamo per dare senso al nostro essere al mondo, alla nostra storia e alla nostra natura. Dalle tecnologie biomediche e biometriche, agli strumenti di misurazione comportamentali e sociali, all’apparato tecnologico sensoriale innestato dentro gli ambienti e le ecologie, ogni nuova invenzione tecnologia ci ridefinisce.

 

Sei filosofo, sociologo, piscologo, studioso della tecnologia o semplice cittadino consapevole della Rete e vuoi partecipare alla nostra iniziativa con un contributo di pensiero? .

Tutti sembrano concordare sul fatto che viviamo tempi interessanti, complessi e ricchi di cambiamenti. Molti associano il cambiamento alla tecnologia. Pochi riflettono su quanto in profondità la tecnologia stia trasformando il mondo, la realtà oggettiva e fattuale delle persone, nelle loro vesti di consumatori, cittadini ed elettori. Sulla velocità di fuga e volontà di potenza della tecnologia e sulla sua continua evoluzione, negli ultimi anni sono stati scritti numerosi libri che propongono nuovi strumenti concettuali e cognitivi per conoscere meglio la tecnologia e/o suggeriscono una riflessione critica utile per un utilizzo diverso e più consapevole della tecnologia e per comprenderne meglio i suoi effetti sull'evoluzione futura del genere umano.

Su questi temi SoloTablet sta sviluppando da tempo una riflessione ampia e aperta, contribuendo alla più ampia discussione in corso. Un approccio usato è quello di coinvolgere e intervistare autori, specialisti e studiosi che stanno contribuendo con il loro lavoro speculativo, di ricerca, professionale e di scrittura a questa discussione.


In questo articolo proponiamo l'intervista che Carlo Mazzucchelli  con Cosimo Accoto, Visiting Scientist presso il Sociotechnical Systems Research Center del MIT di Boston e autore del libro Il Mondo Dato, recentemente pubblicato da Egea. 

Buongiorno Cosimo, puoi raccontarci qualcosa di te, della tua attività attuale, del tuo interesse per le nuove tecnologie e del perchè con una formazione filosofica sei arrivato a occuparti di tecnologia?

Mi sono laureato a Pavia in Filosofia scegliendo, in maniera eccentrica rispetto ai percorsi di laurea al tempo più canonici, come relatore e mentore Luigi Zanzi, recentemente scomparso. Avvocato, alpinista, federalista, storiografo e metodologo, Luigi Zanzi è stata una figura centrale nella mia formazione speculativa. Un pensatore geniale i cui corsi (e la cui mente) spaziavano da Machiavelli a Prigogine, da Darwin a Marx, da Ceccato a Geymonat (l’epistemologo che ha portato in Italia la scuola e la tradizione della filosofia della scienza da cui arrivano i maggiori nomi del nostro pensiero filosofico e scientifico da Giorello a Mangione, da Veca a Vegetti per citarne alcuni).

Proprio su Geymonat preparai il mio lavoro di tesi centrato sull’evoluzione del concetto di “patrimonio scientifico-tecnico”. Geymonat, lo ricordiamo anche come coordinatore di quell’opera monumentale, a più volumi, che è “la storia del pensiero filosofico e scientifico”. Dunque, epistemologia e storiografia, cosmologia e scienze della terra, fisica e filologia, giurisprudenza e tecnologia (per dirne alcune) sono state le discipline con cui, nel lungo corso del nostro rapporto, ci siamo confrontati con Luigi Zanzi, anche lui per altro allievo e molto vicino alla riflessione neo-razionalista di Geymonat.

A questi fondamenti speculativi scientifico-tecnici, si è accompagnato poi un percorso professionale che mi ha portato a occuparmi di software, piattaforme, dati e analytics e, quindi, di scienza e tecnologia immersa nel mondo del business lavorando tra aziende di sviluppo codice e software, multinazionali delle ricerche di mercato e data intelligence e, da ultimo, società di consulenza strategica di management. Infine, in questi ultimi due anni, devo citare la decisione e poi l’opportunità che mi è stata offerta di trascorrere un periodo sabbatico come visiting scientist all’MIT di Boston presso il Sociotechnical Systems Research Center.

Un periodo prima pensato come momento riservato alla scrittura del nuovo libro e poi prolungatosi inaspettatamente ancora per tutto il 2017. Questa nuova fase sta consolidando e accelerando in me questo connubio latente filosofia e tecnologia che ho sempre coltivato. Il mio ultimo libro, “Il Mondo Dato” rappresenta l’esito più avanzato di questa commistione tra pratica tecnologica e riflessione filosofica, mix che individua un tratto significativo della mia persona.

Mi piace poi portare questi discorsi dentro la società contemporanea attraverso conferenze e convegni in cui provo a lanciare a pubblici diversi, dentro arene pubbliche, le mie provocazioni sulla necessità di guardare ai fenomeni tecnologici attraverso la lente della filosofia. L’ho fatto, ancora recentemente, con gli architetti dell’informazione, con avvocati e giuristi, con designer di servizi e piattaforme, con manager della comunicazione e del marketing. Devo dire che mi sono preso dei rischi nel fare ciò, ma i risultati mi hanno dato ragione.

Queste uscite suscitano sempre un grande successo di curiosità, interesse e apertura nonostante le provocazioni, come dicevo, le prospettive un po’ spaesanti e i concetti non facili da digerire. Segno che c’è necessità e voglia di affrontare questi temi anche con più profondità di quanto di solito non accada. 

 

Secondo il filosofo Slavoj Zizek viviamo tempi alla fine dei tempi (Vivere alla fine dei tempi). Quella del filosofo sloveno è una riflessione sulla società e sull'economia del terzo millennio ma può essere estesa anche alla tecnologia e alla sua volontà di potenza (il technium di Kevin Kelly in Quello che vuole la tecnologia) che stanno trasformando il mondo, l'uomo, la percezione della realtà e l'evoluzione futura del genere umano. La trasformazione in atto obbliga tutti a riflettere sul fenomeno della pervasività e dell'uso diffuso di strumenti tecnologici ma anche sugli effetti della tecnologia. Qual è la sua visione attuale dell'era tecnologica che viviamo e che tipo di riflessione dovrebbe essere fatta, da parte dei filosofi e degli scienziati ma anche delle persone?

Conosco le provocazioni apocalittiche di Zizek e gli slanci futuristici di Kelly. In genere, indulgere in tesi millenaristiche è un espediente retorico affascinante e può servire, indubbiamente, a catturare un’attenzione pubblica più vasta e a stimolare molti. Poi, naturalmente, bisogna entrare nell’argomentare che è più faticoso e meno netto di una dichiarazione visionaria.

Il mio sguardo argomentativo sulla dimensione scientifico-tecnologica contemporanea deve molto a quel recente movimento di analisi critica culturale (soprattutto di tradizione americana) che va sotto il nome di software studies. Non ricordo più bene esattamente quando è avvenuto questo incontro, ma lo daterei a circa un decennio fa. Direi a partire dalla scoperta del libro e della prospettiva di Lev Manovich, “Il linguaggio dei nuovi media” e dalla sua idea di esplorare la dimensione mediale contemporanea a partire dalla rivoluzione del codice software.

Il suo tentativo di analizzare la natura e la dinamica dei “media after software” mi colpì molto: digitalità, codice, algoritmi e poi anche interfacce e piattaforme. Da quella sua riflessione embrionale nacque un vero e proprio movimento di ricerca che diede anche origine ad una collana di MIT Press dedicata, appunto ai “software studies”. Iniziai letteralmente a divorare i molti volumi di quella serie, a seguirne gli autori, a connettermi con loro, a dialogare e crescere nella riflessione, a scrivere e analizzare di questa dimensione tecnologica. A partire dal Software Studies Lexicon del 2008, un testo che raccoglieva le voci di questo nuovo vocabolario culturale del codice, passando per Code/Space del 2011 fino a recente The Stack del 2016 che presenta una visione allucinata e visionaria della società tecnologica.

L’idea di partenza dei software studies è che occorra mettere seriamente al centro, anche criticamente quando occorra farlo, della riflessione culturale (sociale, politica, etica e psicologica) quella tecnologia contemporanea molto potente che è il codice software e le sue concrezioni (dispositivi, device, piattaforme…). L’obiettivo è di far uscire dall’invisibilità questa sorta di inconscio tecnologico (il codice) tanto pervasivo quanto poco valutato nei suoi impatti. L’invisibile visibile, come lo definisce la filosofa Wendy Chun.

Segnalo anche, una per tutte, la rivista online “Computational Culture” che va sempre in questa direzione. Nel frattempo questo approccio si è ampliato e molti saggi vengono oggi prodotti e scritti con questa prospettiva. Ad esempio, l’ultimo libro di Finn, What Algorithms Want (MIT Press, 2017) è un bell’esempio di analisi culturale e speculativa sulla natura filosofica degli algoritmi (con tutte le ripercussioni connesse, dalla psicologia alla politica). Ti riporto una bella frase del libro: “Gli algoritmi ci offrono la salvezza a patto che accettiamo le loro condizioni del servizio”.

Conoscendoti un po’, immagino che questa frase ti possa trovare interessato. Concordo che la conoscenza pubblica sia poca e dal loro canto i media tendono a enfatizzare (e banalizzare) le vicende più critiche legate alle nuove tecnologie o, viceversa a supportare, con un hype ingiustificato, tutto il nuovo tecnologico che avanza. Il contributo della filosofia può rappresentare, credo fortemente in questo, un grande stimolo alla crescita di consapevolezza delle molte opportunità, ma anche delle non poche “vulnerabilità” (preferisco questo termine a quello di rischio).

 

 

Miliardi di persone sono oggi dotate di smartphone usati come protesi tecnologiche, di display magnetici capaci di restringere la visuale dell'occhio umano rendendola falsamente aumentata, di applicazioni in grado di regalare esperienze virtuali e parallele di tipo digitale. In questa realtà ciò che manca è una riflessione su quanto la tecnologia stia cambiando la vita delle persone (High Tech High Touch di Naisbitt) ma soprattutto su quali siano gli effetti e quali possano essere le conseguenze.  Il primo effetto è che stanno cambiando i concetti stessi con cui analizziamo e cerchiamo di comprendere la realtà. La tecnologia non è più neutrale, sta riscrivendo il mondo intero e il cervello stesso delle persone. Lo sta facendo attraverso il potere dei produttori tecnologici e la tacita complicità degli utenti/consumatori. Come stanno cambiando secondo te i concetti che usiamo per interagire e comprendere la realtà tecnologica? Ritieni anche tu che la tecnologia non sia più neutrale?

Sui rapporti tra filosofia e tecnologia nel pensiero occidentale esiste una lunga letteratura: dai rapporti tra “Platone e le tecniche” (mi ricordo ancora le riflessioni e le discussioni fatte con Mario Vegetti sul punto), passando per Marx e il suo “frammento sulle macchine” (venuto nuovamente alla ribalta in relazione all’automazione e all’intelligenza artificiale), transitando per le “tesi pro-vocative” sulla tecnica di Heidegger fino alla prospettiva di Foucault col suo concetto di “dispositivo” (che ha nutrito generazioni di filosofi post-strutturalisti) e alla “farmacologica della tecnica” di Stiegler a cui Aut Aut ha dedicato una recente monografia a fine 2016.Per citarne alcuni e facendo torto a molti altri.

La mia idea di fondo è che tecnologia è il modo dell’umano di stare al mondo al punto che è difficile distinguere dove finisce l’una e inizia l’altro. Dalla scheggia di silice al chip di silicio, la dimensione umana coevolve e si ridefinisce con quella tecnologica. Anche arte, politica, economia, scienza anch’esse rappresentano delle “tecnologie” (più o meno strumentali, più o meno astratte, più o meno visibili) con cui l’Antropocene, l’era dell’uomo su questo pianeta, si viene svolgendo.

La tecnologia, dunque, come “tecnicità originaria” (quindi non solo strumentale ed esterna) che è un tutt’uno con l’antropogenesi. In questo senso, fatico a riconoscere “uno stato di natura” che sarebbe corrotto dalle tecnologie, che è il pensiero di alcuni: il pensiero negativo protesico non fa parte del mio corredo culturale. Di conseguenza e per altro verso, in questa prospettiva, certamente la tecnologia non può più neppure essere pensata solo come strumentalità realizzata non partecipe anche della “costituzione dei fini” – direbbero Derrida e Stiegler.

E, dunque, a maggior ragione avverto anch’io la necessità di stimolare la riflessione collettiva su che tipo di “umano” e di “umanità” sta co-emergendo con l’arrivo delle tecnologie di rete, digitali, algoritmiche e, da ultimo, artificiali. A maggior ragione se, come hanno rilevato gli autori di The Ethics of Technology (2017), anche linguisticamente e nei dizionari, stiamo assistendo storicamente e pericolosamente ad uno slittamento: da tecnologia come “conoscenza sistematica degli strumenti” a tecnologia come “pratiche e strumenti” (lasciando da parte la dimensione della conoscenza e della riflessione). Lo dicono proprio gli autori di questo saggio dedicato alle implicazioni etiche delle innovazioni tecnologie emergenti, non è un mio timore o una mia impressione.

Ogni trasformazione delle tecnologie porta con sé una ridefinizione dunque dell’umano e, di conseguenza, di molti dei concetti che usiamo per dare senso al nostro essere al mondo, alla nostra storia e alla nostra natura. Dalle tecnologie biomediche e biometriche, agli strumenti di misurazione comportamentali e sociali, all’apparato tecnologico sensoriale innestato dentro gli ambienti e le ecologie, ogni nuova invenzione tecnologia ci ridefinisce. Pensa al telescopio o al microscopio e a cosa ha comportato in termini di visione del mondo e dell’umanità su questo pianeta. E paragona quelle rivoluzioni tecnologie e del pensiero con quello che sta per accadere con la rivoluzione in arrivo dell’intelligenza artificiale. Per molti, l’AI si appresta a diventare - come dicono gli economisti e gli storici - una general purpose technology come lo furono all’epoca l’elettricità e il motore a combustione.

 

Secondo il filosofo francese Alain Badiou ciò che interessa il filosofo non è tanto quel che è ma quel che viene. Con lo sguardo rivolto alla tecnologia e alla sua evoluzione, e in base al tuo lavoro esplorativo e speculativo, quali sono i possibili scenari futuri che stanno emergendo e quale immagine del mondo futuro che verrà ci stanno anticipando?

Proprio uno degli ambiti professionali e speculativi al tempo stesso a cui mi sto interessando e che sto affrontando, in questi mesi di estensione del mio visiting qui al MIT è quello dell’intelligenza artificiale. In occasione di un recente keynote ad un evento, ho lanciato alla community degli architetti dell’informazione una provocazione costruttiva.

L’architettura si sta muovendo - dicono gli esperti - dallo schermo (mobile) al mondo (ubiquo) e penso che questa indicazione sia corretta. Ma, credo anche, che non possiamo limitarci a questo. Dobbiamo cominciare a ragionare anche sul tipo di mondo (e di informazione) che le nuove tecnologie algoritmiche e artificiali stanno costruendo. La mia ipotesi provocatoria è che le nuove tecnologie stiano costruendo un mondo in cui l’informazione comincia a fluire, sistematicamente, dal futuro al presente e non più dal passato al presente come è stato finora. Usando sensori, dati e algoritmi di intelligenza artificiale, siamo cioè in grado di intercettare l’informazione relativa a quello che sta per accadere e usare questa informazione per disegnare e progettare servizi in modalità anticipatoria (e non solo posticipata e responsiva).

I filosofi digitali più avanzati parlano, più specificamente, di struttura tecnologica che sta facendo emergere un mondo a “feed-forward” (penso ad Hansen e al suo libro intitolato proprio Feed-Forward). Siamo abituati al concetto di feed-back, meno al concetto di feed-forward, ma è un’idea che comincia a diventare centrale nelle infrastrutture mediali contemporanee. Per fare un esempio, sempre al convegno ho discusso dell’episodio di un vero incidente che ha rischiato di coinvolgere a dicembre 2016 un’auto Tesla. Cosa è accaduto? Un’auto intelligente Tesla in corsa ha cominciato a rallentare improvvisamente. Il passeggero si è stupito, tutto gli sembrava in realtà tranquillo. Dopo pochi secondi, le due auto che la precedevano si sono scontrate in un incidente grave. Cosa voglio dire con questo racconto? L’auto Tesla ha “intuito” in anticipo - lo dico in maniera semplificata - quello che stava per succedere alle due auto che la precedevano e, sapendo questo, è riuscita ad allertare l’inconsapevole passeggero, rallentare automaticamente e salvarlo da un pericoloso coinvolgimento nell’incidente.

È solo l’ultimo degli esempi reali di un’ontologia a feed-forward in cui cioè l’informazione comincia a fluire dal futuro al presente (uso il termine “oracolare” per questa prospettiva previsionale) e non più, come è stato finora, dal passato al presente (con la classica prospettiva “archivistica”). Da archivio a oracolo: sensori, reti, dati e intelligenza artificiale stanno costruendo, dunque, una nuova architettura dell’informazione anticipata (a feed-forward, appunto) che ho caratterizzato con 5 dimensioni chiave (le 5 A). Se guardiamo con una visione un po’ di medio e lungo periodo all’evoluzione della progettazione di servizi e piattaforme, con l’arrivo dell’internet delle cose, robot e assistenti artificiali, accessori smart indossabili e così via dovremo immaginarci un’architettura dell’informazione che, agendo in maniera anticipatoria sui comportamenti e sui bisogni dell’utente, ha caratteri peculiari.

Pensa sempre al caso dell’architettura tecnologica dell’informazione della Tesla di cui dicevo prima. È anticipata (costantemente impegnata a simulare e predire contesti, comportamenti e obiettivi in strada), è anonima (sottopercepita dal passeggero e non attenzionata dall’umano se non a posteriori), è automatizzata (abilitata da processi sofisticati e intelligenti a controllo macchinico), è alienata (in grado di agire con livelli di autonomia e di decision-making crescente), è atmosferica (capace di supportare il viaggiatore incrociando scale macro -le reti- e micro -i sensori- in maniera pervasiva).

 

Secondo alcuni, tecnofobi, tecnopessimisti e tecnoluddisti, il futuro della tecnologia sarà distopico, dominato dalle macchine, dalla singolarità di Kurzweil e da un Matrix nel quale saranno introvabili persino le pillole rosse che hanno permesso a Neo prendere coscienza della realtà artificiale nella quale era imprigionato. Per altri, tecnofili, tecnoentusiasti e tecnomaniaci, il futuro sarà ricco di opportunità e nuove utopie/etopie. Nel tuo libro mi sembri collocarti tra i tecnofili. E' un'impressione corretta o forse è più corretto catalogarti, sempre che sia necessario farlo, tra i tecnocritici e tra coloro che richiamano e suggeriscono lo sviluppo di pensiero critico e l'acquisizione di conoscenze utili ad una maggiore consapevolezza?

Non amo le etichette, in generale. Credo siano delle scorciatoie facili per evitare di entrare nella discussione delle questioni e di argomentare.

Ti rispondo continuando il discorso e l’esempio precedente per poi arrivare al punto. Naturalmente non mi nascondo le complessità e criticità tecnologiche, economiche, politiche e psicologiche di un passaggio di paradigma di questa portata. Per richiamare le principali: la tecnologia “oracolare” è ancora immatura e le nostre previsioni sono comunque probabilistiche e non facili, il sistema economico è ancora orientato nei suoi meccanismi al feed-back e non al “feed-forward” e, da ultimo, noi stessi come persone avremo bisogno di familiarizzare con nuove dinamiche sociali, politiche e culturali (fiducia, privacy, trasparenza, identità digitale e così via). 

La strada mi sembra sia tracciata: saremo istanziati dal futuro e non più residuati dal passato, per dirla in maniera più filosofica. E credo, tuttavia, che questa tecnologia possa potenzialmente aiutarci a gestire meglio la nostra incertezza rispetto al futuro (ad esempio, guidare in maniera più sicura come nel caso della Tesla che richiamavo prima). Un articolo di dicembre 2016 su Harvard Business Review ha colto il punto chiave di questa mia prospettiva filosofica dal lato del business. L’intelligenza artificiale, ha scritto HBR, è fondamentalmente “una tecnologia della predizione”. E, aggiunge, in futuro molte delle nostre attività saranno ridisegnate come “problemi di predizione”. Faccio un altro esempio concreto recente.

Una ricercatrice americana ha inserito nella casa dei genitori ultranovantenni sensori che sono in grado di rilevare il movimento e la velocità con cui i due si muovono per casa. Perché? La risposta sta nel fatto che, in alcuni pilot precedenti, è stato verificato che un rallentamento nella velocità di deambulazione di 5 cm/al secondo implica una probabilità dell’86% di caduta in casa nelle 2/3 settimane successive. Con questa informazione che ci proviene dal futuro, possiamo costruire pratiche e servizi in grado di contrastare o ridurre rischi e spese mediche. Per dare una cifra: le cadute in casa costano circa 2.3 miliardi alla sanità inglese. In questo caso abbiamo trasformato un’attività (intervento di soccorso ospedaliero) in un problema di predizione (so che una caduta sta per accadere e intervengo anticipatamente). Quindi, non più solo sensori che rilevano in tempo reale che i pazienti sono caduti, ma che calcolano, anticipano e allertano della caduta che potrebbe avvenire.

Certamente, queste tecnologie presuppongono un’economia, una società, una politica che sia in grado di orientare per il bene dell’umanità questi sviluppi. Questo credo sia il punto chiave vero. E non solo per quanto concerne temi caldi come il rischio per la protezione della privacy e il temuto impoverimento cognitivo legato alle nuove tecnologie protesiche. L’intelligenza artificiale pone anche una questione legata alla potenziale perdita di posti di lavoro. Alcuni studi economici parlano di cancellazione del 50% dei lavori a causa dell’automazione, di robot e algoritmi. Altri più ottimisti si limitano ad un più contenuto 10%. In ogni caso, è sul tavolo di governi e istituzioni il tema della “disoccupazione tecnologica”, tema critico che abbiamo già incrociato in altre rivoluzioni industriali e che ci troveremo, certamente, a riaffrontare nei prossimi mesi e anni anche con la cosiddetta “quarta rivoluzione industriale”.       

 

L'elemento più interessante del tuo libro è secondo me l'idea che il codice software debba essere considerato, per la sua carica disruptive e paradigmatica, alla pari della scrittura, della stampa e di Internet. Ciò che impressiona oggi non sono tanto le novità software quanto l'evoluzione di componenti software sempre più intelligenti, capaci di apprendere e adattarsi, di integrarsi e interagire tra di loro, come se fossero neuroni in cerca di sinapsi, di ereditare e trasmettere informazioni, codici e messaggi, di sparire (miniaturizzarsi) alla vista e alla percezione umana ma diventandone al tempo stesso una parte essenziale (Oculus Rift e altri strumenti di Realtà Virtuale e Aumentata). E' un'evoluzione/rivoluzione che ha determinato secondo lei l'affermarsi di un inconscio tecnologico capace di dominare le nostre vite. Ci puoi descrivere questa rivoluzione del software e del ruolo che sta giocando nell'evoluzione mentale (conscia e inconscia), culturale e sociale del genere umano?

Si, certamente. L’intento principale del libro è stato quello di raccontare al più vasto pubblico possibile questa condizione di immersione nel codice di cui siamo protagonisti, spesso, inconsapevoli. Ho scritto che siamo, di fatto, nella stessa condizione di Neo, l’eroe del film Matrix, prima che decida di ingerire la pillola rossa che gli permetterà di vedere, con i suoi occhi, il codice che simula il mondo.

Come Neo, siamo circondati da codice che, però, non vediamo. Ci rimane opaco il software che anima le nostre istituzioni, che organizza le nostre città, che ritma le nostre vite, che tiene al sicuro i nostri soldi, che cura le nostre malattie, che ci fa conoscere l’anima gemella attraverso una piattaforma di incontri online. O che, per converso, mette in pericolo la nostra stessa esistenza. In molti, oggi, concordano che se l’elettricità e il motore a combustione hanno reso possibile la società industriale, in maniera analoga il software sta disegnando e costruendo il nuovo modo di essere del nostro mondo – l’ontologia dice Jarzombeck autore di Digital Stockholm Syndrome in the Post-Ontological Age (2016) – della nostra società e del nostro futuro. Se n’è accorta, di recente, anche General Electrics che, da società impegnata da oltre 120 anni in comparti produttivi quali la componentistica per l’aviazione civile e militare, gli impianti per l’estrazione e il trasporto di petrolio e gas, i sistemi per la diagnostica medica e le tecnologie biofarmaceutiche, si sta trasformando in una società orientata al e dal software (software-driven come dicono gli specialisti). Questo cambiamento è stato così improvviso e accelerato che Jeffrey Immelt, Ceo di GE, ha raccontato in un suo recente intervento di come possa accadere di addormentarti la sera che sei un’azienda industriale e risvegliarti al mattino che sei diventata una società che sviluppa software.

Per analizzare filosoficamente il software non basta, tuttavia, essere in grado tecnicamente di leggerlo o saper vedere che cosa è in grado di produrre o riuscire a interpretare i perché sociali ed economici del suo sviluppo oppure ancora a individuarne la corretta categoria giuridica. Dobbiamo capire in profondità il senso e la natura del suo essere e, meglio ancora, la sua ontogenesi, cioè come il software diventa quello che «è». È, di fatto, il linguaggio con cui, oggi, “scriviamo il mondo” e che detta le condizioni di possibilità delle nostre esperienze. Ma è un tipo particolare di linguaggio. Ha la caratteristica di essere «eseguibile». Anzi, per alcuni è l’unico linguaggio che ha questa capacità. Mentre il linguaggio naturale che usiamo normalmente produce cambiamenti nella mente e nel comportamento delle persone (con esito incerto, aggiungerei), il codice, una volta predisposto perché funzioni correttamente, è un linguaggio che produce esattamente gli effetti che sono iscritti. È una strumentalità realizzata che fa accadere cose ed eventi nel mondo, un mondo che perciò diviene “programmabile”.

 

Affermare come fai, citando Manovich, che il software è al comando (si sta mangiando il mondo), unitamente alla pervasività di innumerevoli dispositivi tecnologici, sensori, Internet degli oggetti, Big Data e Cloud Computing, suggerisce una riflessione più ampia della semplice tecnologia applicata alle attività umane. Ad esempio pone il problema di chi possiede e governa questo software, oggi sempre più nelle mani di quelli che Evgeny Morozov chiama i Signori del silicio. Pone il problema della privacy e della riservatezza dei dati ma anche quello della complicità conformistica e acritica degli utenti/consumatori nel soddisfare la bulimia del software e di chi lo gestisce (si potrebbe citare a questo proposito La Boetie e il suo testo Il Discorso sulla servitù volontaria). Cosa ne pensi?

Non a caso, l’ultimo capitolo del mio libro è dedicato al tema complesso del rapporto tra “software” e “sovranità”. E anche qui, per chi volesse, c’è un libro rilevante (anche nelle dimensioni con le sue oltre 500 pagine) che si intitola The Stack

Il codice è una scrittura eseguibile del mondo, produce azione sulla nostra vita e sulla nostra realtà. Ha la capacità di far accadere le cose. Se ci pensiamo bene, questa è proprio una delle prerogative fondative della «sovranità». E, in ultima analisi, del potere. In effetti, abbiamo parlato poco fa di presa del controllo da parte del software. Certamente non si tratta più solo del governo inteso in termini giuridici, contrattualistici o biopolitici, ma sempre più di esercizio del potere e della sovranità in termini “protocologici” (Ndr: gli hacker sono considerati “attori protocologici”in grado di mettere in discussione il “protocollo” portandolo ad uno stato ipertrofico) e “algoritmici”. E, anzi, sempre più le tradizionali dimensioni di governo del sé e del sociale cominciano a essere sussunte e riassorbite da forme di gestione e modulazione (e i più pessimisti dicono, di controllo e sorveglianza) software-driven.

È l’idea di una computazione che governa oggi sempre più su scala planetaria. Computazione che non è solo una questione di codice, dati, sensori, architetture, macchine intelligenti, ma che si allarga a comprendere e ridisegnare questioni geo-filosofiche, geo-politiche, geo-giurisdizionali e geo-economiche. In questa prospettiva, il software va analizzato nella recente forma ontologica che ha assunto: la “piattaforma”.

Google, Facebook e molte altre società centrate sul software sono in realtà delle piattaforme che hanno un grande impatto (nuove forme di sovranità) economico, sociale, politico e culturale. Per fare qui un esempio concreto di questa conquista di sovranità «politica» delle piattaforme (e non solo nei social network), prendiamo i servizi di cartografia, un tempo ambito di potere e logiche di controllo di stati e nazioni - e, come sanno bene i cartografi, chi mappa un territorio lo domina. Oggi sempre più applicazioni e servizi di mappatura e geolocalizzazione sono prerogativa di piattaforme private (alla Google Maps, per intenderci). Il servizio di Google Maps che ci consente di visualizzare lo spazio attraverso le sue mappe digitali, aggiornate in tempo reale, connesse alle tecnologie in cloud e ai social network ha, di fatto, la “sovranità” su quei movimenti, sulla localizzazione e il posizionamento dell’utente nel percorso, sull’interpretazione di quello spazio attraverso le informazioni trasmesse e visualizzate sul device. E, da ultimo, governa le modalità cognitive (fotografiche e insieme cartografiche) che implicitamente veicola. La questione che poni, non di poco conto, è: dentro queste piattaforme cosa accade?

Si tratta di schiavitù volontaria? Si può parlare di lavoro immateriale? È in atto una cocreazione di valore? La posizione di Morozov è chiara, ha guadagnato consensi nel tempo e non è priva di fondamenti. Ha ricevuto, però, anche delle critiche e non solo da destra, per così dire. Alcuni temono che il “soluzionismo” morozoviano faccia dimenticare che le nuove tecnologie, oculatamente progettate, possano essere risolutive dei problemi dell’umanità e del pianeta. Per me il punto importante è che tutte le posizioni critiche, che provengano da destra quanto da sinistra, intorno alle tecnologie lo siano per poter costruire soluzioni tecnologiche ancora migliori e non per uno spirito di chiusura e resistenza aprioristica verso l’evoluzione scientifica e tecnologica in quanto tale.

 

 

Il software, come un attore protagonista del palcoscenico tecnologico attuale, si manifesta in varie forme. Quella più interessante e intrigante prende la forma dell'algoritmo. Algoritmi sono quelli della personalizzazione di Google, della trasparenza di Facebook o dell'autorevolezza di Amazon. La pervasività degli algoritmi nella vita sempre più online delle persone pone numerosi problemi, tutti interessanti per un filosofo quali la libertà individuale (non solo di scelta), la democrazia, l'identità, ecc. Qual è secondo te il ruolo degli algoritmi e in che modo stanno trasformando il mondo?

Prendiamo, per tenerci legati alla domanda precedente, proprio la questione degli algoritmi. Per chi ha seguito un percorso di studi di computer science qualche tempo fa, parlare di algoritmi significava occuparsi di design di programmi software più efficienti, libri e articoli complessi pieni di formule astratte, problemi matematici, il tutto condito con compilatori, librerie, specifiche e documentazione, stati di funzionamento di macchine e dispositivi. Tutto a un tratto, da discorsi e pratiche di nicchia gli algoritmi sono arrivati al centro del dibattito pubblico, familiare quanto collettivo, in positivo e in negativo. Soprattutto negativo, di questi tempi. Gli algoritmi infatti non godono oggi di buona stampa. Alcune analisi di casi – potremmo definirli di “discriminazione algoritmica” – hanno raggiunto anche la grande stampa e la discussione politica, sollevando la questione della correttezza, dell’equità e della positività sociale dell’impiego di algoritmi che filtrano, raccomandano, mettono in priorità, classificano dati e informazioni.

In ogni caso, si va verso la presa di consapevolezza della necessità di un’accountability e di un auditing degli algoritmi (cioè di una conoscenza responsabile, condivisa e più trasparente). Alcune analisi mostrano, in effetti, che gli algoritmi possono discriminare anche quando e anche se non c’è scopo discriminatorio nelle intenzioni dei loro sviluppatori.

I bias algoritmici possono dipendere, ad esempio, dalle banche dati usate o dagli attributi scelti come variabili per le correlazioni. Possono amplificare discriminazioni esistenti rinforzando stereotipi e pregiudizi tanto quanto crearne di nuove e inaspettate. Sul punto è tornato a insistere a settembre 2016 anche un articolo della rivista scientifica Nature, che ha sostenuto appunto l’urgenza di una maggiore trasparenza e simmetria algoritmica. E a ragion veduta. Di fatto, stiamo entrando in un mondo in cui gli algoritmi non sono più semplicemente delle istruzioni che devono essere eseguite, ma sono diventati delle entità performanti che selezionano, valutano, trasformano e producono dati e conoscenza, in maniera deterministica o esplorativa.

Occorre allora lavorare per una algorithmic fairness come cominciano a chiamarla gli esperti di design dei meccanismi di calcolo computazionale. Con un’avvertenza, però che complica non poco e che è legata agli algoritmi di machine learning e deep learning (per intenderci quelli che sono all’origine del successo dell’intelligenza artificiale delle automobili che si guidano da sole), l’apprendimento automatico che lavora imparando, in maniera non prevedibile e conoscibile, dall’esperienza e dai suoi dati. Quando il mio istituto di credito individua come sospetta, attraverso una procedura algoritmica, una spesa fatta con la mia carta e la mette in sospensione di sicurezza, spesso non è in grado di spiegare completamente perché l’algoritmo di machine learning ha considerato sospetto quell’uso della carta. Anche la richiesta, giusta, allora di forzare la trasparenza degli algoritmi, permettendo a cittadini e consumatori di comprendere la logica e la dinamica con cui lavorano a classificare, filtrare, suggerire e da ultimo comprendere e interpretare il mondo, pur necessaria potrebbe non essere sufficiente.

 

 

In un libro di Finn Brunton e Helen Nissenbaum, che io ho trovato molto interessante (Offuscamento. Manuale di difesa della privacy e della protesta), si descrivono le tecniche che potrebbero essere usate per ingannare, offuscare e rendere inoffensivi gli algoritmi. Se ho capito bene invece tu suggerisci di comprendere meglio software e algoritmi per poterne sfruttare meglio le opportunità. Non credi anche tu che dovremmo imparare a difenderci dalla intrusività degli algoritmi?

Il manuale tecnico scritto da Brunton e Nissenbaum ha l’obiettivo di propone l’offuscamento come deliberata costruzione di informazioni ambigue, confuse, fuorvianti, al fine di interferire con la sorveglianza e la raccolta dei dati. Dalle strategie militari passando da quelle tattiche animali fino alle tecniche di resistenza passiva degli attivisti, l’offuscamento si propone come una forma politica e civile di resistenza. Non dico che in taluni casi e forme, possa trovare il suo spazio legittimo soprattutto a fronte di casi e situazioni di pesante asimmetria informativa. Tuttavia, queste tecniche di offuscamento rappresentano, dalla mia prospettiva, una strategia protettiva difensiva alla lunga forse non proprio efficiente, soprattutto dal punto di vista dell’evoluzione della società e dell’impatto positivo che possono avere l’informazione e i dati sulla qualità della vita e il benessere dei singoli. E se ci pensiamo bene, in fondo, staremmo rispondendo con l’opacità e l’invisibilità all’opacità e invisibilità del codice e degli algoritmi oppure fake news contro fake news per dirla facile invece di chiedere trasparenza e simmetria.

La nostra opacità contro la loro lasciando intendere che non si possa fare e operare altrimenti. D’altro canto, poter conoscere lo stato di salute dei cittadini potrebbe essere utile per costruire delle politiche sanitarie più efficienti a beneficio di tutti. E dunque, come fare? Il professor Pentland, che ha scritto la prefazione al mio libro, porta avanti una prospettiva a favore degli open algorithms e parla di internet of trusted data. Il modello si articola in quattro fondamentali principi strategici e operativi:

a) una robusta identità digitale, vale a dire la creazione di entità digitali certificate e sicure o personas che siano associate a differenti set personali di dati validati (il mio io digitale lavorativo, quello della salute, quello da cittadino e così via) ai quali ciascuno di noi potrà accedere e che ciascuno di noi potrà verificare e decidere di condividere con terze parti;

b) una rete distribuita di autorità fiduciarie in grado di implementare un grado di consenso sicuro su dati e decisioni, magari utilizzando la logica del registro distribuito e sicuro della blockchain;

c) un sistema distribuito di computazione e calcolo protetto in cui siano gli algoritmi – messi a disposizione in forma open e leggibile – ad andare verso i dati (e non viceversa, diminuendo il rischio di attacchi) che devono essere preservati sempre in forma criptata;

d) la possibilità di un accesso universale, controllato dai cittadini e da policy di sicurezza, ai dati personali fruibili attraverso interfacce e device che ne facilitino l’utilizzo a beneficio dei singoli e della collettività.

 

Il tuo libro è così ricco di stimoli che l'intervista potrebbe proseguire a lungo, senza essere mai esaustiva. eppure bisogna arrivare a una conclusione. Ti chiedo allora di evidenziare quali siano secondo te i temi principali sui quali ha voluto richiamare l'attenzione, a chi si rivolge e in che modo il tuo libro potrebbe servire a tutti per prepararsi meglio al futuro tecnologico che ci attende. Un futuro che tutti dovrebbero sperare non essere quello di Matrix, di Circle o di Minority Report!

Guardando ora a ritroso il percorso fin qui fatto, mi sembra di poter dire che tre sono le dimensioni chiave su cui ci siamo confrontati in merito al nostro futuro digitale e artificiale: la programmabilità, l’invisibilità, la sovranità.

Sensori, dati, algoritmi, intelligenza artificiale e piattaforme condividono, sia pure in gradi e scale diversi, tutte e tre queste dimensioni. Programmando sovranamente e invisibilmente la nostra nuova realtà, queste tecnologie stanno ridefinendo in profondità concetti e prospettive filosofiche (dall’antropologia all’ontologia, dall’etica all’epistemologia) e con esse la nostra comprensione del mondo. Governare una società vulnerabile – che ha l’ontologia che abbiamo ricostruito nel corso di questa intervista – non è e sempre più non sarà un’operazione semplice. Certamente avremo bisogno di sviluppare al nostro meglio un’etica della vulnerabilità e un’etica dei dati. Ora, però, riusciamo a vedere anche il perché.

Molte delle opacità che ci impedivano di capire le abbiamo via via dipanate. Proviamo a richiamarle brevemente in chiusura: un codice software che per sua costituzione è in uno stato di continua decostruzione e ricostruzione di sé stesso con esiti non interamente predeterminabili, un nuovo apparato di reti sensoriali che si innesta nell’ambiente e co-emerge creando inattese tecnoecologie dell’esperienza, un’invenzione e creazione di intelligenze artificiali che, per via algoritmica, comprendono e agiscono il mondo in modalità a noi non più totalmente intellegibili, una produzione di dati che ridefinisce le modalità con cui sentiamo e pensiamo il mondo e che diviene l’interfaccia ultima attraverso cui, in modo inconscio e anticipato, abitiamo una realtà programmabile e, infine, un’articolazione di tutte queste dimensioni dentro un’architettura stratificata di governo, politicamente improntata, che riconosce e modula (attraverso piattaforme) risorse, processi e dinamiche sociali ed economiche.

Occorrerà l’impegno emotivo e cognitivo di tutti, compresi i filosofi, per far sì che questa nuova fase dell’Antropocene, come viene oggi definita l’era umana sul pianeta Terra, possa produrre un mondo programmabile effettivamente migliore per tutti. Il mio libro è un saggio orientato filosoficamente, ma non è un testo di filosofia. È pensato per suscitare l’interesse di lettori diversi: è rivolto ai manager e ai business leader, agli uomini delle istituzioni e della cosa pubblica, ai protagonisti dell’innovazione sociale e del terzo settore, agli studenti che affrontano – da ambiti disciplinari diversi – la materia tecnologica, ai curiosi di quanto l’evoluzione computazionale stia producendo nel nostro mondo.

 

Vuoi aggiungere altro per i lettori di SoloTablet, ad esempio qualche suggerimento di lettura diversa o complementare al suo libro recente?

Ho avuto modo di segnalare, nel corso di questa intervista, alcuni dei titoli che secondo me possono essere interessanti per chi voglia approfondire i diversi temi che abbiamo toccato. Il libro contiene una bibliografia aggiornata (in inglese, soprattutto) a cui si può attingere.

Posso aggiungere che internet è una miniera per contenuti testuali e/o video per quanti desiderassero allargare i propri orizzonti e le proprie prospettive su questi temi. Inoltre, utilizzando la ricerca online, con qualche intelligenza e accortezza, si possono recuperare stimoli ulteriori seguendo parole chiave e referenze come link e aggregatori.

Suggerisco infine ai lettori di continuare a frequentare SoloTablet perché, come ho già avuto modo di condividere con Carlo, rappresenta un ambiente formativo ed educativo su questi temi unico sia attraverso questa serie di interviste sia per le rubriche presenti come quella relativa alla bibliografia tecnologica, veramente ricca e aggiornata.

Buona continuazione e complimenti per questo progetto!

 

 

 

 

* Tutte le immagini di questo articolo sono scatti di viaggio di Carlo Mazzucchelli (Marocco, Deserto di Atacama, Isla grande de Chiloè)

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database