Homo sapiens e Homo digitalis /

Intelligenza Artificiale e rischi per la democrazia

Intelligenza Artificiale e rischi per la democrazia

07 Agosto 2023 The sapiens
The sapiens
The sapiens
share
La recente diffusione delle cosiddette intelligenze artificiali generative ha portato nuovamente alla ribalta temi relativi all’influenza della tecnologia sui sistemi sociali e politici. Il presente articolo tratta di due classi di rischio che sorgono nella relazione tra queste nuove tecnologie e i sistemi democratici.

 Un articolo di di Giuseppe Conte  - Studioso di epistemologia della complessità


 

Premessa

Quelli che nella scienza empirica sono chiamati 'dati' (data), essendo in realtà scelti arbitrariamente dalla natura delle ipotesi già formulata, potrebbero più onestamente essere chiamati 'presi' (capta) (Laing, 1985, p. 33)

E’ necessario iniziare con seppur stringate definizioni dei due elementi protagonisti di questo documento. Per quanto concerne l’IA, senza entrare nei dettagli tecnici, ci limitiamo, per la nostra argomentazione, a descriverne sommariamente i principi di funzionamento. Questi sistemi si basano essenzialmente sull’uso di “statistica applicata”. Una grande mole di dati, aggregata a partire da diverse fonti informative, viene elaborata da sofisticati algoritmi che individuano numerosità, frequenze, regolarità, correlazioni. Prima, durante e dopo questo passaggio vi è una continua attività umana atta a far aderire i risultati finali con i desiderata iniziali.

Per democrazia intendiamo invece quella forma di governo dove la sovranità è esercitata, direttamente o indirettamente, dal popolo.

Assiomi diversi

I due concetti appena descritti, IA e democrazia, entrano in collisione già nelle loro rispettive assunzioni di base.

L’IA è un prodotto di una specifica cultura tecnica che implicitamente assume che esista una Verità oggettiva, residente in dati che rappresenterebbero informazioni. Che queste informazioni possano essere trattate, tramite metodi quantitativi e statistici, eliminando gli errori del giudizio e della decisione umana, così da distillarne la Verità stessa. Proprio queste stesse assunzioni, spesso

inconsce, hanno permesso in questo ambito di utilizzare in maniera disinvolta ma suggestiva e quasi superstiziosa, il termine “intelligenza”. (Sini, 2023)

La democrazia è strutturalmente basata sulla costruzione sociale di percorsi ‘viabili’, espressi da una maggioranza ed orientati al benessere e alla prosperità della comunità. Verità provvisorie da sottoporre continuamente al vaglio tramite i diversi strumenti della consultazione popolare.

“Chi ritiene inaccessibili alla conoscenza umana la verità assoluta e i valori assoluti, non deve considerare come possibile soltanto la propria opinione, ma anche l’opinione altrui [...] Perciò la procedura dialettica adottata dalla Assemblea popolare o dal parlamento nella creazione delle norme, procedura che si svolge attraverso discorsi e repliche, è stata opportunamente riconosciuta come democratica.”

(Kelsen, 2010, 146)

Questa apertura alle possibili verità è la conditio sine qua non per l’esistenza del pluralismo, fondamento dell’idea democratica.

“Il pluralismo della verità ci apre gli occhi, in primo luogo, sulla contingenza: io non ho una visuale di 360 gradi; nessuno ce l'ha. In secondo luogo, e questa è la nozione più audace, la verità è pluralistica perché la realtà stessa è pluralistica, non essendo un'entità oggettivabile. Noi soggetti siamo altrettanto parte di essa. Non siamo solo spettatori del Reale, ma anche co-attori e perfino co-autori di esso. Questa è precisamente la nostra dignità umana.”

(Panikkar, 1990)

Così, mentre la democrazia resta sul piano del pluralismo complesso, del dialogo e del dibattito, anche lungo e turbolento, producendo risultati sempre provvisori, l’IA è impiegata per ridurre, semplificare, velocizzare, ottimizzare, efficientare il processo decisionale, guidato da un algoritmo non influenzato dall’umano, considerato imperfetto per natura.

In questo scritto dichiaratamente sposiamo gli assiomi democratici, respingendo quelli che possiamo chiamare algocratici (Pozza, 2020).

Dagli assiomi, o paradigmi, per usare un termine caro alla filosofia della scienza, derivano sguardi e posture specifiche con cui ci relazioniamo al mondo e ne derivano quindi le conseguenze della nostre azioni.

A nostro avviso i paradigmi sottesi all’attuale utilizzo delle IA producono o amplificano diversi rischi, alcuni dei quali andremo a dettagliare di seguito. Seguiranno idee che potrebbero in prospettiva mitigarli.

Non neutralità della tecnica

Siamo consapevoli che il titolo di questo paragrafo può suscitare le prime resistenze. E’ infatti opinione comune, diffusa fino a diventare mantra dalle proprietà ansiolitiche, che: “la tecnologia è neutra, l’importante è l’uso che se ne fa.”

Qui affermiamo esattamente il contrario: ogni tecnologia non è neutra. Non è neutra perché ogni tecnologia si inserisce nella relazione mutuamente generativa tra essere vivente e ambiente, modificandola. Agire su questa relazione vuol dire influenzarne entrambi i poli, compresa, nel caso dell’uomo, la cognizione della relazione stessa. Da questo la natura multiforme della tecnica, dove potere e liberazione è sempre anche perdita. (Conte, 2021)

E’ quindi essenziale accettare il fatto che non ‘usiamo’ la tecnica, restandone separati, bensì cambiamo continuamente grazie agli strumenti tecnici che impieghiamo nelle nostre relazioni.

Di seguito elenchiamo due classi di rischio suddividendole in intrinseche alle tecnologie delle IA – cioè legate alle loro logiche di funzionamento – ed estrinseche – cioè collegate al possibile loro impiego.

Rischi intrinseci
Perdita di biodiversità culturale.

Il processo di ‘distillazione’ delle informazioni operato dalle IA, descritto sommariamente in apertura, si traduce nel prodotto atteso dai progettisti: un singolo output. In ciò queste tecnologie si differenziano profondamente da altri algoritmi e programmi, ad esempio quelli impiegati nei motori di ricerca del Web, destinati a produrre ‘molteplici output corrispondenti ad un certo input. Le risposte fornite dalle IA sono il prodotto da una filiera lunghissima di trattamento dei dati che inizia dalle materie prime. I cosiddetti dati di origine, sottoposti a processi industriali lunghi e articolati, in minima parte trasparenti, che producono l’equivalente di un alimento ultra-processato. Questo prodotto sintetico è diffuso globalmente e spesso reso disponibile nella lingua dell’utente finale. Esso contribuisce, giorno dopo giorno, alla costruzione di una cultura unica e globalizzata. Cultura che incorpora in sé invisibilmente gli assiomi dell’IA espressi in apertura (esistenza di una realtà oggettiva, contenuto informativo dei dati, macchine come agenti razionali, ecc.)

Quanto appena descritto può quindi rappresentare un’enorme accelerazione del processo di globalizzazione e omologazione già attivo da decenni. Una perdita di biodiversità culturale che inevitabilmente incide pesantemente sul pluralismo, quindi sulla democrazia.

E’ ragionevole prevedere che questa omologazione si articolerà sia verticalmente – storicamente – tendendo alla produzione di narrazioni storiche omogenee, sia orizzontalmente – geograficamente – tendendo alla diffusione di un’unica cultura a livello planetario.

“Abbiamo sofferto e ancora soffriamo talmente tanto a causa del fanatismo politico, religioso e culturale, che siamo legittimamente assetati di una comprensione universale. Un tipico esempio ne è la sindrome del villaggio globale. Pur nobile nell'intenzione, mi sembra solo un altro degno successore della mentalità colonialistica. Il colonialismo crede nel monomorfismo della cultura, nel senso che c'è in definitiva una sola civiltà: Ed ora ecco l'unificazione del mondo in un villaggio globale.”

(Panikkar, 1990)

Questi aspetti saranno infatti estremamente influenzati dai dati di input delle IA, portatori di pensieri, valori, idee e culture che si trovano al centro di ogni curva statistica di distribuzione dei dati forniti come input agli algoritmi.

Rischio da retroazione positiva, la seconda ondata

Quanto appena scritto è alla base delle successive considerazioni.

Mentre scriviamo, la rete è letteralmente inondata dai prodotti delle nascenti Intelligenze Artificiali generative. Praticamente in ogni campo del sapere sempre più artefatti vengono prodotti grazie a queste tecnologie.

Questi prodotti, giorno dopo giorno, stanno popolando – o sarebbe meglio dire contaminando – le fonti dati che saranno date in pasto alle future versioni delle stesse Intelligenze Artificiali.

Il risultato, come è facilmente intuibile, sarà l’alterazione delle premesse statistiche che forniscono un’attendibilità, seppur relativa, agli output. Premesse che sottintendono una corrispondenza tra dati e fenomeni reali.

Nel momento in cui un output di una IA entrerà negli input di un’altra IA, si innescherà il noto fenomeno, studiato in cibernetica, di ‘retroazione positiva’. Un dato ultra-processato, diverrà input di un processo che produrrà alla fine un dato ultra-ultra-processato, e così via.

Il risultato pratico sarà un’alterazione della base informativa, con uno ‘schiacciamento’ dei dati verso il centro delle curve di distribuzione.

In altre parole, le fonti dati di origine delle IA diverranno sempre più omogenee ed uniformi, di conseguenza i risultati saranno avvertiti come sempre più precisi ed univoci. E probabilmente tutto ciò sarà anche accolto favorevolmente.

Questi risultati a loro volta influenzeranno le idee degli utenti delle AI, confermando le premesse implicite ed alimentando il noto fenomeno della ‘causalità circolare’.

Come effetto, l’alterazione del contesto informativo in cui ognuno di noi si muove non potrà non avere riflessi sul pluralismo, pilastro centrale di ogni impianto democratico.

Rischi esterni alla tecnologia

Rischio di manipolazione

La costruzione dei pensieri, per ognuno di noi, dipende in larga parte dall’ambiente sociale in cui siamo immersi e dalla nicchia evolutiva e informativa in cui ci muoviamo.

Ogni azione che facciamo deriva dai nostri valori, idee, convinzioni, credenze. Ogni nostro prodotto è imbevuto di queste premesse. A ciò non possono far eccezione i prodotti delle tecnologie di IA.

“Abbandoniamo, quindi, la presunzione di essere esseri razionali, poiché ogni dominio razionale in cui ciascuno di noi si muove a ogni istante è costituito come un dominio di coerenze operative dall’accettazione delle premesse fondamentali che lo definiscono in un atto emozionale.” (Maturana, 2006, pag. 110).

Le IA sono progettate in un preciso contesto economico e di mercato nelle quali sono servizi nell’accezione commerciale del termine.

“Nell’intelligenza artificiale i set di dati non sono mai materie prime che alimentano algoritmi: sono di per sé atti politici. L'intera pratica di raccogliere dati, classificarli ed etichettarli e quindi usarli per addestrare quei sistemi è una forma di politica, che ci ha portato a quelle che vengono chiamate «immagini operative», rappresentazioni del mondo realizzate esclusivamente per le macchine.”

(Crawford, 2021, p. 252)

Si tratta di servizi commerciali che sono forniti a clienti (Stati, organizzazioni, aziende, privati, ecc.) e che si muovono nell’alveo del modello di marketing globale che tende dichiaratamente alla manipolazione dell’individuo.

“[...] l’intero gruppo sociale è parte integrante dell’universo delle reti: psicologi, economisti, esperti di marketing, ergonomisti, terapeuti, webdesigner... tutti contribuiscono a un’ingegneria sociale in sintonia con la convinzione espressa da Skinner secondo la quale la scienza è più attrezzata della politica per ‘maneggiare’ l’uomo.”

(Besnier, 2013, p. 122)

Sulla base delle esigenze generali o specifiche di questi clienti i servizi vengono tarati dai loro produttori. Come impone la logica di mercato, vi è poi un processo continuo teso al miglioramento cercando di far aderire il servizio alle aspettative del pubblico mentre contemporaneamente si cercano di modificare il senso e le aspettative degli utenti per farle aderire al servizio offerto.

“La comunicazione prodotta dall’avvento dell’industria disenso avrebbe generato un cortocircuito mentale [...] proprio nella costruzione di una nuova percezione del sé, della vita collettiva, della società e della vita stessa. La costruzione dell’idea della vita materiale, della quotidianità individuale e sociale, usciva dal terreno delle “semplici” relazioni umane per diventare il prodotto di una industria che produce profitto nella costruzione del “senso della vita”. Una industria che mette la propria “potenza” a disposizione di chi ha i mezzi economici per utilizzarla, sia essa un’impresa che deve vendere, sia esso un uomo politico o manager o un partito. L’avvento della rete e della potenza della comunicazione social, inoltre, sta espandendo enormemente le possibilità di generare fiammate di consenso proprio basate sulla stratificazione del “senso” della vita e degli eventi.”

(Bellucci, 2019, p. 31)

Per quanto descritto sosteniamo esista un fossato tra l’approccio di mercato fin qui descritto, con il quale queste tecnologie sono sviluppate e guidate, e una visione democratica.

“Se le tecnologie robotiche, e non esse soltanto, dovessero essere abbandonate a una pura logica di potenza, sostanzialmente non dissimile da quella che ha «deregolato» l’ambito dell’economia, si assisterebbe a un divorzio crescente tra umanità e democrazia, intesa nel suo carattere di regime politico dove l’impiego di qualsiasi mezzo non può essere separato dal rispetto di principi e di diritti fondamentali.”

(Rodotà, 2012, p. 375)
Quanto appena descritto non è un rischio inedito, tuttavia, crediamo che le dinamiche descritte possano crearne i presupposti per una sua significativa crescita, sia in termini di probabilità, sia di impatto.

Combinazione di rischi

Il risultato finale, che combina il rischio intrinseco – strutturale alle IA – con il rischio estrinseco – l’impiego della tecnica nella logica di mercato – crediamo possa portare alla crescita smisurata di quel fenomeno che già Alexis de Tocqueville chiamò “dittatura della maggioranza” – questa volta ‘guidata’ da interessi privati e ideologie specifiche.

Inoltre, le potenzialità delle IA, senza opportuna governance, possono portare ad un’esacerbazione di quell’appiattimento da cui aveva già messo in guardia Heidegger, usando l’espressione “esistenza inautentica”:

“[...]. In questo stato di irrilevanza e di indistinzione il Si esercita la sua tipica dittatura. Ce la passiamo e ci divertiamo come ci si diverte; leggiamo, vediamo e giudichiamo di letteratura e di arte come si vede e si giudica. Ci teniamo lontani dalla gran massa come ci si tiene lontani, troviamo scandaloso ciò che si trova scandaloso. Il Si, che non è un Esserci determinato ma tutti (non però come somma), decreta il modo di essere della quotidianità. Il Si ha le sue particolari maniere di essere [...]. La medietà è un carattere esistenziale del Si. Nel Si, ne va, quanto al suo essere, essenzialmente di essa. Esso si mantiene perciò nella medietà di ciò che si conviene, di ciò che si accoglie e di ciò che si rifiuta, di ciò a cui si concede credito e di ciò a cui lo si nega. Nella determinazione di ciò che è possibile o lecito tentare, la medietà sorveglia ogni eccezione. Ogni primato è silenziosamente livellato. Ogni originalità è dissolta nel risaputo, ogni grande impresa diviene oggetto di transazione, ogni segreto perde la sua forza. La cura della medietà rivela una nuova ed essenziale tendenza dell’Esserci: il livellamento di tutte le possibilità di essere.” (Heidegger, 1976, p. 163)

Proposte per la mitigazione rischi

Rischi strutturali e sociali come quelli descritti non possono essere eliminati. Ragionevolmente è possibile immaginare delle azioni di mitigazione che intervengano sulla probabilità e sull’impatto del loro verificarsi.

A questo punto possiamo intravedere la struttura comune che è sullo sfondo delle dinamiche fin qui evidenziate: la semplificazione. ‘Banalizzazione’, termine dal significato specifico nel linguaggio dell’epistemologia della complessità.

La banalizzazione come prodotto del processo di selezione che le IA sono progettate per portare a compimento e che dal mare magnum della conoscenza mondiale, distillano la risposta all’esigenza dell’utente.

Da questa estrema sintesi nascono le seguenti idee di mitigazione dei rischi.

Mitigare il rischio da perdita di biodiversità culturale

“Un sistema ha tante maggiori probabilità di interagire costruttivamente con l'ambiente quanto più è differenziata e diversificata la sua struttura interna.”
(Ceruti, 2009, p. 75)

  • Già oggi, poche, grandi aziende, competono per la dominazione del fruttuoso mercato delle IA. Occorre stabilire norme e regolamenti che limitino la diffusione su scala mondiale di singoli sistemi di IA e, al tempo stesso, favoriscano la proliferazione di nuovi sistemi di IA.
  • Oggi le Corporation produttrici di sistemi di IA non dichiarano le proprie fonti dati e non né tantomeno nel permettono la consultazione. Si propone di istituire organizzazioni dedicate ad eseguire audit e certificare queste fonti. Ulteriori processi di certificazione possono essere impiegati per accertare la varietà nella composizione delle basi dati e nel validare la filiera di trasformazione dei dati. Come è facile notare si tratta di proposte già realizzate in altri ambiti, come quello agro-alimentare. Ambito che condivide con gli argomenti qui trattati la complessità intrinseca, la moltitudine di attori e delle logiche applicate.
  • Le IA, per poter essere impiegate in ambiti ‘sensibili’, e sempre esclusivamente a supporto delle decisioni umane, dovranno essere opensource, e prevedere forme di auditing degli archivi e delle configurazioni.

Mitigare il rischio da retroazione positiva

Ogni prodotto delle IA ha una qualche attendibilità e significato se si basa sulla conoscenza umana, digitalmente codificata, non su output di altri algoritmi di IA.

“Osservando gli strati di dati di training che strutturano e informano i modelli e gli algoritmi dell’intelligenza artificiale, possiamo vedere che la raccolta e l'etichettatura dei dati sul mondo sono un intervento sociale e politico, anche se mascherato da atto puramente tecnico.
Il modo in cui i dati vengono interpretati, raccolti, classificati e denominati è fondamentalmente un atto di creazione e perimetrazione del mondo, che ha enormi ramificazioni sul modo in cui l'intelligenza artificiale agisce sul mondo e sulle comunità che ne sono più colpite. Il mito della

raccolta dei dati come pratica benevola nell’informatica ha oscurato le sue operazioni di potere, proteggendo coloro che ne traggono il maggior profitto ed evitando loro la responsabilità delle sue conseguenze.”
(Crawford, 2021, p. 135)

Per tali motivi è necessario alimentare questi sistemi esclusivamente con prodotti dell’attività umana. A questo proposito si propone la creazione di una ‘certificazione Bio’, che contraddistingua gli artefatti prodotti da esseri umani come ‘bollino’. Questi oggetti ‘certificati’ come prodotti umani, assieme ai dati provenienti dal trattamento automatico delle informazioni (sistemi informativi non IA) devono essere gli unici artefatti ammessi ad essere raccolti nei big data alimentanti le IA.

Mitigare il rischio di mercato

“Ogni complessificazione organizzazionale si esprime in un accrescimento di varietà all'interno di un sistema.”
(Edgar Morin, 2001, p. 406)

Proponiamo di utilizzare gli strumenti politici e democratici per mitigare questo rischio.

  • Estensione delle legislazioni antitrust in ambito IA.
  • Potenziare gli strumenti e le capacità degli organi di governo e vigilanza già esistenti nell’ambito di organizzazioni transnazionali, come le Nazioni Unite (vedi appendice).
  • Definizione ed applicazione di norme specifiche, come la ISO/IEC FDIS 42001, attualmente in sviluppo (vedi appendice).

Conclusioni

Abbiamo voluto, in queste righe, suggerire degli spunti, non certo soluzioni pronte all’uso, proprio perché la predisposizione di misure adeguate ed operative non può che passare per la mediazione ed il confronto democratico.

Il tema trattato in questo articolo è estremamente importante. Nel prossimo futuro la politica sarà chiamata a fare i conti con l’impatto di queste nuove tecnologie. La posta in gioco è capitale.

“Se il potere politico non assolve più al suo ruolo, se difetta, anzi peggio se si inginocchia davanti a poteri da cui è affascinato e di cui è convinto che detengano l’unica verità della nostra epoca, allora ci resta solo una scelta: sostituire la politica con il politico, ovvero con la riappropriazione da parte di cittadini, associazioni, sindacati, gruppi istituzionalizzati o meno, del diritto inalienabile di esercitare individualmente e collettivamente la propria libertà decisionale e di

giudizio. E dalla misura del nostro coinvolgimento dipende nientemeno che il futuro della nostra civiltà.”

(Sadin, 2018, p. 159)

Concludiamo condividendo l’elenco delle capacità democratiche ideali espresse da Martha Nussbaum, evidentemente non riducibili né delegabili a qualunque algoritmo:

  • La capacità di ragionare sui problemi politici che riguardano la nazione, di esaminare, riflettere, discutere e giungere a conclusioni senza delegare alla tradizione o all’autorità.
  • La capacità di riconoscere nei concittadini persone con pari diritti, per quanto possano essere diversi per razza, religione, genere e orientamento sessuale: di guardare a loro con rispetto, in quanto fini, non in quanto strumenti da manipolare per il proprio tornaconto.
  • La capacità di preoccuparsi per la vita degli altri, di cogliere quali politiche siano significative per le opportunità e le esperienze dei propri concittadini, di tutti i tipi, e anche delle persone al di fuori della propria nazione.
  • La capacità di raffigurarsi la varietà dei problemi della vita umana così come essa si svolge: di pensare l'infanzia, l'adolescenza, i rapporti familiari, la malattia, la morte e molto altro tenendo in considerazione un ampio spettro di storie personali, e non solo un insieme statistico.
  • La capacità di giudicare gli uomini politici criticamente, ma in base a precise informazioni e con la consapevolezza delle reali possibilità a loro disposizione.
  • La capacità di pensare al bene della nazione intera, non a quello del proprio gruppo locale.
  • La capacità di vedere la propria nazione come parte di un ordine mondiale complesso, in cui problematiche di vario tipo richiedono una discussione transnazionale per la loro soluzione.

(Nussbaum, 2014, p. 42)

Bibliografia e sitografia

Bellucci Sergio, 2019, L’industria dei sensi, Ed. Harpo
Besnier Jean-Michel, 2013, L’uomo semplificato, Vita e Pensiero
Ceruti Mauro, 2009, Il vincolo e la possibilità, Raffaello Cortina pag. 75)

Conte Giuseppe, 2021, Schiavi della libertà, in Bellucci Sergio. AI-WORK La digitalizzazione del lavoro. Jaca Book.

Crawford Kate, 2021, Né intelligente né artificiale, Il Mulino

Heidegger Martin, 1976, Essere e Tempo, Longanesi.

ISO/IEC FDIS 42001 - Information technology — Artificial intelligence — Management system - https://www.iso.org/standard/81230.html

Kelsen Hans, 2010, La democrazia, Il Mulino

Laing Ronald David, 1985, in Keeney Bradford P., L'estetica del cambiamento, Astrolabio

Maturana Humberto, 2006. Emozioni e linguaggio in educazione e politica. Ed. Eleuthera

Morin Edgar, 2001, Il Metodo 1, Raffaello Cortina

Nussbaum Martha, 2014, Non per profitto. Perché le democrazie hanno bisogno della cultura umanistica. Il Mulino.

Panikkar Raimon, 1990, il pluralismo della verità

http://www.dhdi.free.fr/recherches/horizonsinterculturels/articles/panikkarpluralism.doc

Pozza Giuliano, 2020, “Algocrazia”: come l’intelligenza artificiale minaccia la libertà umana.

https://www.agendadigitale.eu/cultura-digitale/algocrazia-perche-senza-etica-con-lintelligenza- artificiale-ci-giochiamo-la-liberta/

Rodotà Stefano, 2012, Il diritto di avere diritti, Ed. Laterza

Sadin Eric, 2018, La silicolonizzazione del mondo, Ed. Giulio Einaudi

Sini Carlo, 2023, Schegge di pensiero 10: l'intelligenza artificiale è una superstizione. https://www.youtube.com/watch?v=qvmwWp0SZmI (collegamento verificato a giugno 2023)

de Tocqueville Alexis, 2007, La democrazia in America, Utet

United Nations 2023, A global digital compact – an open, free and secure digital future for all

https://www.un.org/sites/un2.un.org/files/our-common-agenda-policy-brief-gobal-digi-compact- en.pdf

United Nations, 2023, Providing global steerage on artificial intelligence.

 

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database