La confezione che venne messa in vendita, su licenza dei due inventori, consisteva in una scatola contenente tre tubi dedicati ad altrettanti temi: il linguaggio politico-sindacale, le frasi d’amore e un gergo sportivo (riferito essenzialmente al mondo del calcio). Di quei Tubolari ne furono vendute migliaia di copie. Oggi ne esiste anche una versione on line che consente, con la stessa logica, di generare milioni di frasi sintatticamente corrette.
Ovviamente all’epoca nessuno si preoccupò di indagare sugli usi impropri di un tale strumento, che pure avrebbe potuto suggerire. Il numero limitato di output e la manifesta logica con la quale venivano costruiti, confinarono il Tubolario ad un divertente passatempo tra amici. Inoltre proprio l’evidente meccanismo di costruzione delle frasi non fece mai sorgere il dubbio che il Tubolario potesse manifestare qualche forma di “intelligenza”. Non sappiamo cosa sia l’intelligenza, ma, almeno a partire da questo caso, è chiaro che deve manifestarsi in maniera contingente, con comportamenti a volte imprevedibili e non ripetitivi anche a fronte degli stessi stimoli, caratteristiche che il Tubolario evidentemente non aveva.
L’evoluzione del Tubolario
Un modello di linguaggio (Language model LM) è un sistema statistico che mette in corrispondenza sequenze di simboli a probabilità. Dato un contesto di simboli (ad esempio una frase), l’LM predice la probabilità del simbolo successivo. L’obiettivo di un LM è massimizzare la probabilità della sequenza di simboli osservata. Se il modello è molto grande (Large Language Model o LLM alla base dei sistemi come ChatGPT o Genius di Google), il sistema può contenere miliardi di miliardi di simboli associati a diverse probabilità di altrettanti simboli. Se sollecitato con una domanda, grazie a questa sua complessa e gigantesca struttura, reagisce nella maggior parte dei casi in maniera sensata e a volte sorprendente per il suo interlocutore.
Il modello matematico implementativo è quello delle reti neurali artificiali. Queste sono strutture non-lineari di dati statistici utilizzate per simulare relazioni complesse tra ingressi e uscite. Una rete neurale artificiale riceve segnali esterni su uno strato di nodi (unità di elaborazione) di ingresso, ciascuno dei quali è collegato con numerosi nodi interni, organizzati in più livelli. Ogni nodo elabora i segnali ricevuti, secondo pesi definibili in maniera dinamica, e trasmette il risultato a nodi successivi. Questi pesi, nel caso degli LLM, sono proprie le probabilità con il quale il sistema metterà in relazione i simboli e delle quali ha bisogno per poter funzionare. Senza simboli, i pezzi del linguaggio, e le probabilità di connessione, il modo con il quale genererà output, il sistema è inerte.
Proprio per poter fornire questi importanti elementi di partenza, gli LLM hanno bisogno di essere alimentati con enormi masse di dati linguistici. Se questi sono specifici di un dominio, ad esempio la diagnostica di immagini radiografiche, il sistema sarà capace di reagire in maniera sensata in virtù della bontà dei dati immessi che hanno fornito elementi statistici di qualità. Questa tecnologia è una macchina statistica che è dunque assimilabile ad un enorme e sofisticato tubolario.
Gli aerei non sbattono le ali
Per millenni il mezzo di trasporto per persone e cose è stato realizzato con l’uso di animali: cavalli, buoi, cammelli, elefanti, e altri ancora. La costruzione con successo di macchine che erogassero le stesse funzionalità, ma in modalità più efficace ed efficiente, è stata sempre realizzata non imitando gli strumenti che già la garantivano. Il loro successo è stato determinato proprio da questo cambio di paradigma. Ciò è avvenuto anche per le macchine che si muovevano non sulla terra ma nell’aria. Tutti gli animali che lo facevano, “volavano” sbattendo le ali. Siamo riusciti a costruire gli aerei proprio quando abbiamo smesso di cercare di imitarli, abbandonando l’idea del volo battente.
L’uomo non è al centro di niente
Agli albori di queste nuove tecnologie però l’unico riferimento che avevamo erano i precedenti modi di muoversi. Abbiamo allora usato le stesse metafore per indicare le nuove funzionalità. Da qui diciamo che gli aerei “volano” come fanno gli uccelli e la potenza dei motori termici si misura in “cavalli vapore” anche se i primi non sbattono le ali e i secondi non hanno dentro nessun cavallo (tanto meno a vapore).
In maniera analoga, in virtù della impressionante capacità degli LLM di generare comunicazione efficace (pseudo-contingente), siamo erroneamente indotti a pensare che dietro vi sia una intelligenza artificiale, che tali sistemi vadano addestrati e, grazie a questa operazione, imparino. Come abbiamo visto, non è vero nulla di tutto questo ma tali sistemi sono efficaci non nonostante ma proprio perché non tentano di simulare l’intelligenza, né più né meno come gli aerei sono efficaci perché non imitano il volo battente degli uccelli e degli insetti e le auto, i treni e le navi non replicano il movimento di zampe o pinne. I termini che usiamo per gli LLM sono solo metafore linguistiche che ci aiutano a descrivere le funzionalità di questa nuova tecnologia, evocando ciò che conosciamo, ma senza rappresentarne la loro natura.
La comunicazione presuppone gli altri
Nella comunicazione, per come in genere la intendiamo, i nostri partner sono sempre stati esseri umani e gli esseri umani sono dotati di intelligenza. Da qui riteniamo che qualsiasi cosa sia in grado di comunicare con noi abbia capacità intellettive umane. Lo facciamo spontaneamente quando il nostro animale domestico reagisce a nostri stimoli o quando osserviamo il comportamento tra loro simili delle bestie in natura. È il nostro naturale antropocentrismo che se da un lato è necessario per conoscere il mondo (se dobbiamo avere un punto di osservazione della realtà quello più naturale è che sia costituito da noi stessi), dall’altro ci fa dimenticare che è uno dei tanti possibili, e spesso nemmeno il più corretto.
Nel corso dei secoli la comunicazione si è evoluta e il ruolo degli esseri umani è profondamente cambiato. Oggi, con un’accelerazione dovuta all’evoluzione dei media (a partire dall’invenzione della stampa), non è più necessario che coloro che comunicano siano presenti. Non c’è bisogno di sapere chi sono e perché comunicano, né di conoscere il significato delle loro comunicazioni né di tenerne conto. Ad esempio possiamo leggere e capire il libretto di istruzioni di un elettrodomestico senza sapere chi l’abbia scritto e senza identificarci con il suo punto di vista. Interpretiamo un’opera d’arte senza essere legati alla prospettiva e all’intenzione dell’artista. Nella narrazione i personaggi di romanzi e film comunicano con noi, pur sapendo che non sono mai esistiti e che non sono gli autori delle comunicazioni che trasmettono.
L’idea che una comunicazione riesca solo attraverso una precisa condivisione di contenuti identici tra le menti dei partecipanti è irrealistica. Nella maggior parte dei casi, chi emette e chi riceve comunicazione non si conosce, non conosce le prospettive, i contesti o i vincoli dell’altro e non ha neanche bisogno di conoscerlo. Ma proprio questa mancanza di trasparenza consente gradi di libertà e astrazione altrimenti impossibili. Se ciò non fosse, la comunicazione si ridurrebbe alla trasmissione di istruzioni da eseguire pedissequamente, come avviene tra macchine o parti di esse. Girando lo sterzo di un’auto, non vi è alcuna interpretazione da parte delle ruote.
La comunicazione senza intelligenza
La reale novità che ha portato la tecnologia degli LLM è una ulteriore evoluzione della comunicazione: la possibilità di farlo senza intelligenza. Come afferma la professoressa Elena Esposito:
Il fatto che la comunicazione cambi forma non è una novità e non è un enigma. Il problema è piuttosto quello di identificare e comprendere le differenze e le continuità tra le forme vecchie e nuove. Oggi, l’autonomia della comunicazione dai processi cognitivi dei suoi partecipanti ha fatto un ulteriore passo avanti. Abbiamo bisogno di un concetto di comunicazione che tenga conto della possibilità che il partner della comunicazione non sia un essere un essere umano, ma un algoritmo. Il risultato è una condizione in cui abbiamo informazioni il cui sviluppo o la cui genesi spesso non siamo in grado di ricostruire, ma che tuttavia non è arbitrario. Le informazioni generate autonomamente dagli algoritmi non sono affatto casuali e sono completamente controllate, ma non dai processi della mente umana. Come possiamo controllare questo controllo, che per noi può anche essere incomprensibile?
Sono perfettamente d’accordo che il vero tema sugli LLM, sul quale un concreto dibattito ritengo che ancora manchi, sia proprio rispondere a quest’ultimo interrogativo.
Purtroppo legati come siamo ai vecchi paradigmi, perché a noi già noti, all’apparire di nuove tecnologie ci adagiamo a concentrarci sui suoi rischi, i quali non esistono in assoluto ma minacciano innanzitutto il nostro consueto modo di operare. Questo non significa che questa nuova tecnologia non ne sia immune, così come tante altre che l’hanno preceduta e che seguiranno. Ma appiattirsi a discutere solo di questi senza prima capire cosa ce ne facciamo, semmai ce ne faremo qualcosa (ipotesi ancora valida) mi sembra una sterile perdita di tempo.
Si tratta in fondo di un semplice, seppur complesso, Tubolario statistico, il cui uso proficuo o pericoloso, come un coltello, è affidato alla perizia o meno di chi lo usa. Beninteso: sapendo prima a cosa serve (e se serve).