C’è il software inventato dal professore dell’Insead (che, così, si configura come autore di secondo grado) per scrivere plausibili libri di nicchia sulle prospettive del commercio del cibo per cani, o dizionari di uguiro (la lingua dei cinesi turcofoni) e pampangan (un dialetto filippino).
Ha già pubblicato 106mila titoli. Il passo ulteriore, dice Riccardo Staglianò, è la narrativa: programmi come StatsMonkey o Narrative Science hanno esordito come cronisti di baseball o di andamenti borsistici. Stesso schema: si cibano di dati e scodellano articoli, mimando costrutti di giornalisti a sangue caldo. Non sono gran letture, però si capisce quel che c’è da capire ed è già un miracolo.
Tutto questo riguarda, come racconta il New Yorker, il deep learning, la vera rivoluzione dell’intelligenza artificiale: macchine in grado di percepire, riconoscere, e rispondere in modi analoghi a quelli propri della mente umana. Se ne parlava già alla fine degli anni Cinquanta del secolo scorso, si è cominciato ad andarci vicino solo nel 2006, con computer in grado di affrontare enormi masse di dati e di dividerli in categorie. Così, Google sta imparando progressivamente a riconoscere le immagini (per ora ci riesce a patto che la prospettiva non sia troppo strana), e altre macchine cominciano a cimentarsi con concetti astratti integrando tecniche diverse, dalla statistica al ragionamento deduttivo.