Tabulario /

Deepfake, caos epistemico e pubbliche inibizioni

Deepfake, caos epistemico e pubbliche inibizioni

17 Marzo 2021 Carlo Mazzucchelli
Carlo Mazzucchelli
Carlo Mazzucchelli
share
La diffusione della pratica del deepfake può portare al caos epistemico, scrive Philip Walsh in un interessante articolo postato di recente sul suo blog. Il problema sta nella potenziale perdita di veridicità delle informazioni mediali e anche nella demolizione delle norme comportamentali che separano la vita pubblica da quella privata.

Segnalo un articolo di Philip J. Walsh


Il tutto pertiene una cosa non da poco, come essere sé stessi nella vita pubblica e in quella privata sapendo di essere sempre sorvegliati e sotto osservazione da strumenti tecnologici sempre più onnipresenti e pervasivi. Strumenti che stanno riducendo gli spazi privati (riservati) e regalando, anche con la nostra complicità o servitù volontaria, la possibilità di essere sempre controllato, seguiti, registrati videoregistrati., ecc.

CONSIGLIATO PER TE:

HABEAS DATA

La consapevolezza di essere sempre in qualche modo sotto sorveglianza potrebbe essere percepita come una cosa buona per la società e il buon vivere civile. Ne dovrebbero derivare minori comportamenti criminali e una maggiore attenzione nel comportarsi bene, in pubblico ma anche in privato. Al tempo stesso però non sembra essere desiderabile la sparizione della privacy, e non solo per questioni etiche. Ci sono reali problematiche di tipo esistenziale su chi noi siamo, su chi vogliamo essere, sulle nostre diverse personalità, identità, ecc. ecc.

L’avvento delle nuove tecnologie audio-video ha cancellato la privacy, compresa quella legata a eventi pubblici. Ora anche ciò che viene detto in pubblico è ascoltabile e registrabile anche da persone (entità) non presenti, può essere memorizzato, condiviso e usato. Il tutto anche quando l’evento è terminato e assumendo una sua propria vita digitale separata dalla persona che ne è stata all’origine.

E qui entra il gioco anche il DEEPFAKE, l’argomento su cui l’autore del testo che volevo segnalare ha costruito il suo articolo.

Potete leggerlo in inglese sul suo BLOG:

Deepfakes And The "Epistemic Backstop"

But what happens if a new technology radically disrupts our testimonial practices? Epistemic chaos. No one knows what to believe anymore. Our epistemic lives shrink back to the small set of beliefs we can verify directly, and the rest is left groundless, subject to all of our irrational foibles and partisan motivated reasoning.

Or so argues Regina Rini in her fascinating recent article "Deepfakes and the Epistemic Backstop" (2020). According to Rini, over the past 150 years AV tech has evolved into a well established part of the socio-technical environment, such that it has acquired the role of "epistemic backstop" for our testimonial practices. In other words, the possibility of "let's go check the tape" keeps people's testimonial practices in check. It incentivizes sincerity and disincentives reckless testifying.

One thing I particularly like about Rini's article is her sensitivity to a larger issue in the philosophy of technology. In a slightly tangential but important discussion, she notes that philosophers tend to get too caught up in seeking universal truths about things like evidence and knowledge. AV technology (and technology in general) are fairly recent developments in human history, and thus end up getting deemed "merely contingent" or not of "genuinely philosophical" interest. But if we want to understand an epistemic issue like the norms that govern our testimonial practices, pondering timeless truths doesn't cut it. We have to think about the way technologies become entrenched and become part of the "historical a priori." As Rini puts it:

"Between the logically universal and the suddenly emergent lies the realm of historically entrenched social practice"

Pretty nice slogan for philosophy of technology!"

 

comments powered by Disqus

Sei alla ricerca di uno sviluppatore?

Cerca nel nostro database