Passa al contenuto

L’inquinamento informativo e i suoi antidoti

L’avvento del digitale e una nuova era inflazionaria dei media. Servono nuove immunità e innovazioni culturali
28 luglio 2025 di Cosimo Accoto
L’inquinamento informativo e i suoi antidoti cover image


💡
Questo articolo proviene dalla Rivista Dialoghi



L’arrivo dell’intelligenza artificiale, generativa in particolare, segna l’inizio di una nuova era di inflazione mediale, caratterizzata dalla potenza simulativa di linguaggi sintetici, immagini artificiali e agenti autonomi. Questo sviluppo ha profonde implicazioni filosofiche e pratiche, poiché mina i regimi di verità e falsità storicamente accettati e praticati. Inoltre, rappresenta una sfida significativa alla raffigurazione della realtà storicamente costruita e connotata. Nell’era della post-verità, caratterizzata da falsità, allucinazioni, bolle ed ecolalie, come possiamo emergere da questa nuova crisi epistemica? Fortunatamente, insieme alla minaccia incombente, vi è una crescente consapevolezza della necessità di ricostruire il concetto e la pratica della «verità» con modi innovativi. Questo richiede la progettazione e la creazione di condizioni sociotecniche che consentano l’esperienza e la comprensione del «vero ». In definitiva, queste sono anche questioni di dinamica politica e di potere.

Vivere in un’era mediatica inflazionaria

È sempre più chiaro che stiamo entrando in una nuova era inflazionistica. Nuove tecnologie, dispositivi e infrastrutture della conoscenza e della comunicazione stanno arrivando nella società come un’onda imponente, accelerando esponenzialmente la creazione, la conservazione e la circolazione di contenuti e informazioni. Qualche decennio fa abbiamo iniziato con la duplicazione della riproduzione digitale. Oggi, stiamo ulteriormente e inflazionisticamente moltiplicando tutto ciò attraverso la produzione dell’intelligenza artificiale generativa, non solo la produzione, ma anche la distribuzione. Sta cambiando la circolazione: dalla diffusione dei media di massa alla canalizzazione mobile, poi sociale, poi virtuale e, in prospettiva, direttamente neurale.


Linguaggi, immagini, video, ambienti, storie, simulazioni e realtà estese rappresentano l’esplosione senza precedenti di questa nuova medialità inflazionistica. Il punto chiave del nostro discorso è che le ere mediali inflazionarie non sono tali solo perché la produzione e la circolazione di contenuti è aumentata esponenzialmente, in forme, logiche e dinamiche nuove. Piuttosto, le ere mediatiche inflazionarie cambiano radicalmente la rappresentazione (storicamente data) della realtà, i regimi di verità e falsità che abbiamo creato e istituzionalizzato finora, insieme ad altre dimensioni culturali e politiche cruciali, come i contratti sociali che sanciscono l’autorialità, l’originalità, la proprietà, la responsabilità, l’accessibilità e così via.

Pensiamo ad esempio al linguaggio e alla scrittura: finora a parlare e scrivere è stato solo l’uomo. Il linguaggio e la scrittura erano considerati un privilegio della specie sapiens.

Così abbiamo estromesso nel tempo da questi domini il mondo vegetale e quello animale. Ora ci stiamo accorgendo che questa esclusività linguistica viene erosa dall’evoluzione tecnologica di macchine «retoriche» in grado di avere e prendere la parola. Dopo aver inventato le macchine calcolatrici (deterministiche) dei numeri, abbiamo ora costruito le macchine calcolatrici (probabilistiche) delle parole: i large language model.

Qualcuno le ha paragonate e derubricate a pappagalli stocastici. Tuttavia, l’elaborazione automatica del linguaggio naturale umano non è solamente un progresso tecnico nella comunicazione scritta e orale. Essa rappresenta anche una sfida culturale alla tradizionale idea letteraria di autore e lettore, ai sistemi sociali che definiscono verità e falsità nei documenti, e ai contratti giuridici riguardanti proprietà e responsabilità.

Non si tratta solo di chiedersi se un modello linguistico su larga scala abbia la capacità tecnica di scrivere, ma di affrontare alcune profonde questioni esistenziali. Ad esempio, chi è l’autore delle cose che la macchina scrive: la società tech che l’ha costruita? Il modello linguistico che è stato generato? Il corpus di testi con cui è stato addestrato? L’utente che ha scritto il prompt che ha prodotto quel testo? E poi: abbiamo ancora bisogno della funzione- autore per come l’abbiamo storicamente disegnata o dovremo immaginare qualcos’altro? E ancor più radicalmente: può esistere una scrittura (e il suo senso) senza una mente (pensante) e senza un mondo (referente), una scrittura che peraltro diviene “inflattivamente impermanente” perdendo anche la sua prerogativa di iscrizione fissa? Questa erosione non riguarda solo la parola. Lo stesso scardinamento si sta producendo per le immagini e per lo sguardo umano.


Nel nostro orizzonte tecnico, lo sguardo umano si ritrova progressivamente e per molti versi marginalizzato o inidoneo. Questa rimozione tentata, negoziata, in parte realizzata, ha oggi molte forme e occasioni. In alcuni contesti, lo sguardo è assente perché l’occhio non è più in grado di giudicare il prodotto visivo artificiale di una macchina. Non riesce a distinguere tra vero e falso. In altre esperienze, invece, lo sguardo non è più chiamato a svolgere la sua funzione decisionale, sostituita dalla visione esclusiva ed escludente delle macchine. A vedere, al suo posto, è qualcun altro o qualcosa d’altro. In ulteriori casi, lo sguardo è spiazzato perché l’immagine non ha più la sua antica funzione rappresentativa del reale. Il mio occhio, dunque, incrocia una visualità di natura diversa: l’immagine non rappresenta più l’oggetto che vorrebbe raffigurare.

La provocazione, riferita alla scrittura come ultima parola, si ripropone ora anche con l’immagine: come per la scrittura non più fatta per essere letta da umani, anche l’immagine non è più prodotta per essere vista da umani. Sono le tecnologie della visione «astensive» dell’umano (non meramente «estensive» dell’umano). Stiamo entrando in territori inesplorati culturalmente e arrischiati socialmente e politicamente.

Alla ricerca di nuove immunizzazioni

È in questa prospettiva critica che dobbiamo leggere gli sforzi ingegneristici attuali di certificare e distinguere l’umano dalla macchina, il vero dal falso, l’originale dalla copia, il “fatto” dal “contraffatto”. Tuttavia, è necessario comprendere che la nuova “verità” emergerà attraverso configurazioni inedite. Ciò significa che si svilupperà come un processo dinamico, basato su una serie di protocolli e componenti fondamentali che, grazie a nuove interazioni tra persone e tecnologie, determineranno la produzione, la circolazione e la conservazione della «verità» del mondo.


E, con questa, di molti dei suoi derivati come qualità, autenticità, autorialità, credibilità, affidabilità, assicurabilità e così via. È in accelerazione, dunque, lo sviluppo di soluzioni tecniche e standard computazionali condivisi che cercano di contemperare, in qualche misura, tecnologia e policy, robustezza tecnologica e validazione sociale. Dunque, marcatori statistici, impronte crittografiche, tracciatori di provenienza, algoritmi avversativi sono alcuni degli strumenti allo studio per questa nuova «caccia alla verità». Come si comprende facilmente,

attraversare (e abitare già in qualche senso) queste nuove uncanny valley (situazioni disturbanti e disagevoli) si preannuncia come una sfida politica planetaria, complessa e arrischiata. Uno sforzo erculeo tanto quanto (qualcuno paventa) sisifeo: sistemi ingegneristicamente complicati da realizzare, ma spesso facili da aggirare in una gara senza esclusione di colpi e senza possibilità di tregue tra verificatori e falsificatori. Più in generale, sarà necessario farsi carico di tutte le fasi della «produzione del vero »: la certificazione, la conservazione, la circolazione. Dunque, come si validerà il vero? Come lo si preserverà? Come lo si diffonderà? Sulla verifica, intelligenza artificiale e crittografia informatica sono candidate a essere strumenti chiave per certificare l’autenticità di un contenuto o la proprietà di un bene. Sull’archiviazione, le architetture di tipo blockchain si propongono di diventare i dispositivi per la conservazione digitale protetta di media news e virtual asset.

Infine, sulla circolazione, sappiamo che oggi è in capo alle piattaforme delle big tech, le quali, però, come abbiamo anticipato, hanno anche la capacità massima di amplificare il falso. A ben guardare, infatti, non è la semplice creazione del fake che dovrebbe preoccuparci maggiormente, quanto la sua circolazione sociale e politica facile, automatizzata, massiva e capillare. In questa prospettiva, altri sistemi di contrasto al falso come il fact-checking risultano poco efficaci, pur essendo culturalmente e politicamente rilevantissimi. Questo perché, mentre fatichiamo a controllare una singola notizia falsa, le piattaforme ne hanno già amplificato milioni di altre con l’automazione massiva. Riusciremo nell’ardua impresa di creare nuovi mercati dell’informazione più sani o sarà anche questa una fatica gigantesca e vana? Il debunking (o fact-checking)

inoltre è una pratica ex post: si avvia solo una volta che la disinformazione potenziale è già circolata, una volta che i danni si sono oramai prodotti. Altri sistemi, più in logica immunitaria, cercano di lavorare ex ante, come è il caso del prebunking.

Insieme all’analogia dell’inquinamento informativo, l’altra similitudine circolante è che la disinformazione sia una sorta di infezione virale che va curata. Se così è, si sta immaginando di combattere il fenomeno del falso mediatico anche con una vera e propria operazione di immunizzazione informativa. Tecnicamente si definisce pre-bunking e consiste nel far circolare intenzionalmente contenuti fake in maniera anticipatoria per creare una sorta di immunità agli stessi prima che la popolazione e i cittadini vengano ad essi esposti criminalmente da parte di manipolatori o malintenzionati.


L’idea alla base di questa esposizione voluta e preventiva è che possa ridurre la suscettibilità alla disinformazione quando la si incontra. Proprio come una vaccinazione medica, l’esposizione a dosi controllate e indebolite del patogeno dovrebbe contribuire a depotenziarne la carica. Potremmo definirla una sorta di vaccino culturale, psicologico e politico, sebbene non sia privo di problematiche. Tra watermarking (filigrane statistiche), fingerprinting (marcatori crittografici) e metadata (etichette di dati), la condizione informativa umana, politica e ingegneristica è nuovamente e arrischiatamente messa in discussione e provocata nel suo significato, con tutte le sue implicazioni democratiche connesse […].

Se l’intelligenza artificiale (anche quella generativa) rappresenta una provocazione di senso per l’umanità e le sue prerogative esistenziali, dobbiamo affrontarla soprattutto con l’innovazione culturale. Ai «problemi tecnici» risponderemo con un po’ di ingegneria (regolatoria, etica, informatica, educativa, politica), mentre alle «provocazioni intellettuali» dovremo rispondere con lo sforzo (faticoso, difficile, dubbioso, rischioso) di fare innovazione culturale. Produrremo più benefici o malefici? Spetta a noi, credo, orientare al meglio (Nyholm 2023) queste opportunità tecniche, chiedendoci eticamente sempre perché (lo facciamo) e per chi (lo facciamo).

Cosimo Accoto, filosofo tech affiliato al Mit (Boston), docente universitario presso Unimore, esplora le implicazioni della tecnologia e delle sue innovazioni culturali. Tra le sue pubblicazioni, la trilogia filosofica sulla civiltà digitale Il mondo in sintesi (2022), Il mondo ex machina (2019) e Il mondo dato (2017); il suo ultimo saggio è intitolato Il Pianeta Latente. Provocazioni della tecnica, innovazioni della cultura (Egea).

Ricominciare dai territori e dalle persone
Pax et bonum. Il convegno organizzato da Ac, Fiac e Istituto di diritto internazionale della pace Giuseppe Toniolo