Ciao e buon lunedì!

Il 24 novembre 2024, alle elezioni presidenziali in Romania, un candidato pressoché sconosciuto ha ottenuto il 23% dei voti al primo turno, superando il primo ministro in carica. Si chiamava Calin Georgescu, e fino a poche settimane prima quasi nessuno sapeva chi fosse.

Dodici giorni dopo, la Corte Costituzionale rumena ha annullato l'intero primo turno. Per la prima volta nella storia di un paese membro dell'Unione Europea, un'elezione veniva invalidata anche a causa di una campagna di manipolazione condotta attraverso una piattaforma digitale.

Non erano deepfake video nel senso classico del termine. Era qualcosa di più sottile, e per questo più difficile da smontare: un'amplificazione artificiale orchestrata su TikTok, con account coordinati, influencer pagati da intermediari e un algoritmo che mostrava i contenuti pro-Georgescu tra 4,6 e 14 volte più spesso di quelli degli altri candidati. (Fonte: Global Witness, indagine sull'algoritmo TikTok nelle elezioni romene, dicembre 2024)

Il caso Romania è il punto di partenza di questo numero. Ma non è il punto centrale. Il punto centrale è una domanda più profonda, che l'AI generativa ha reso urgente in modo del tutto nuovo: cosa succede alla democrazia quando chiunque può fabbricare prove convincenti, e soprattutto quando anche le prove vere possono essere screditate come false?

1. La notizia che pesa

Il costo per creare un deepfake audio convincente è sceso, secondo le analisi del team GReAT di Kaspersky, a circa 30 dollari per la clonazione vocale e 50 dollari per un video con sostituzione del volto: prezzi oltre 400 volte inferiori rispetto a pochi anni fa. (Fonte: Kaspersky GReAT / fabioambrosi.it, settembre 2025)

Nel gennaio 2024, migliaia di elettori del New Hampshire hanno ricevuto una telefonata automatica con la voce del presidente Joe Biden che li invitava a non andare a votare alle primarie. Era un deepfake audio. Il consulente politico che lo aveva creato ha dichiarato che gli era costato circa 20 minuti di lavoro e un dollaro di risorse computazionali. (Fonte: Policy Options / Al Jazeera, 2024)

Nello stesso anno, in Irlanda, un video deepfake mostrava la candidata Catherine Connolly che annunciava il proprio ritiro dalla competizione, simulando con precisione l'estetica di un telegiornale della rete pubblica RTÉ. (Fonte: Mondo Internazionale, dicembre 2025)

In Ungheria, nell'ottobre 2025, un consigliere politico del primo ministro Viktor Orbán ha diffuso un video deepfake in cui il leader dell'opposizione pronunciava affermazioni mai dette. (Fonte: Pagella Politica, febbraio 2026)

In Italia, tra i casi documentati, spiccano video deepfake che hanno coinvolto il vicepresidente del Consiglio Antonio Tajani, la parlamentare europea Ilaria Salis e la ministra Daniela Santanché. A luglio 2024, la Banca d'Italia ha denunciato la circolazione di un video deepfake in cui veniva falsamente riprodotta la voce del Governatore Fabio Panetta per promuovere contenuti fraudolenti. (Fonte: Pagella Politica, febbraio 2026; ADL Consulting, giugno 2025)

L'elenco potrebbe continuare a lungo. Il punto non è la quantità dei casi. È la direzione in cui stanno andando: qualità crescente, costo decrescente, accessibilità totale. Secondo il professor Siwei Lyu, direttore dell'UB Media Forensic Lab dell'Università di Buffalo, i deepfake hanno raggiunto nel 2025 un livello tale da risultare indistinguibili dai contenuti autentici per l'occhio umano. (Fonte: The Conversation / Leganerd, dicembre 2025)

2. Il rovescio della medaglia

La reazione istintiva di fronte a questi fatti è prevedibile: bisogna rilevare i deepfake, etichettarli, vietarli. Le piattaforme devono fare di più. I governi devono legiferare.

Tutto vero. Ma c'è un problema che questo approccio non risolve, e che è il più pericoloso di tutti.

Si chiama "liar's dividend", il dividendo del bugiardo. Il termine è stato coniato dai giuristi Bobby Chesney e Danielle Citron, e descrive un meccanismo che emerge direttamente dall'esistenza dei deepfake: nell'era in cui chiunque sa che i video possono essere falsificati, un politico può semplicemente chiamare "falsa" qualsiasi ripresa autentica che lo imbarazza. E una parte dell'opinione pubblica sicuramente gli crederà.

Non è una previsione teorica: è già documentato empiricamente. Uno studio pubblicato sull'American Political Science Review, condotto su oltre 15.000 adulti americani, ne ha misurato l'effetto: le false accuse di "fake news" o "deepfake" rivolte a contenuti autentici aumentano il supporto al politico tra i suoi sostenitori, creano incertezza informativa tra gli indecisi e indeboliscono la fiducia nei media in generale. (Fonte: American Political Science Review, "The Liar's Dividend: Can Politicians Claim Misinformation to Evade Accountability?", 2024)

Il meccanismo funziona in due modi simultanei e opposti. Da un lato, i deepfake fanno credere il falso. Dall'altro, rendono più facile negare il vero. Non è solo una questione di singoli contenuti manipolati: è un'erosione del concetto stesso di prova nel discorso pubblico.

In luglio 2025, il conduttore giornalistico Chris Cuomo ha trasmesso in diretta un video di Alexandria Ocasio-Cortez che faceva affermazioni palesemente false. Era un deepfake, con tanto di watermark "parody 100% made with AI" ben visibile. La stessa Ocasio-Cortez ha dovuto intervenire pubblicamente per smentirlo. (Fonte: Salon / The Guardian, agosto 2025)

La domanda che questo episodio pone non è sul conduttore, bensì è sulla struttura: se un giornalista professionista, con risorse e strumenti a disposizione, non riesce a distinguere un deepfake palesemente marcato, cosa si può ragionevolmente chiedere a un elettore che scrolla i social sul telefono alle undici di sera?

C'è poi una dimensione che riguarda l'Italia in modo specifico. A dicembre 2025, tutti i partiti presenti in Parlamento, con la sola eccezione della Lega, hanno sottoscritto un appello lanciato da Pagella Politica e Facta sull'uso dell'AI nella propaganda politica, con tre impegni di base: non creare deepfake degli avversari, rendere pubblici gli errori se si condivide inavvertitamente un deepfake, sensibilizzare iscritti e sostenitori. Il fatto che sia stato necessario un appello formale per ottenere impegni così elementari dice molto sullo stato attuale del problema. (Fonte: Pagella Politica, febbraio 2026)

3. Una domanda a cui non c’è risposta facile

Il filosofo Walter Benjamin, nel 1935, scrisse un saggio destinato a diventare un classico: "L'opera d'arte nell'epoca della sua riproducibilità tecnica". La sua tesi era che la riproduzione meccanica distrugge l'"aura" dell'opera, quella qualità irripetibile che deriva dall'essere presente in un luogo, in un momento, come originale unico.

Con i deepfake, il problema non è la riproduzione, ma la generazione: si produce qualcosa che non è mai esistito, con l'aspetto e il suono di qualcosa di reale. Non si copia l'originale. Si fabbrica un originale che non c'era.

Questo pone una domanda che non ha risposta semplice: su cosa si fonda la fiducia democratica?

La risposta tradizionale è: sui fatti verificabili. Un politico dice una cosa, esiste un video, la cosa è documentata. Ma se i video possono essere fabbricati, e se anche i video autentici possono essere credibilmente accusati di essere falsi, allora il meccanismo su cui si regge la responsabilità pubblica, cioè la possibilità di essere smentiti da prove, si inceppa.

Non è un problema di alfabetizzazione digitale nel senso stretto. Il Pew Research Center ha rilevato che solo il 42% degli americani sa cos'è un deepfake. Ma la ricerca sull'American Political Science Review mostra che anche chi sa cosa sono i deepfake è vulnerabile al liar's dividend: l'incertezza creata dalla sola possibilità della falsificazione è sufficiente a minare la fiducia.

La London School of Economics, in un'analisi del dicembre 2025 intitolata "The Deepfake Blindspot in AI Governance", definisce il deepfake non un problema di distribuzione dei contenuti, come tendono a classificarlo i quadri regolatori attuali, ma un "moltiplicatore di rischio sistemico": una tecnologia che sfrutta l'autenticità digitale per erodere la fiducia pubblica in modo strutturale. (Fonte: LSE, "The Deepfake Blindspot in AI Governance", dicembre 2025)

C'è un paradosso in tutto questo che vale la pena nominare con precisione: più le società democratiche diventano consapevoli dei deepfake, più il liar's dividend diventa efficace. La consapevolezza del problema diventa parte del problema.

4. Una cosa che penso

La democrazia funziona su un presupposto implicito: che i cittadini abbiano strumenti sufficienti per valutare la realtà e fare scelte consapevoli. Non serve che siano filosofi. Serve che abbiano accesso a informazioni affidabili, che dedichino una quota minima di attenzione alla cosa pubblica, e che siano disposti a mettere il bene comune almeno in competizione con il proprio interesse immediato.

Nessuna di queste tre condizioni è soddisfatta oggi, e non lo è per ragioni strutturali, non per colpa di qualcuno in particolare.

Gli italiani trascorrono in media 5 ore e 39 minuti al giorno online, di cui 1 ora e 48 minuti sui social media. (Fonte: We Are Social / Meltwater, Digital Report 2025, febbraio 2025) In quello stesso tempo, la quota di persone che legge un libro, un giornale o un approfondimento di qualsiasi tipo è in caduta costante da vent'anni. Non è un giudizio morale: è il risultato prevedibile di un sistema informativo progettato per massimizzare l'engagement piuttosto che la comprensione.

In questo contesto, i deepfake non sono la causa del problema: ne sono il suo acceleratore. Prima di loro c'erano i titoli clickbait, le bolle algoritmiche, i video di 15 secondi ottimizzati per l'attenzione residua. L'AI generativa ha semplicemente abbassato il costo di produzione della disinformazione a quasi zero, rendendo disponibile a chiunque quello che prima richiedeva risorse e competenze.

La mia lettura è questa: una democrazia che si regge sulla ricerca spasmodica del consenso invece che sulla qualità del dibattito pubblico è strutturalmente vulnerabile a qualsiasi tecnologia che renda la manipolazione più economica. I social erano il megafono e l’AI è la voce instancabile e a costo zero che parla attraverso questo megafono. E purtroppo abbiamo smesso di chiederci chi lo tenga in mano e perché.

Non ho una soluzione semplice da offrire. Chiunque ti dica di averla probabilmente sta cercando di vendere qualcosa. Quello che penso è che la risposta non possa essere solo tecnica: algoritmi di rilevamento migliori, watermark obbligatori, regolamentazione delle piattaforme. Tutte cose necessarie, ma non sufficienti. La risposta deve essere anche culturale: investire seriamente nell'educazione critica, nel giornalismo indipendente, nella capacità collettiva di coltivare il dubbio senza volerlo risolvere in fretta (e, spesso, scegliendo la verità che ci sia più comoda).

È una risposta lenta, costosa e poco divertente. Per questo nessuno la propone davvero.

5. La bussola della settimana

La prossima volta che vedi un video di un politico che dice qualcosa di sorprendente, che sia scandaloso o che confermi esattamente quello che già pensi di quella persona, fermati un secondo prima di condividerlo.

Non perché sia quasi certamente falso. Probabilmente è autentico.

Ma perché la domanda "potrebbe essere un deepfake?" è diventata uno strumento a doppio uso: protegge dal falso, ma può anche essere usata per screditare il vero. E imparare a distinguere i due usi, quando il dubbio è legittimo e quando è strumentale, è diventata una competenza democratica, non solo digitale.

L'AI ha abbassato il costo della menzogna a quasi zero mentre il costo della verifica è rimasto alto. Questo squilibrio non si risolve con un algoritmo di rilevamento, ma si affronta con le abitudini: cercare la fonte originale, controllare chi ha verificato il contenuto, diffidare dei video che arrivano già pronti a confermare quello che si vuole sentire.

Non è una garanzia però è l'unica direzione che mi sembri sensata.

A lunedì prossimo.

Alberto

Fonti principali di questo numero:

  • Global Witness, "What happened on TikTok around the annulled Romanian presidential elections", dicembre 2024 — globalwitness.org

  • ANSA / Internazionale / Valigia Blu, elezioni presidenziali Romania annullate, dicembre 2024 - marzo 2025

  • Euronews, "Romanian electoral committee halts Calin Georgescu's presidential bid", marzo 2025

  • Policy Options / Al Jazeera, robocall deepfake Joe Biden New Hampshire, 2024

  • Mondo Internazionale, "Quando l'IA entra in cabina elettorale", dicembre 2025

  • Pagella Politica, "La proposta del PD per vietare i deepfake nella propaganda politica", febbraio 2026 - pagellapolitica.it

  • Chesney, Bobby e Citron, Danielle, "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security", California Law Review, 2019

  • American Political Science Review, "The Liar's Dividend: Can Politicians Claim Misinformation to Evade Accountability?", 2024

  • Kaspersky GReAT / fabioambrosi.it, "Costi deepfake: quanto costa davvero creare un falso credibile", settembre 2025

  • ICT Security Magazine, "Deepfake in tempo reale: la fine dell'identità digitale sicura è già iniziata", ottobre 2025

  • LSE, "The Deepfake Blindspot in AI Governance", dicembre 2025

  • Salon / The Guardian, caso Chris Cuomo deepfake AOC, agosto 2025

  • Siwei Lyu (Università di Buffalo) / The Conversation, "Deepfake in crescita esplosiva: cosa ci aspetta davvero nel 2026", dicembre 2025

  • ADL Consulting, "Deepfake, IA generativa e verità", giugno 2025

  • We Are Social / Meltwater, Digital Report 2025, febbraio 2025 - wearesocial.com

Continua a leggere