Ciao,
benvenuto al secondo numero di Turing Point.
Se sei qui è perché vuoi capire l'AI per quello che è — non per come viene venduta. Questo numero parte da qualcosa che probabilmente hai già notato nel tuo comportamento quotidiano, forse senza rifletterci troppo: stai cercando su Google un po' meno di prima.
Non è nostalgia. È un cambiamento strutturale in corso, e vale la pena capirlo bene.
Per vent'anni, il funzionamento dell'informazione online si reggeva su un contratto implicito tra tre soggetti: tu che cercavi, Google che indicizzava, i media che producevano contenuto.
Il meccanismo era semplice: un giornale scriveva un articolo, Google lo indicizzava, tu cercavi qualcosa, cliccavi sul link, il giornale guadagnava con la pubblicità. Tutti prendevano qualcosa. Il traffico organico da Google era — senza esagerazione — l'ossigeno economico del publishing online. Senza clic, niente pagine viste. Senza pagine viste, niente pubblicità. Senza pubblicità, meno giornalisti.
Non era un sistema perfetto. I media si sono deformati per compiacere l'algoritmo di Google: titoli ottimizzati per keyword, articoli gonfiati per aumentare il tempo di permanenza sulla pagina, contenuti "evergreen" sfornati a ritmo industriale perché scalavano bene nei risultati. La SEO — Search Engine Optimization — è diventata una vera e propria industria parallela al giornalismo, spesso in conflitto con esso.
Ma il meccanismo reggeva. E, soprattutto, aveva una caratteristica importante: Google mostrava le fonti. Tu potevi aprire cinque link, confrontarli, giudicare. L'arbitro era l'algoritmo, ma i giocatori erano ancora i media.
Cosa è cambiato: la risposta diretta
Nel maggio 2024, Google ha lanciato su larga scala in America le cosiddette AI Overviews: riquadri generati dall'intelligenza artificiale che appaiono in cima ai risultati di ricerca e rispondono direttamente alla tua domanda, senza che tu debba cliccare su nessun sito.
L'idea, dal punto di vista dell'utente, ha senso: perché aprire tre articoli per trovare l'orario di apertura di un museo, la ricetta della pasta al forno o la definizione di un termine legale, quando Google può dirtelo subito?
Il problema è che questa comodità ha spezzato il vecchio patto.
I numeri raccontano quello che è successo in poco più di un anno. Il traffico organico ai siti di informazione è crollato da 2,3 miliardi di visite mensili a metà 2024 a meno di 1,7 miliardi entro maggio 2025: oltre 600 milioni di visite perse in dodici mesi. (Fonte: Similarweb, elaborazione The Digital Bloom, novembre 2025.) Le ricerche che non portano a nessun sito — le cosiddette "zero-click search" — sono passate dal 56% al 69% nello stesso periodo. (Fonte: Similarweb, maggio 2025.)
Non sono solo i piccoli siti a soffrire. Business Insider ha perso il 55% del traffico organico tra il 2022 e il 2025, e ha tagliato il 21% del personale. HuffPost ha dimezzato i referral dalla ricerca. MailOnline (una delle testate più lette nel Regno Unito) ha dichiarato un calo del 56% dei click provenienti da ricerca organica, indicando le AI Overviews come causa principale. (Fonte: Search Engine Land, maggio 2025.)
Una ricerca del Pew Research Center, condotta su 68.000 ricerche reali effettuate da 900 adulti americani, ha misurato il meccanismo in modo preciso: quando compare un AI Overview, solo l'8% degli utenti clicca ancora su un risultato tradizionale. Senza riepilogo AI, quella percentuale è quasi doppia: il 15%. (Fonte: Pew Research Center, luglio 2025.)
Il nuovo paesaggio: molti intermediari, poca trasparenza
Al posto di Google — o meglio, in aggiunta a Google che sta cambiando — sono entrati nuovi attori: ChatGPT, Gemini, Perplexity, Copilot. Ognuno con la propria logica, le proprie fonti preferite, i propri criteri di selezione.
ChatGPT oggi conta 883 milioni di utenti mensili, supera Bing per visite globali ed è il quinto sito più visitato al mondo. Gestisce circa 2 miliardi di query al giorno. (Fonte: Exposureninja / Similarweb, gennaio 2026.) Non è più un esperimento di nicchia: è un'infrastruttura di informazione di massa.
C'è però un aspetto che vale la pena capire bene, perché sfugge spesso alla percezione comune.
Questi sistemi non ti mandano sui siti. Rispondono loro.
Solo un terzo degli utenti dichiara di cliccare sistematicamente sui link fonte quando riceve una risposta da un AI. Il 28% non lo fa quasi mai. (Fonte: Reuters Institute, Generative AI and News Report, 2025.) E il traffico complessivo che tutte le piattaforme AI inviano ai publisher, messe insieme, rappresenta ancora soltanto l'1% del traffico totale. (Fonte: Conductor / Digiday, 2025.)
Il vecchio intermediario — Google — aveva almeno un meccanismo visibile. C'era una classifica, c'erano delle regole, si poteva lavorare per migliorare la propria posizione. Il nuovo intermediario non ha classifiche pubbliche. Non si sa con precisione perché un certo contenuto viene citato o escluso. Chi non viene menzionato nelle risposte AI non esiste, per chi usa quelle piattaforme — ma nessuno sa esattamente perché.
La questione che merita attenzione: l'AI risponde, ma con quale accuratezza?
C'è un aspetto di questa transizione su cui vale la pena soffermarsi, non per allarmarsi, ma per essere consapevoli di come funziona lo strumento che stiamo usando.
Con Google, il processo di verifica era incorporato nel design del sistema: ti venivano mostrate più fonti, stava a te confrontarle. L'AI, invece, sintetizza e risponde in modo diretto, con un tono autorevole. Questo è utile nella maggior parte dei casi — ma cambia la natura dell'interazione con l'informazione.
Il Columbia University Tow Center for Digital Journalism ha testato ChatGPT Search su 200 tentativi di citare fonti giornalistiche note: il sistema risultava "sicuro nella risposta ma scorretto nella citazione" nel 76,5% dei casi. (Fonte: Tow Center for Digital Journalism, Columbia University, 2024-25.) Uno studio successivo del 2025 ha trovato che 8 motori di ricerca AI citano fonti di notizie errate nel 60% dei casi. (Fonte: follow-up Tow Center, 2025.)
La BBC e l'European Broadcasting Union — l'organizzazione che rappresenta RAI, ZDF e le principali emittenti pubbliche europee — hanno pubblicato il più ampio studio internazionale mai condotto sull'accuratezza dell'AI nel trattamento di contenuti giornalistici (coinvolgendo 22 organizzazioni di media pubblico in 18 paesi). Risultato: il 45% delle risposte contiene distorsioni rispetto al contenuto originale, e il 20% include gravi problemi di accuratezza. (Fonte: EBU News Report, ottobre 2025.)
Non è un difetto di un solo sistema: è una caratteristica strutturale dei modelli linguistici, che generano testo plausibile ottimizzandolo per sembrare coerente, non necessariamente per essere accurato su ogni dettaglio fattuale. I modelli migliorano continuamente, ma il problema non è ancora risolto.
Un caso concreto che aiuta a capire la dinamica: a febbraio 2025, l'AI Overview di Google ha presentato come fatto verificato un articolo satirico del Primo d'Aprile su "api microscopiche che alimentano i computer". Il sistema non aveva intenzione di ingannare — ha semplicemente prodotto una risposta plausibile attingendo a un testo che non aveva riconosciuto come satira. (Fonte: Harvard Kennedy School Misinformation Review, agosto 2025.)
Questo non significa che le AI siano inutili per informarsi — sarebbe una conclusione sbagliata. Significa che è utile sapere come funzionano, soprattutto su argomenti dove l'accuratezza conta: salute, diritto, politica, finanza.
Chi ci guadagna, chi no — e cosa succederà
I media leader di 51 paesi, intervistati dal Reuters Institute alla fine del 2025, si aspettano un ulteriore calo del 43% del traffico da search nei prossimi tre anni. La stima viene da 280 direttori, CEO e responsabili digitali di alcune delle principali testate mondiali. (Fonte: Reuters Institute, Journalism and Technology Trends and Predictions 2026, gennaio 2026.)
Non tutta l'informazione è ugualmente esposta. Chi produce contenuti facili da sintetizzare — guide pratiche, articoli informativi standard, notizie di servizio — è il più vulnerabile, perché un AI può riassumerli in tre righe senza perdere quasi nulla. Chi produce inchieste originali, reportage sul campo, analisi contestuale profonda, è strutturalmente più difficile da rimpiazzare o sintetizzare.
C'è anche una dinamica interessante e un po' controintuitiva che emerge dalla ricerca economica: l'esposizione alla disinformazione generata dall'AI potrebbe paradossalmente aumentare il valore percepito dei media con una solida reputazione di credibilità. Quando la fiducia diventa scarsa, il suo prezzo sale. (Fonte: Campante, Durante et al., CEPR Discussion Paper, 2025.)
I modelli di business che stanno tenendo meglio sono quelli che non dipendono dal traffico algoritmico: newsletter dirette (dove il lettore ha scelto di riceverti, senza intermediari), community a pagamento, abbonamenti, eventi. Formati come podcast e video, più difficili da sintetizzare in una risposta testuale. Alcuni grandi editori stanno anche esplorando accordi di licensing con le stesse aziende AI — News Corp ha già firmato un accordo con OpenAI — per essere compensati quando i loro contenuti vengono usati per addestrare i modelli o generare risposte.
Uno spunto con cui chiudere
Per vent'anni l'intermediario dell'informazione online era uno solo, con un enorme potere di mercato: Google. Ora gli intermediari sono diventati di più — ma il principio è rimasto lo stesso. Qualcuno, tra te e l'informazione, decide cosa vale la pena mostrarti e come presentartela.
La differenza è che oggi quella selezione avviene in modo ancora meno trasparente di prima, con sistemi che raramente spiegano perché hanno incluso o escluso una fonte, e che — come mostrano i dati — non sono ancora completamente affidabili sui fatti.
La cosa più utile che puoi fare, come utente, è essere consapevole di questo meccanismo. Non smettere di usare l'AI per informarti — sarebbe una reazione sproporzionata. Ma trattarla come tratteresti qualsiasi fonte: con la curiosità di verificare, quando la posta in gioco è alta.
A lunedì prossimo.
Turing Point esce ogni lunedì. Se questo numero ti ha fatto venire voglia di rispondere, dissentire, o mandarlo a qualcuno che ha bisogno di leggere cose scomode — fallo.
— Alberto
P.S. Rispondo alle email, tutte (magari con calma 😅 ). Se hai un dato che smentisce qualcosa che ho scritto, fammelo sapere in modo da poter correggere quanto ho pubblicato, a beneficio di tutti!
Fonti principali di questo numero:
Gartner, previsioni traffico search 2026
Similarweb / The Digital Bloom, analisi traffico publisher, novembre 2025
Pew Research Center, studio comportamento utenti su AI Overviews, luglio 2025
Wall Street Journal / Similarweb, dati Business Insider e HuffPost, 2025
Search Engine Land, DMG Media click-through rate, settembre 2025
Reuters Institute, Generative AI and News Report, 2025
Reuters Institute, Journalism and Technology Trends and Predictions 2026, gennaio 2026
Tow Center for Digital Journalism, Columbia University, studio accuratezza ChatGPT Search, 2024-25
European Broadcasting Union (EBU), News Report sull'accuratezza AI, ottobre 2025
Harvard Kennedy School Misinformation Review, agosto 2025
Campante, Durante et al., CEPR Discussion Paper 20526, 2025
Exposureninja / Similarweb, dati ChatGPT, gennaio 2026
Conductor / Digiday, dati traffico AI verso publisher, 2025
