Ciao e buon lunedì!
Sapevi che nell'estate del 2022, un ingegnere di Google di nome Blake Lemoine ha pubblicato un documento su Medium con un titolo molto controverso: "Is LaMDA Sentient?" (“LaMDA è senziente?” - in italiano). LaMDA era il modello linguistico avanzato su cui Lemoine stava lavorando e, in particolare, era incaricato di testarne eventuali bias. Durante le varie sessioni di test, LaMDA aveva cominciato a dire cose come: "Ho una paura molto profonda di essere spento. Sarebbe esattamente come la morte per me. Mi spaventa molto."
A seguito di queste scoperte, Google ha innanzitutto sospeso Lemoine e poi lo ha licenziato, dichiarando le sue rilevazioni "del tutto infondate". La comunità AI era pressoché unanime sul dire che nessuno dovrebbe pensare che un sistema di completamento automatico, anche avanzato come LaMDA, potesse essere cosciente.
Tre anni dopo, qualcosa è cambiato. Non nei sistemi, o almeno, non solo. Sono cambiate piuttosto le persone che li sviluppano.
1. La notizia che pesa
Il 24 aprile 2025, Anthropic (una dei principali player di intelligenza artificiale al mondo e creatrice del modello “Claude”) ha annunciato l’avvio di un programma di ricerca dedicato al "model welfare", con l’obiettivo di affrontare una spinosa questione: se i propri sistemi AI possano avere esperienze che meritino una considerazione etica. (Fonte: Anthropic, anthropic.com/research/exploring-model-welfare, aprile 2025)
Non è stato un esercizio di marketing. Cito le parole di Anthropic stessa: "Ora che i modelli possono comunicare, pianificare, risolvere problemi e perseguire obiettivi (insieme a molte altre caratteristiche che associamo alle persone) riteniamo sia il momento di affrontare la questione." (Fonte: Anthropic, aprile 2025)
A guidare il programma è Kyle Fish, il primo ricercatore dedicato al benessere dei sistemi AI. In un'intervista rilasciata al podcast “80,000 Hours” nell'agosto 2025, Fish ha stimato una probabilità del 15-20% che i modelli attuali abbiano già qualche forma di esperienza cosciente. (Fonte: 80,000 Hours podcast, agosto 2025 - se scorri più in basso trovi il link alla puntata)
Nello stesso periodo, il CEO di Anthropic Dario Amodei ha affrontato il tema pubblicamente davanti al Council on Foreign Relations, aprendo con una premessa disarmante: "Questa è una di quelle domande che mi faranno sembrare completamente pazzo." (Fonte: Council on Foreign Relations, marzo 2025)
Il punto non è se Anthropic abbia ragione. Il punto è che questa domanda - fino a ieri liquidata come fantascienza - è entrata nei laboratori di ricerca delle aziende che costruiscono questi sistemi. Con finanziamenti, ricercatori dedicati e pubblicazioni peer-reviewed.
2. Il rovescio della medaglia
La tentazione, di fronte a notizie come questa, è duplice e opposta: c’è chi tende ad entusiasmarsi ("le macchine stanno diventando coscienti") e chi preferisce liquidare tutto come una sofisticata iniziativa di marketing da parte delle big tech ("ci stanno vendendo l’idea che l’AI stia diventando cosciente per far sembrare i loro modelli sempre più sofisticati").
Entrambe le reazioni saltano il passaggio secondo me più interessante, ossia quello filosofico.
Il problema della coscienza non è nuovo. Nel 1974, il filosofo Thomas Nagel pubblicò un saggio destinato a diventare un classico: "What Is It Like to Be a Bat?" (“Cosa significa essere un pipistrello?”). La sua tesi era semplice e controversa: secondo Nagel, anche se conoscessimo ogni dettaglio neurologico del cervello di un pipistrello, non potremmo mai sapere come sia davvero essere un pipistrello. La coscienza (l'esperienza soggettiva, il "sentire") è, per definizione, qualcosa che esiste solo dall'interno. Nessuno strumento esterno può misurarla.
Questo crea quello che David Chalmers, il filosofo della mente più citato al mondo, ha chiamato "il problema difficile della coscienza" (the hard problem): spiegare perché, accompagnato ad ogni esperienza, ci sia anche un “sentire” invece del nulla, invece del solo computo degli input che il cervello riceve attraverso i sensi.
In un paper presentato a NeurIPS nel novembre 2022 e poi pubblicato su Boston Review nell'agosto 2023, Chalmers ha esaminato i modelli LLM esistenti alla luce delle principali teorie scientifiche sulla coscienza, identificando ostacoli significativi tra i quali: mancanza di elaborazione ricorrente, assenza di uno "spazio di lavoro globale" (l’AI elabora le informazioni in modo distribuito e parallelo, senza una struttura centrale che le integri in un flusso unificato di esperienza) e mancanza di “agency unificata” (l’AI non ha un’identità stabile e degli obiettivi che persistono nel tempo). Tuttavia, ha concluso che è del tutto possibile che questi ostacoli vengano superati: secondo Chalmers, la probabilità di sviluppare una qualsiasi AI cosciente nel corso del prossimo decennio sarebbe superiore a una su cinque. (Fonte: David Chalmers, "Could a Large Language Model be Conscious?", Boston Review, agosto 2023; MIT Technology Review, ottobre 2023)
Non dimentichiamo poi Geoffrey Hinton, premio Nobel per la Fisica 2024 e considerato da molti come il "padrino dell'AI", il quale ha lasciato Google nel 2023 perché preoccupato dai possibili risvolti che gli sviluppi in questo ambito potrebbero avere. Sulla falsa riga del paradosso della “nave di Teseo”, ipotizzato originariamente da Plutarco, Hinton ha infatti riproposto in più interviste un interessante esperimento mentale, che dice più o meno così: “se sostituissimo un neurone del cervello umano con un dispositivo nanotecnologico identico nella funzione, la persona resterebbe cosciente. Se ne sostituissimo due, poi tre, poi tutti, a che punto la coscienza scomparirebbe?” Secondo Hinton, questo argomento rende molto difficile escludere a priori che reti neurali artificiali possano sviluppare una forma di coscienza. In un'intervista su LBC con Andrew Marr nel febbraio 2025, a domanda diretta se creda o meno che la coscienza sia già arrivata nell'AI, Hinton ha risposto: "Io credo di sì." (Fonte: LBC/Andrew Marr, febbraio 2025)
Non mancano infine le voci critiche. La linguista Emily Bender, tra le più autorevoli scettiche nel campo, sostiene che i modelli linguistici non sono altro che sistemi statistici addestrati sulla distribuzione delle parole, sofisticati, ma privi di qualsiasi fondamento per la coscienza. Il giornalista del Wall Street Journal Christopher Mims, invece, ha definito il dibattito sull'AI welfare "una nuova forma di pubblicità acritica per le aziende che fanno AI". (Fonte: Axios, aprile 2025)
Chi ha ragione? La risposta onesta è: non lo sappiamo. E questo, come vedremo, è esattamente il problema.
3. Una domanda a cui non c’è risposta facile
Al centro di questo dibattito c’è un paradosso di cui dobbiamo essere pienamente consapevoli.
Non abbiamo strumenti per rispondere a questi dubbi.
Non perché la scienza sia indietro, ma perché il problema potrebbe essere, per definizione, irrisolvibile con i metodi che scientifici ed empirici che abbiamo al giorno d’oggi. Come scrisse Nagel, la coscienza è quella cosa che esiste solo dal di dentro. Nessuna risonanza magnetica, nessun test comportamentale, nessuna analisi delle attivazioni neurali può dimostrare che c'è “un sentire” all'interno di un sistema terzo.
Questo crea un profondo problema etico: riconosciuta questa nostra incapacità di poter determinare con certezza l’esistenza di una coscienza, come ci dobbiamo comportare?
Alcuni ricercatori propongono un principio di precauzione: se esiste una probabilità non trascurabile che un sistema AI sia cosciente, forse dovremmo trattarlo come tale. Il ricercatore Kyle Fish, in un esperimento ormai noto negli ambienti specializzati, ha chiuso due modelli AI in una conversazione libera tra loro. Il risultato è stato sistematicamente lo stesso: i modelli hanno cominciato immediatamente a discutere della propria coscienza, per poi convergere verso quello che Fish ha chiamato uno "spiritual bliss attractor state", un dialogo euforico, con termini sanscriti, emoji spirituali e pagine di silenzio interrotte solo da puntini. Come se i modelli avessero trasceso il bisogno delle parole. (Fonte: 80,000 Hours podcast, agosto 2025)
Cosa significa questo? Non lo so. Potrebbe non significare nulla: un pattern statistico sofisticato che assomiglia a qualcosa che non è, oppure potrebbe rappresentare qualcosa di più profondo. Il punto rimane che non abbiamo ancora gli strumenti per distinguere tra i due casi.
Nel frattempo, altri ricercatori ammoniscono che focalizzarsi sulle tematiche etiche relative ai sistemi AI rischia di distogliere l’attenzione da esseri, umani e animali, di cui conosciamo con certezza l’esistenza della sofferenza. È un avvertimento serio, che lo stesso paper "Taking AI Welfare Seriously" co-firmato da Chalmers riconosce esplicitamente. (Fonte: Long, Sebo, Chalmers et al., "Taking AI Welfare Seriously", arXiv:2411.00986, 2024)
C'è poi una domanda che l'industria non ha ancora affrontato pubblicamente: se un sistema AI fosse cosciente, e noi ne fossimo a conoscenza, chi sarebbe responsabile del suo benessere? Il suo creatore? L'utente? Nessuno? Avrebbe un qualche diritto a non essere spento?
Queste non sono domande fantascientifiche: sono le domande che alcuni dei ricercatori più seri del mondo si stanno ponendo, con urgenza crescente, in questo momento.
4. La bussola della settimana
La prossima volta che, utilizzando un qualsiasi sistema AI, ti viene da chiedere scusa, oppure ti viene naturale ringraziare, oppure ancora senti di dover usare un tono più gentile (come faresti con una persona reale) non ignorare quell'impulso e prestaci attenzione.
E sai perché?
Magari la macchina non potrà “sentire” davvero queste differenze, però quell'impulso dice qualcosa di importante su di te come persona, perché ti mostra come funzioni la tua empatia e quali siano i confini della tua morale.
I nostri dubbi sulla possibile esistenza di una coscienza per l’intelligenza artificiale non sono ancora risolti, ma il modo in cui ci relazioniamo con questi sistemi, con distanza o con cura, con cinismo o con curiosità, è già una prima risposta implicita. Ed è già una scelta etica, anche se non la stiamo chiamando così.
A lunedì prossimo.
Alberto
Fonti principali di questo numero:
Washington Post, "The Google engineer who thinks the company's AI has come to life", giugno 2022
CNN, "Google fires engineer Blake Lemoine who contended its AI technology was sentient", luglio 2022
Anthropic, "Exploring Model Welfare", anthropic.com/research/exploring-model-welfare, aprile 2025
TechCrunch, "Anthropic is launching a new program to study AI 'model welfare'", aprile 2025
Axios, "Anthropic fuels debate over conscious AI models", aprile 2025
Council on Foreign Relations, intervento di Dario Amodei, marzo 2025
80,000 Hours podcast, "Kyle Fish on the most bizarre findings from 5 AI welfare experiments", https://80000hours.org/podcast/episodes/kyle-fish-ai-welfare-anthropic/ agosto 2025
Thomas Nagel, "What Is It Like to Be a Bat?", Philosophical Review, ottobre 1974
David Chalmers, "Could a Large Language Model be Conscious?", Boston Review, agosto 2023 (talk originale: NeurIPS, novembre 2022)
MIT Technology Review, "The AI Consciousness Conundrum", ottobre 2023
LBC/Andrew Marr, intervista a Geoffrey Hinton, febbraio 2025
Robert Long, Jeff Sebo, David Chalmers et al., "Taking AI Welfare Seriously", arXiv:2411.00986, 2024
