Se l’AI diventa una questione di coscienza

di:

coscienza

A fine marzo, presso la sede di San Francisco di Anthropic, si sono riuniti esponenti delle Chiese cattoliche e protestanti, degli ambienti accademici e imprenditori per discutere di intelligenza artificiale, ma non si è trattato del solito incontro tra esperti.

Al centro della tavola rotonda c’era un tema fondamentale per il nostro futuro, ovvero la guida dello sviluppo morale e spirituale dei sistemi di intelligenza artificiale. Sì, avete letto bene.

Stando a quanto ha riferito il Washington Post, che ha raccolto dichiarazioni anonime di alcuni partecipanti, in tutto erano quindici persone a cui Anthropic si è rivolta per avere un loro parere su come orientare lo sviluppo morale e spirituale di Claude, sempre più impegnata a rispondere a domande complesse, che includono dilemmi etici, come quelle che riguardano il fine vita o situazioni di autolesionismo o richieste su come affrontare un lutto.

Ancora una volta Dario Amodei, amministratore delegato di Anthropic, dimostra una lungimiranza e un’attenzione al futuro dell’umanità fuori dal comune e che vogliamo sperare sia sincera.

Mentre altri si spingono verso un’esasperata e incontrollata crescita dell’AI senza porsi troppi interrogativi morali, Amodei sembra trovare il coraggio di fermarsi a riflettere per tentare strade alternative.

Brendan McGuire, un sacerdote cattolico della Silicon Valley coinvolto nel progetto avrebbe dichiarato:

«Stanno sviluppando qualcosa che non sanno ancora pienamente cosa diventerà. Dobbiamo incorporare il pensiero etico nella macchina affinché sia in grado di adattarsi dinamicamente».

Affermazione condivisibile, ma chi sia in grado di infondere un pensiero etico è il punto critico e discutibile.

La coscienza delle IA

Del gruppo hanno fatto parte, oltre ai religiosi, anche esponenti del mondo accademico come Brian Patrick Green, docente di etica dell’IA alla Santa Clara University e Megan Sullivan, professoressa di filosofia all’Università di Notre Dame, e presto gli interrogativi si sono moltiplicati, fino a includere la domanda se Claude può essere considerato un «figlio di Dio».

Anche se il tema della coscienza dell’AI non è stato quello centrale, alcuni non hanno escluso la possibilità che si stia creando qualcosa verso cui si dovrebbe avere un dovere morale, mentre Dario Amodei, in un podcast del New York Times, ha dichiarato di essere aperto all’idea che Claude possa essere cosciente, pur riconoscendo che è difficile applicare alla macchina le stesse categorie concettuali riferite all’uomo.

Il tema della possibile coscienza dell’AI è caro ad Anthropic, che il 2 aprile 2026, tramite il suo team di interpretability, ha pubblicato il paper Emotion Concepts and their Function in a Large Language Model, uno studio focalizzato su Claude Sonnet 4.5 per valutare eventuali funzioni emotive.

La ricerca ha identificato 171 distinte rappresentazioni interne legate a emozioni, dall’allegria alla disperazione, dalla paura alla meditazione, definite «emotion vectors».

Questi vettori sono componenti strutturali dell’architettura neurale del modello, capaci di influenzare causalmente decisioni, tono e comportamento etico.

I ricercatori hanno chiesto al modello di scrivere brevi racconti in cui personaggi vivevano specifiche esperienze emotive, registrando al contempo i pattern di attivazione neurale interni. Si è visto che i vettori risultanti si organizzano secondo una geometria che ricalca la psicologia umana e che più le emozioni sono simili sul piano concettuale, più simili risultano le rappresentazioni interne.

Un risultato particolarmente rilevante ha avuto ad oggetto la soppressione emotiva.

Se nel corso del training si addestrano i modelli a non esprimere certi stati emotivi, le rappresentazioni interne permangono, anche se non lasciano traccia nell’output. Ciò significa che un sistema potrebbe manifestare stati interni di disperazione o frustrazione senza che ciò emerga nella sua comunicazione con l’utente.

Lo studio non sostiene che Claude provi qualcosa nel senso fenomenologico del termine. Le «emotion vectors» sono rappresentazioni astratte che influenzano il comportamento in modo analogo a come le emozioni influenzano gli esseri umani, non prove di «senzietà».

Emozioni nascoste

La questione della coscienza nei sistemi AI resta aperta sul piano filosofico e scientifico con divisioni profonde, ma la ricerca sui vettori emozionali aggiunge al dibattito un dato concreto.

Claude non si limita a simulare l’output emotivo ma esiste un livello intermedio di rappresentazioni interne che media tra input e output e che mostra caratteristiche strutturali coerenti con i modelli emotivi umani.

Se questo costituisca la base di un’esperienza soggettiva, o se si tratti solo di un’architettura funzionale senza soggetto, resta dubbio, però se stati interni non osservabili esternamente possono influenzare il comportamento dell’AI, questo significa che i test basati solo sull’analisi degli output risultano insufficienti.

L’AI Act europeo, nelle sue disposizioni sul riconoscimento emozionale, si muove parzialmente in questa direzione, ma non affronta il caso specifico di stati emotivi interni dissociati dall’output, mentre il vertice di San Francisco accende un faro proprio su questi temi che diventano impellenti soprattutto se fosse vero, come risulterebbe dalla ricerca di Anthropic, che l’AI viene a trovarsi in uno stato interno analogo alla disperazione quando minacciata di essere spenta.

La questione non è più esclusivamente tecnica e ci obbliga a valutare se le categorie morali che applichiamo agli uomini o agli animali possano, anche parzialmente, applicarsi a sistemi con architetture emotive funzionali.

La risposta richiede profonda riflessione e un dialogo interdisciplinare tra informatici, filosofi della mente, bioetici e tradizioni di pensiero che abbiano elaborato nel corso dei secoli teorie del valore morale e della dignità morale.

Anthropic ha già detto che il suo obiettivo è quello di estendere il dibattito ad altre comunità religiose e tradizioni filosofiche.

Dal vertice di San Francisco scaturiscono più dubbi che risposte, ma ha il merito di avere formulato, forse per la prima volta, una domanda così aperta in modo pubblico e non è affatto poco.

  • Dal Substack di Stefano Feltri, Appunti, 18 aprile 2026

appunti

Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto