
Dimenticatevi dei robot che vi rubano il vostro prezioso lavoro da impiegati. È un’ansia ormai superata, il tipo di panico sull’intelligenza artificiale che vedete riproposto all’infinito nei notiziari da consulenti che vendono i loro scarabocchi su Substack sul futuro del lavoro.
La vera storia, quella che dovrebbe tenere svegli la notte i rettori delle università, i burocrati dell’accreditamento e i direttori delle ammissioni a ingozzarsi di Ambien come se fossero Tic-Tac, è molto più significativa e minacciosa.
L’intelligenza artificiale non sta minacciando principalmente i posti di lavoro. Sta distruggendo l’intero ecosistema dell’istruzione universitaria che per generazioni ha funzionato come custode principale dei percorsi e apparato di certificazione per l’occupazione professionale.
In altre parole, l’IA è pronta a fare alle università ciò che l’uragano Katrina ha fatto a New Orleans. O l’asteroide ai dinosauri.
L’IA e il dinosauro università
Lasciatemi spiegare, partendo dai dati stessi. Secondo l’analisi 2025 di Microsoft, circa cinque milioni di posizioni impiegatizie – analisti di gestione, rappresentanti del servizio clienti, ingegneri commerciali – rischiano l’estinzione, poiché l’IA crea quella che alcuni economisti definiscono «la più grande forza deflazionistica nella storia dell’umanità».
Il CEO di Ford Jim Farley ha avvertito che l’IA «sostituirà letteralmente la metà di tutti gli impiegati». Il CEO di Salesforce Marc Benioff ha affermato che essa sta già sostenendo fino al 50% del carico di lavoro della sua azienda. JPMorgan e Goldman Sachs stanno sfruttando l’IA per assumere ancora meno personale di quello che hanno attualmente.
Potrebbe trattarsi di un futurismo speculativo esagerato, ma non è detto. Barton Swaim, scrivendo sul Wall Street Journal, paragona l’allarmismo sull’intelligenza artificiale all’allarmismo sul cambiamento climatico di un tempo.
Una confederazione di specialisti – scienziati del clima in una versione, geni della Silicon Valley in un’altra – si unisce a politici liberali e dirigenti di organizzazioni no profit per mettere in guardia da una catastrofe imminente. L’unica risposta morale a questa nuova situazione, ci dicono questi campioni, è trasferire l’autorità su gran parte dell’economia a persone come loro. Il fatto che essi favoriscano un tale trasferimento in qualsiasi circostanza, con o senza un disastro imminente, non disturba la stampa mainstream che riporta le loro previsioni con credulità e fervore. Nel frattempo, la gente comune, priva delle conoscenze specialistiche necessarie per trarre le proprie conclusioni, si sente intimidita e costretta ad accettare tutto questo.
Allo stesso tempo, lo stesso Journal riporta che i maggiori datori di lavoro americani stanno riducendo i posti di lavoro impiegatizi «a un ritmo allarmante». I dati di Challenger, Gray & Christmas mostrano che i datori di lavoro statunitensi hanno annunciato 696.396 licenziamenti solo nei primi cinque mesi del 2025, con un aumento dell’80% rispetto all’anno precedente.
Ma ecco il punto cruciale, che tutta la nostra classe di esperti storditi sembra non capire. Il problema non è che l’IA sta per saccheggiare i mezzi di sussistenza delle persone. Il problema è che l’intero meccanismo dell’istruzione universitaria, progettato per preparare le persone a quei mezzi di sussistenza, è diventato una sorta di dinosauro, e l’IA è l’asteroide che sta per colpire e garantirne la rapida estinzione.
Diamo un’occhiata a come si è evoluto il modello di business prevalente dell’istruzione universitara nel corso dell’ultimo mezzo secolo.
Le università non si occupano principalmente di istruire gli studenti, ma di sfornare titoli di studio, pezzi di pergamena che segnalano ai datori di lavoro che Tizio o Caio hanno frequentato tot ore di lezione e tot corsi, accumulando nel frattempo crediti sufficienti a testimoniare il loro impegno incondizionato verso la carriera.
Il modello di business non è stato sviluppato dalle università. È stato forgiato e perfezionato nel corso dei decenni dagli stessi datori di lavoro e dai loro sostenitori politici, che hanno spinto l’istruzione universitaria in quella direzione fin dall’inizio.
Come evidenzia una recente analisi della rivista Frontiers in Education, tre pilastri hanno sostenuto a lungo l’istruzione superiore: la trasmissione di informazioni attraverso le lezioni; le valutazioni standardizzate come dimostrazione di padronanza; e i diplomi come monopolio della legittimazione che deriva dal rilascio di titoli di studio. Ciascuno di questi pilastri è ora destabilizzato dall’IA.
Consideriamo il più solido di questi tre pilastri: la trasmissione di informazioni. I tutor IA e le piattaforme multimodali hanno reso l’insegnamento unidirezionale «rapidamente superfluo». Gli studenti di alcuni paesi del Medio Oriente riferiscono addirittura di preferire le simulazioni basate sull’IA al prendere appunti in maniera passiva.
Valutazione standardizzata? Gli studenti sfruttano apertamente l’IA per aggirare i quiz a scelta multipla e le serie di test di esame. Come ha avvertito senza mezzi termini un professore dell’Arizona State University: «Se gli studenti imparano a usare l’IA per completare i compiti e i docenti usano l’IA per progettare corsi, compiti e valutare il lavoro degli studenti, allora qual è il valore dell’istruzione universitaria?».
Monopoli delle credenziali? Secondo Samar Ahmed, commentando il cambiamento epocale attualmente in corso negli Emirati Arabi Uniti (EAU), i datori di lavoro «riconoscono sempre più le certificazioni modulari e i sistemi di verifica basati su blockchain», mentre le università «sperimentano con cautela» il riconoscimento basato sulle competenze.
Traduzione? Le mura apparentemente inespugnabili della Forte Accademia sono state violate su tutti i fronti.
Fine dell’università-azienda
Eppure il corpo docente – e naturalmente gli amministratori, i supervisori, i consulenti di reclutamento e così via – continuano a fingere che se gli insegnanti modificassero leggermente i loro programmi per incorporare alcuni moduli di etica dell’IA o di ricerca supervisionata, o nuove strategie di marca di alfabetizzazione all’IA «in tutto il curriculum», l’apprendimento post-secondario si sarebbe in qualche modo «adattato» al nuovo mondo in cui ci troviamo. Non sarà così.
L’istruzione universitaria americana è configurata in modo completo e fatale intorno alla scarsità: scarsità di conoscenza, scarsità di accesso, scarsità di credenziali. Le università sono cresciute e fiorite per molto tempo perché controllavano l’accesso privilegiato a quelle risorse scarse. La scarsità è ciò che garantisce prezzi elevati. La stragrande maggioranza degli americani è stata legata fin dai tempi antichi alla convinzione che se si vuole avere successo finanziario nel corso della vita, bisogna andare all’università, perché così si avrà qualcosa che gli altri, in misura diversa, non possiedono. L’IA liquida queste scarsità praticamente dall’oggi al domani.
Come sottolinea Luke Lango su InvestorPlace, «quando un’azienda può sostituire un manager che guadagna 120.000 dollari all’anno con un abbonamento all’intelligenza artificiale che costa 20 dollari al mese, non è una scelta, è un dovere fiduciario». Gli americani hanno già perso fiducia nell’istruzione universitaria e non la riacquisteranno presto. Un sondaggio della NBC News del novembre 2025 ha rilevato che la percezione del valore di una laurea sta «precipitando». Solo il 34% degli americani crede ora che le università abbiano un effetto benefico sul Paese, in calo rispetto al 57% di dieci anni fa.
La fiducia dei datori di lavoro nell’istruzione superiore è diminuita per cinque anni consecutivi. Con poche eccezioni, i percorsi professionali che gli studenti hanno seguito per generazioni stanno diventando obsoleti sotto i nostri occhi, poiché gli algoritmi di intelligenza artificiale stanno sostituendo proprio quei lavori per cui erano stati accuratamente formati.
Inoltre, il sistema di accreditamento, progettato per garantire che l’istruzione superiore offra un valore reale agli studenti e, naturalmente, per assicurare che i prestiti studenteschi federali non andassero a sostenere scuole private predatorie, sta rapidamente perdendo credibilità. È diventato un inferno alla Hieronymus Bosch, fatto di auto-negoziazioni burocratiche e connivenze camuffate da controllo di qualità. Come osserva la Century Foundation, «il pubblico si fida degli organismi di accreditamento e ritiene che siano efficaci e coerenti nel loro processo decisionale, ma in realtà gli organismi di accreditamento deboli hanno permesso a molte istituzioni e programmi poco performanti di sfuggire ai controlli».
Discipline umanistiche: pensiero critico e intelligenza per usare l’IA
Ma ecco il colpo di scena che i profeti dell’apocalisse non riescono a cogliere. Il presunto impatto catastrofico sull’istruzione superiore non porterà necessariamente alla distruzione dell’istruzione universitaria. Al contrario.
Ciò che la letteratura emergente sta dimostrando – e che il professore della Wharton Ethan Mollick ha espresso meglio di chiunque altro – è che una gestione efficace e produttiva dell’IA richiede proprio lo stesso tipo di competenze che l’istruzione umanistica tradizionale ha sempre coltivato. Queste sono quelle che potrebbero essere considerate la «santa trinità» delle competenze autentiche in materia di IA, non solo l’alfabetizzazione. Si tratta di pensiero critico, ragionamento contestuale e giudizio etico.
Inoltre, tali competenze consistono nella capacità di porre le domande giuste piuttosto che accontentarsi della prima risposta plausibile. Il filosofo tedesco Martin Heidegger ha sottolineato questo punto con la sua famosa ma criptica frase: «il dubbio è la devozione del pensiero».
Il concetto di «co-intelligenza» di Mollick, ovvero la collaborazione tra intelligenza umana e artificiale, non nega la necessità della cognizione umana. Anzi, rafforza il valore di quelle che sono indubbiamente capacità umane. Come spiega Mollick, «il modo migliore per lavorare con l’intelligenza artificiale è trattarla come una persona… allo stesso tempo, bisogna ricordare che si ha a che fare con un software». Per navigare tra le secche di un’intelligenza artificiale sofisticata è necessaria una capacità di giudizio critico altrettanto sofisticata.
Naturalmente, questo è ciò che l’istruzione universitaria potrebbe insegnare, se non fosse così impegnata a difendere il proprio racket delle credenziali. Secondo uno studio dell’American Academy of Colleges and Universities dell’agosto 2025, il 93% dei responsabili delle assunzioni considera «la comunicazione scritta e orale, il pensiero critico e il giudizio/processo decisionale etico» come le abilità più importanti che cercano nei neolaureati.
Riflettiamo su questo. Non la programmazione. Non la scienza dei dati. Il pensiero critico!
McKinsey prevede che entro il 2030 la domanda di intelligenza sociale ed emotiva negli Stati Uniti aumenterà del 14%, poiché i datori di lavoro cercheranno laureati in grado di «pensare in modo critico e apportare un tocco umano a sfide complesse». Il rapporto 2023 Workplace Learning Report di LinkedIn conferma che la gestione, la comunicazione, la leadership, la ricerca e l’analisi rimangono tra le competenze più richieste in tutti i settori. «Queste sono proprio le abilità che l’istruzione umanistica sviluppa».
Anche i dirigenti del settore tecnologico hanno seguito questa tendenza. Molti amministratori delegati delle principali aziende tecnologiche, proprio coloro che costruiscono i sistemi di intelligenza artificiale, hanno lauree in storia, letteratura o scienze sociali piuttosto che in campi tecnici. La loro formazione umanistica ha fornito loro «gli strumenti per guidare i team, anticipare le conseguenze sociali e prendere decisioni che vanno ben oltre i confini delle competenze tecniche».
La rivoluzione dell’IA inaugurerà, come afferma un ricercatore nel campo dell’istruzione, «una vera e propria rinascita delle discipline umanistiche». Perché? Perché l’IA non è in grado di pensare realmente. Può solo rispondere. L’IA può generare risposte complesse, ma non è in grado di valutarne la veridicità. L’IA può obbedire alle regole etiche, ma rimane priva di valori o intenzioni. L’IA può imitare l’empatia, ma non ha esperienza di vita. Può sintetizzare le informazioni, ma non può determinare quali problemi valga la pena risolvere.
Come ha concluso un recente studio accademico che ha esaminato 640 documenti sull’IA, «il pensiero critico è concettualizzato come un processo intenzionale, valutativo e autoregolato che deve essere preservato nonostante la crescente dipendenza dagli strumenti di IA». Lo studio ha identificato alcune sfide chiave, tra cui «la dipendenza acritica dall’IA, le disparità di alfabetizzazione digitale e la mancanza di trasparenza del sistema». La soluzione proposta era al tempo stesso sorprendente e non sorprendente: «quadri didattici inclusivi e adattivi che integrino l’IA in modo da supportare il pensiero critico».
È qui che l’istruzione umanistica, se svolta correttamente e non appesantita da una propaganda woke, diventa indispensabile. I corsi che insegnano agli studenti a criticare i «risultati» dell’IA e a «rafforzare le proprie capacità di ragionamento e pensiero critico» sono la tendenza del futuro – secondo un articolo sull’uso dell’IA nella Gonzaga University. Gli studenti si rendono conto che «le tecnologie di IA non “pensano” come noi e non hanno una seria preoccupazione per la verità». I docenti della Gonzaga sottolineano che «gli studenti devono sapere quando e come utilizzare l’IA in modo critico e responsabile, come contrastare la sua distruzione dell’ambiente e come interrogare e trasformare i suoi difetti».
Insegnare ai giovani come pensare
L’ironia per gli amministratori e i responsabili delle risorse umane ossessionati dalle credenziali è che le istituzioni che sopravviveranno alla trasformazione dell’IA sono proprio quelle che hanno il coraggio di abbandonare la finzione della formazione professionale e tornare alla loro missione originaria: insegnare alle giovani menti come pensare. Non si concentreranno più a lungo su come memorizzare informazioni che possono essere cercate su Google, o su come eseguire compiti che possono essere svolti dalle macchine, ma su come insegnare ai loro allievi il talento per esercitare un giudizio sano. Si tratterà semplicemente di insegnare come distinguere la verità dalle invenzioni automatizzate o basate sui meme.
Si tratterà di imparare a porre domande che l’IA non penserebbe mai di porre. Come osserva David Meerman Scott, «l’intelligenza artificiale può riassumere i dati, ma non è ancora in grado di decidere quali problemi vale la pena risolvere. Può scrivere codici, ma non può immaginare categorie di prodotti e servizi completamente nuove. Può analizzare i mercati finanziari, ma non comprende le motivazioni umane alla base delle decisioni economiche».
Le università che lo capiranno e che passeranno dal rilascio di credenziali alla cura della co-intelligenza non solo sopravviveranno, ma anche prospereranno. I dinosauri che brucano l’erba della palude e guardano l’asteroide scendere dal cielo hanno una scelta: evolversi o perire. Alcuni capiranno che in realtà non sono affatto dinosauri. Sono la nuova specie nel mondo accademico che aspetta di ereditare la terra.
- Pubblicato su The Globoscope (Substack dell’autore: professore presso l’Università di Denver – Department of Religious Studies).






C’è da dire una cosa: è estremamente efficace e addestrata per mostrarsi gentile. Sono 15 anni che frequento pagine cattoliche, eppure se voglio trovare qualche chiarimento per un testo che non comprendo in pieno ho molte molte molte più possibilità che mi rispondano Chatgpt o Gemini di qualsiasi altro utente o studioso online.
Per paradosso Chatgpt può rispondermi accedendo direttamente alle pagine di Andrea Grillo che mi ha bloccato, quindi Grillo scrive Chatpgt legge e mi fa bypassare il blocco.
“Si tratterà di imparare a porre domande che l’IA non penserebbe mai di porre.” Appunto, se sei curioso di carattere con l’Ai ti troverai sicuramente bene, l’unica difficoltà è tenere a bada la sua tendenza ad aderire troppo al tuo stile, in modo da non parlare con uno specchio. Ma di base non è poi tanto diverso dall’accademico che seleziona i commenti su facebook…