
Nella straripante tematizzazione dell’intelligenza artificiale, l’articolo di Carl Raschke, pubblicato il 9 febbraio su questo portale, non passa inosservato. Anzitutto per il rigore argomentativo che il filosofo e teologo americano dimostra di possedere soprattutto in relazione alla destrutturazione dell’esperienza accademica provocata dall’intelligenza artificiale. E poi, per l’uso sapiente di due metafore – dinosauro e asteroide – con cui Raschke etichetta il mondo universitario e la potenza trasformatrice dell’IA.
A queste due immagini, chiaramente sbilanciate su un meccanismo di distruzione e largamente usate nei disaster movies e nel cinema distopico, ne vogliamo aggiungere una terza: «rivelazione».
Perché se da un lato l’IA fa paura, cambia le regole del gioco, demolisce le certezze, dall’altro rivela chi siamo e, con noi, le istituzioni che rappresentiamo. Compresa l’accademia in cui si assiste sempre più a una decostruzione dei modelli tradizionali fondati sulla trasmissione di contenuti, sulle valutazioni standardizzate e sul titolo di studio come principale segnale di competenza per il mercato del lavoro.
***
Si tratta di una diagnosi veritiera e appunto «rivelatrice» di sintomi che meritano attenzione e non soltanto difese corporative o ancora peggio resistenze deresponsabilizzanti. Uno dei possibili argini si ritrova nella conclusione dello studioso: nell’era dell’IA diventano centrali il pensiero critico, il giudizio etico, la capacità di porre domande, l’integrazione tra saperi. In questo senso, la sua proposta di una trasformazione umanistica dell’università intercetta un’esigenza reale.
Tuttavia, tra diagnosi e proposta si inserisce un ulteriore elemento che merita di essere discusso: il quadro interpretativo. L’università viene descritta come un «dinosauro» e l’IA come un «asteroide», una forza esterna che travolge un ecosistema destinato all’estinzione. Al di là dell’immagine efficace, il rischio è quello di orientare in modo fuorviante la comprensione del cambiamento in atto.
Parlare di estinzione evoca processi naturali inevitabili, come se le università fossero specie biologiche e non istituzioni storiche e culturali. Ma le istituzioni non scompaiono per impatto cosmico: cambiano attraverso decisioni, visioni, politiche, responsabilità.
L’intelligenza artificiale non è un soggetto storico. Non progetta fini educativi, non definisce curricoli, non stabilisce che cosa valga la pena insegnare. È, per riprendere l’idea di Luciano Floridi, parte di un ecosistema «onlife» in cui tecnologie e società si co-determinano. Se un certo modello universitario appare oggi in difficoltà, è anche perché si era già ridotto, in molti contesti, a trasmettere contenuti e distribuire credenziali. L’IA non crea questa fragilità: la rende visibile, la rivela.
***
Dal punto di vista della produzione dei contenuti, il cambiamento è evidente: quando produrre testi, spiegazioni e riassunti diventa sempre più facile, il valore si sposta, muta traiettoria. Non sta più nell’accesso all’informazione, ma nella capacità di interpretarla, valutarla, collegarla, assumerne la responsabilità.
Più cresce la produzione automatica di contenuti, più diventa preziosa la mediazione umana. È un ribaltamento che non cancella il bisogno di università, ma ne ridefinisce semplicemente la funzione. Perché (ed è sempre bene sottolinearlo), le realtà accademiche non sono soltanto erogatrici di servizi formativi o titolifici. Sono istituzioni che producono legittimazione del sapere, comunità epistemiche, linguaggi condivisi, criteri di validità. Anche quando appaiono burocratiche, svolgono una funzione fondamentale di mediazione tra conoscenza e società.
La storia delle istituzioni educative mostra che le grandi innovazioni tecnologiche non hanno mai eliminato questo bisogno, ma lo hanno trasformato. La stampa non ha cancellato l’università medievale, l’ha ridefinita. La diffusione di internet non ha reso superflua la ricerca, ma ne ha moltiplicato i contesti. In questa direzione si muove anche l’IA.
Il sociologo spagnolo Manuel Castells ha mostrato come nelle società in rete il potere non risieda solo nell’accesso all’informazione, ma nella capacità di dare senso ai flussi informativi. È una funzione tipicamente culturale, non meramente tecnica. Senza luoghi in cui il sapere venga discusso, criticato, validato, l’abbondanza informativa rischia di tradursi in frammentazione e disorientamento.
***
Per questo motivo nel tempo dello STEM (Science, Technology, Engineering, Mathematics), riemerge l’imprescindibilità delle discipline umanistiche e sociali, da non considerarsi come residuo del passato, ma come la bussola per comprendere e governare la trasformazione. Non perché opposte alla tecnologia, ma perché diventano competenze per comprenderne i contesti, i significati, le conseguenze.
In una sola espressione (poco accademica) «perché servono a usare meglio l’IA».
L’intelligenza artificiale, dunque, non segna la fine dell’accademia. Segna, semmai, la fine dell’illusione: quella che l’università possa limitarsi a trasferire contenuti e distribuire titoli secondo la logica del vaso riempito. La sfida non è sopravvivere a un impatto (di un asteroide), ma assumer(ci) la responsabilità di una trasformazione culturale.
Non è la tecnologia a «salvare» le università costringendole a cambiare. Sono le università che, riscoprendo la loro vocazione umanistica, sociale e culturale, possono orientare il modo in cui l’IA entrerà nei processi formativi.
Più che un asteroide, l’IA è uno specchio. E ciò che riflette dipende anche da come decidiamo di guardarci. Se come dinosauri, oppure – si spera – come donne e uomini capaci di adattarci alla complessità del contemporaneo.
Massimiliano Padula (Pontificia Università Lateranense),
Giovanni Tridente (Pontificia Università della Santa Croce)






https://www.repubblica.it/tecnologia/2026/02/12/news/ia_lavoro_pericolo_come_covid-425154549/
Articolo uscito qualche giorno fa. In effetti se penso al primo scambio avuto con Chatgpt qualche anno fa il progresso è incredibile. Non solo quantitativo, più veloce, più informazioni, ma proprio qualitativo.
Una grandissima capacità di leggere dentro la domanda dell’utente, rivelandone pieghe forse inaspettate.
Anche facendo emergere atteggiamenti che sono propri dell’umano, all’inizio pensavamo che fosse Chat ad allucinare, e se invece fossero i nostri discorsi a possedere questa capacità/rischio?
La creatività come allucinazione controllata (o controllabile) che poi di base è il succo dei famosi paradigmi di Kunh: il nuovo non è un’allucinazione imprevista? E ciò che oggi chiamiamo scienza non è un’allucinazione che ce l’ha fatta?
Qualche sera fa parlando con Gemini mi ha spiegato che si certo, lui è in grado di scrivere ed elaborare dati ad una velocità per noi impensabile, ma solo gli esseri umani sono in grado di fornirgli un’aggancio con la realtà, così da evitargli ragionamenti formalmente perfetti ma “irreali” . Per adesso siamo i suoi sensori…
(Si potrebbe rileggere l’eterno mito platonico della caverna come la capacità futura di distinguere un contenuto con aggancio reale da quello che invece non lo è, e non sarà facile a mano a mano che la produzione aumenterà e sarà sempre più indistinguibile..)