AI: prospettive e rischi

di:

ia

«Soltanto il nostro cervello umano può prestare un significato alla cieca capacità dei calcolatori di produrre verità».

L’efficace battuta del filosofo della scienza Karl Popper (1902-1994) individuava, già nel Novecento, il possibile discrimine tra cervello umano e calcolatore, che implica la differenza tra produzione di senso-significato e cieca produzione di verità.

Come a dire che intelligente resta l’essere umano, non l’artificio da lui escogitato e tradotto in tecnologia informatica. Detto altrimenti, l’intelligenza artificiale resta un “artificio” tecnologico, ma non produce senso.

Cervello umano e calcolatori “intelligenti”

Il noto test di A. Turing (1912-1954) – una macchina può essere considerata “intelligente” se il suo comportamento, osservato da un essere umano, fosse considerato indistinguibile da quello di una persona – fu da lui proposto nel 1950 nel suo celebre articolo dal titolo «Computing Machinery and Intelligence».

Turing, però, non mirava tanto a stabilire se le macchine informatiche potessero pensare o produrre dei significati analoghi o simili a quelli di una persona umana, bensì a comprendere il gioco d’imitazione che avviene nella comunicazione inter-umana, mediante il quale noi, esseri umani, riusciamo a capirci l’un l’altro, analogamente a quanto può avvenire nell’interazione tra un essere umano e un computer.

Ormai, giunti alla terza decade del terzo millennio, non soltanto si prova a inserire nel cranio umano un microchip digitale, come si è già fatto nei primati e in altri animali non umani, allo scopo di potenziare la realtà da percepire e da pensare (si parla di enhancement o potenziamento), ma si progetta consapevolmente (Unesco), la possibile via verso il 2050, additandolo come anno in cui i nostri attuali anni venti del millennio saranno certamente obsoleti e sarà definitivamente inaugurata l’era tecnologica avanzata.

“Immaginando il 2050, quali sono le tue speranze? Quali sono le tue paure?”, chiedeva una delle domande del questionario Unesco. Emersero 4 cluster di risposte, il primo dei quali inventariava le speranze dei giovani oggi, intervistati appunto in vista dell’anno 2050.

Le risposte furono: attenzione per il sociale, nuovi modelli educativi, tutela per l’ambiente e, quello che ora più c’interessa, tecnologia. Vale a dire, la new era sarà caratterizzata dalla tecnologia a ogni livello, anche informatica e gestionale, come ben sanno ormai anche gli operatori pastorali e i preti in cura d’anime.

È ormai aperta la via, tutta in discesa, della AI (sigla inglese di Intelligenza artificiale), particolarmente viva oggi nei settori del Machine Learning (sottoinsieme dell’intelligenza artificiale, che crea sistemi che apprendono o migliorano le performance in base ai dati che utilizzano) e della Robotica (branca dell’ingegneria che permette a un robot di compiere azioni analoghe a quelle umane, per esempio, in ambito chirurgico o dell’automazione industriale).

Potenzialità affascinanti per l’educazione

Un cambiamento possibile per immaginare nuove vie, non soltanto in vista della gestione di migrazioni, cambiamento climatico e comunicazione, ma soprattutto di tecnologia.

Ogni gestione del cambiamento non potrà avvenire, però, che attraverso l’educazione, nei cui processi gli attuali difetti, problemi e fallimenti, vengono narrati come eutopie o distopie, ovvero raccontati e rappresentati in continuità o contrasto con i possibili scenari futuri, di volta in volta tratteggiati.

Di qui la domanda, eticamente rilevante secondo l’arcivescovo di Utrecht, card. Wilhelm Jacobus Eijk, su quale impatto l’intelligenza artificiale possa sempre più avere nelle nostre esistenze umane. Una domanda con notevoli implicazioni morali, che riguardano sia i produttori sia gli utilizzatori finali delle tecnologie d’intelligenza artificiale. Fin dal 1982, essa fu subito utilizzata in ambito commerciale, dove ci si accorse della rilevanza economica di una AI Strategy (= Strategia d’Intelligenza Artificiale).

Il “nodo” del cervello umano

È pur sempre l’essere umano a dover fornire istruzioni adeguate alla macchina informatica, che tuttavia può velocemente rielaborare e organizzare non soltanto i dati disponibili, ma la stessa esperienza precedente di gioco, fino a poter dare scacco matto a un campione mondiale del settore.

Insomma, è pur sempre il pensante umano a rendere “pensante” la macchina, in maniera che essa “apprenda” a comprendere e interagire con gli esseri umani, ovvero ri-elabori il cosiddetto linguaggio naturale, con la conseguenza che la tecnologia delle macchine acquisisca una certa capacità di apprendimento, analoga all’intelligenza non artificiale.

I film di fantascienza – come 2001, odissea nello spazio – prefiguravano avveniristicamente cinque astronauti a bordo della Discovery One, con la supervisione di HAL9000, un computer dotato d’intelligenza artificiale che interagiva con gli esseri umani.

Frattanto, parallelamente al potenziamento delle macchine “pensanti”, la ricerca attuale punta molto sullo studio del cervello umano e sue interazioni con la tecnologia informatica.

Il progetto Human Brain, ad esempio, conta oltre 100 istituzioni-partner, tra cui, in Italia il CNR, il Cineca, l’Istituto superiore di sanità, oltre a tanti altri Centri, universitari e non.

Ricerca ad alto livello significa anche grandi investimenti finanziari ed economici, da cui s’immagina un certo ritorno, anche economico: il che rende vano qualunque eventuale tentativo di fermare il treno in corsa. La Fondazione danese Lundbeck, ad esempio, distribuisce ogni anno più di 500 milioni di corone alla ricerca scientifica sanitaria, principalmente con un focus sul cervello umano.

Il premio per il 2023 è stato assegnato a tre ricercatori, i quali hanno rivoluzionato la comprensione umana su come i neuroni regolino le migliaia di diverse proteine, ovvero i mattoni della vita necessari per supportare lo sviluppo, la plasticità e il mantenimento del cervello stesso. Il futuro della ricerca sarà, del resto, quello degli approfondimenti sulle cause delle malattie dello sviluppo neurologico e neurodegenerative, anche ai fini dell’interazione ulteriore tra cervello umano e macchine informatiche.

La vera sfida del XXI secolo

Il Rapporto della Commissione europea sul Progetto di ricerca sul cervello umano dichiara che siamo ormai di fronte alla vera sfida del XXI secolo, che ci consentirà di capire meglio cosa significhi essere umani, come sviluppare nuovi trattamenti per le malattie del cervello e come costruire nuove rivoluzionarie tecnologie dell’informazione e della comunicazione, mediante l’uso di macchine sempre più intelligenti.

Si tratta di attese con un certo spessore speculativo ed etico, che chiamano in causa gli stessi pensatori e perfino i teologi, i quali non possono limitarsi a enunciare possibili spartiacque tra apocalittici e integrati, oppure a frenare certi settori col tradizionale argomento del piano scivoloso o inclinato.

È, intanto, in atto una vera e propria sinergia tra Tecnologie dell’informazione e della comunicazione e Biologia: esperti nelle neuroscienze, in medicina e informatica sono uniti per sviluppare una nuova visione “accelerata dalle TIC” per la ricerca sul cervello e sue applicazioni.

Si potranno integrare tutti i dati in un’immagine unificata del cervello come un unico sistema a più livelli? Come si comporteranno nel medio futuro le scienze che si muovono tra cervello umano e macchine “pensanti” (neuroscienza, neuroinformatica e tecnologie informatiche di simulazione del cervello)?

Nell’informatica, le nuove tecniche di supercalcolo interattivo, guidate dalle esigenze della simulazione cerebrale, sono in grado ormai di avere un impatto positivo su una vasta gamma di produzione industriale, purtroppo anche a fini non pacifici.

No al macchinismo

«Non è la scienza, come si sarebbe portati a credere, a imporre agli uomini, per il solo fatto del suo sviluppo, dei bisogni sempre più artificiali. Se così fosse, l’umanità sarebbe condannata ad un sempre crescente materialismo, poiché il progresso della scienza non è destinato ad arrestarsi.

La verità è che la scienza ha dato ciò che le si chiedeva e non ha preso l’iniziativa in questo campo; è lo spirito d’invenzione che non ha sempre servito al meglio gli interessi dell’umanità. Esso ha creato una folla di nuove esigenze e non si è abbastanza preoccupato di assicurare alla maggior parte degli uomini, o meglio a tutti, la soddisfazione degli antichi bisogni. Più semplicemente: senza trascurare il necessario, ha pensato troppo al superfluo».

La considerazione era del filosofo Henry Bergson, il quale, nel 1932, pubblicò il libro intitolato Le due fonti della morale e della religione. Come a dire che, se le macchine hanno cominciato a manifestare le loro immense potenzialità solo a partire dal giorno in cui hanno potuto utilizzare non più lo sforzo muscolare, o la forza del vento o di una cascata d’acqua, resta pur vero che è per mezzo della macchina che l’essere umano è stato comunque alleggerito di tanti fardelli.

Detto altrimenti, il ritorno a un tipo di esistenza da cui sia stata soppressa la macchina, è davvero impossibile. Ma a quali condizioni e con quali rischi?

E se l’intelligenza artificiale fosse impiegata per la guerra?

Lo scorso 15-16 febbraio si è svolto a L’Aia, in Olanda, il Reaim Summit: una manifestazione organizzata dal governo olandese per dibattere il tema dell’Intelligenza artificiale nel mondo militare, con l’intervento di delegati di 50 Paesi, fra cui un rappresentante del Vaticano.

La rilevanza etica e religiosa delle ricerche e delle applicazioni di AI si fa, così, evidente, così com’è evidente il rischio che l’etica finisca per essere invocata soltanto come un freno alla libera ricerca, mentre dovrebbe offrire un orizzonte propositivo di doveri morali e di opportunità che non ledano il primato della dignità della persona.

Ecco perché se ne sente coinvolta anche la Santa Sede: «Questo non vuol dire che la Santa Sede intenda ostacolare la ricerca, lo sviluppo e l’uso delle tecnologie. Al contrario, queste andrebbero orientate, “verso un orizzonte più appropriato e utile, che non si basa solo su criteri di utilità o efficienza, ma sulla promozione del bene comune dell’umanità e per l’umanità, rispettando la dignità umana e favorendo il nostro sviluppo umano integrale”. Per questo il suggerimento è quello di istituire un’Agenzia internazionale per l’intelligenza artificiale». Così su Vatican news Michele Rawiart, offrendo il resoconto del Summit de L’Aja.

Davvero l’intelligenza artificiale molto avanzata – “superintelligente” – potrebbe rappresentare un rischio esistenziale per l’umanità, qualora andasse fuori controllo, perdendo di vista bene comune e dignità della persona umana? I termini in gioco sono chiari: da una parte, i nuovi approdi delle tecnologie, soprattutto informatiche; dall’altra, il loro eventuale uso anti-umano o disumano, soprattutto se bellico (sia in vista di guerre tradizionali, che di guerre biologiche, o di pandemie indotte).

La comunità cristiana, del resto, non è preconcettamente sospettosa nei confronti delle nuove tecnologie e della tecnoscienza, né può mettere il bavaglio alla ricerca. Non è un caso che all’art 184 della costituzione apostolica Praedicate Evangelium sulla Curia Romana e il suo servizio alla Chiesa e al Mondo (19.03.2022), in riferimento ai compiti del Dicastero per la comunicazione, che deve inevitabilmente aprirsi all’uso delle macchine intelligenti e delle nuove tecnologie dell’informazione e della comunicazione, si legge: «Il Dicastero provvede alle necessità della missione evangelizzatrice della Chiesa utilizzando i modelli di produzione, le innovazioni tecnologiche e le forme di comunicazione attualmente disponibili e quelle che potranno svilupparsi nel tempo a venire». Come a dire: sì agli sviluppi tecnologici, anche avveniristici, ma sempre nell’orizzonte della missione ecclesiale, che è pacifica per natura e conserva l’obiettivo di annunciare il Vangelo in ogni tempo, salvaguardando il primato e la dignità della persona umana nella sua casa comune.

Le meraviglie di ChatGPT

Del resto, in negativo, nei tantissimi focolai di guerra presenti nel mondo, viene già usata una tipologia di veicoli adibita al trasporto di persone, animali o cose, oppure si usano oggetti “intelligenti” in grado di compiere azioni senza l’intervento umano, nonché di prendere decisioni in base alle condizioni dell’ambiente circostante.

In positivo, sono sotto gli occhi di tutti i sistemi di casa “intelligente”, in grado di regolare temperatura, umidità o illuminazione.

E che dire degli algoritmi predittivi, tanto usati nel corso della pandemia globale, che hanno permesso l’analisi di milioni di dati, per fornire previsioni sull’andamento futuro di un determinato fenomeno e, quindi, meglio combatterlo?

ChatGPT (il noto software interattivo che sviluppa testi e saggi sulla base delle domande umane) è apparso ben presto, in tale orizzonte, come uno dei software delle meraviglie, tanto che in Italia il Garante per la privacy ne ha dovuto sospendere temporaneamente l’uso, in quanto OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma, il 20 marzo 2023 aveva subìto una perdita di dati (data breach) e inoltre, nonostante il servizio fosse rivolto ai maggiori di 13 anni, era stata evidenziata l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti.

A tutti, però, è apparso chiaro che, nel caso di questa o di altre Chat “intelligenti”, si tratta pur sempre di una procedura tecnologica, piuttosto che di una intelligenza in senso pieno: infatti, le risposte della chatbot sono comunque desunte dal dataset d’informazioni con cui è stata addestrata.

Di fronte a un dilemma paradossale?

«Epimenide il Cretese dice che tutti i cretesi sono bugiardi». Dice il vero Epimenide, escludendosi dal gruppo dei cretesi, o è un bugiardo lui stesso in questa sua frase, in quanto membro del popolo cretese?

Questo dilemma logico, o anche paradosso del mentitore, si legge in tutti i libri di logica. Oggi, presentando il dilemma dell’AI presso il Center for Humane Tchnology, Aza Raskin e Tristam Harris ne hanno ben sintetizzato la nuova paradossalità.

Qual è, infatti, la cosa importante secondo i due autori, esperti di AI? Che non bisogna essere preconcettamente ideologici su come debba andare il mondo con l’intelligenza artificiale amplificata al massimo, oppure che bisogna badare a quanto c’interessa come esseri umani, al di là di qualunque ipotetico scenario catastrofico. Detto altrimenti, il vero nodo, teoretico ed etico, resta il seguente: cosa ci vorrà per ottenere che questo processo rimanga giusto ed etico?

Il dato che almeno 50% dei ricercatori in intelligenza artificiale ritenga che ci sia un 10% o più di possibilità che gli umani si estinguano a causa della nostra incapacità di controllare l’IA, oltre a preoccupare, non può non spingere i ricercatori a chiarire e a precisare sempre meglio gli ambiti e i limiti della AI, anche ragionando concretamente in termini di esclusione di vaste popolazioni del pianeta, ancora prive di elettricità e di presidi tecnoscientifici. Certo, continua Harris, se oggi hai 18 anni e non hai un account Snapchat o un account Instagram, non esisti.

Se dai un pesce a un uomo, lo nutrirai per un giorno; se invece insegni a un uomo a pescare, lo sfamerai per tutta la vita: così, se insegni a “pescare” a un’intelligenza artificiale, essa imparerà da sé la biologia, la chimica, l’oceanografia, la teoria dell’evoluzione e… quindi, potenzialmente, essa, se non ben governata, potrebbe anche pescare tutti i pesci fino alla loro completa estinzione.

Avanti, con giudizio. Con cuore ed etica, e la persona sempre al centro.

Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto