Intelligenza artificiale

di:

ia

Silvano Tagliagambe – filosofo della scienza e autore di numerosi volumi, saggi e articoli dedicati pure alla filosofia del digitale – risponde alle domande suscitate dal Messaggio di papa Francesco in occasione della 57ma  Giornata Mondiale della Pace (1 gennaio 2024) su Intelligenza artificiale e pace. Per Mondadori Università, nel 2022, ha pubblicato Metaverso e gemelli digitali. La nuova alleanza tra reti naturali e artificiali.

  • Professore, qual è stata la sua prima reazione alla lettura del messaggio del papa?

Mi sono ritrovato, nonostante tutti i rischi rispetto ai quali il documento mette giustamente in guardia, in un clima positivo – chiaramente di matrice teologica – circa l’intelligenza artificiale: è l’approccio che anch’io ritengo il più adeguato di fronte ad un tema di grande complessità, spesso trattato in termini banalizzanti ovvero del tutto catastrofici.

Voglio ricordare qui un autore, un filosofo-teologo, oltre che uno scienziato, a me molto caro: padre Pavel Florenskij (qui). Nel 1919 ebbe a pubblicare un titolo traducibile con La proiezione degli organi in cui ha sostenuto la tesi che la tecnologia non è altro che la proiezione, all’esterno di noi, dei nostri stessi organi interni, invitando, perciò, a non temerne gli sviluppi, perché sempre da considerarsi proiezione dell’umano.

L’intuizione, davvero profetica per allora, ha rivelato la relazione intrinseca che esiste tra la biologia e la tecnologia che, oggi, risulta molto più evidente rispetto al secolo scorso: è, quindi, la biologia – ossia la conoscenza di noi stessi e del nostro stesso corpo – a guidare gli sviluppi della tecnologia, in un senso che può essere positivo per l’umanità. Così, pure, viceversa: la tecnologia, con i suoi sviluppi più recenti, ci aiuta a “penetrare” nel nostro corpo.

Penso che questo atteggiamento di fondo – appunto positivo – vada ben conservato di fronte alle grandi sfide dell’era della intelligenza artificiale.

Turing test
  • Che cos’è l’intelligenza e qual è la differenza tra intelligenza naturale e artificiale?

Se parliamo di intelligenza in genere, possiamo definirla come capacità di inquadrare correttamente un problema per darvi soluzione. Un tale criterio di definizione può essere applicato sia a ciò che è naturale – umano e animale – sia alle macchine.

Già Alan Turing (1912-1953) aveva congegnato un test per stabilire se si potesse ammettere una intelligenza delle macchine, quindi una intelligenza artificiale. Aveva così ipotizzato un soggetto umano posto di fronte a due stanze a porte chiuse: in una stanza sarebbe stato posto un altro soggetto umano, mentre, nell’altra, una macchina.

Se tra il soggetto interagente con entrambe le stanze le stanze si fosse instaurata una comunicazione e questo soggetto non fosse stato in grado di distinguere se la comunicazione in atto fosse con un altro umano ovvero con una macchina, si sarebbe dovuto ammettere che entrambi gli interlocutori fossero dotati di intelligenza. È indubbio che molte macchine siano oggi perfettamente in grado di superare il test di Turing. Dunque, di intelligenza e di intelligenza artificiale si può senz’altro parlare.

Un esempio eloquente di quanto detto – e di cui si sta trattando molto di questi tempi nelle redazioni giornalistiche come nelle commissioni universitarie – è offerto da quei testi scritti di cui non è affatto semplice riconoscere la paternità, umana ovvero artificiale. Come sappiamo, gli articoli composti oggi dalla intelligenza artificiale possono risultare scritti persino meglio, e in maniera maggiormente rispondente allo scopo, rispetto a quelli scritti da giornaliste e giornaliste di specchiata professionalità.

Lo stesso genere di dubbio e di valutazione sta insorgendo nei docenti universitari impegnati nella lettura e nella valutazione delle tesi presentate dai loro studenti: sono scritte dagli stessi o da ChatGPT, e quali sono le migliori?

Non solo: per sciogliere il dubbio, giornalisti e docenti, sempre più, sono portarti ad utilizzare altra intelligenza artificiale, capace, più di loro stessi, di riconoscere la paternità dei testi. E questo è solo un esempio.

  • Qual è dunque la differenza tra intelligenza umana e intelligenza artificiale?

Turing, almeno in una fase iniziale, è incorso in una imprecisione che noi, oggi, non possiamo ammettere, ossia ha assimilato, l’intelligenza alla coscienza.

Noi, non possiamo, infatti, oggi, ritenere che un qualcosa che sia dotato di intelligenza – anche se persino superiore, per capacità, a quella umana – sia perciò stesso in possesso di una qualche coscienza, comunque si voglia intendere la coscienza. Questo è il punto critico in discussione, come bene ha fatto il documento papale.

  • E qual è la differenza tra intelligenza e coscienza?

Anche per questa risposta, mi rifaccio a esperimenti e a ricerche scientifiche. Nel 2002, il premio Nobel per l’economia è stato assegnato, per la prima volta, a uno psicologo cognitivo: Daniel Kahneman. Kahneman ha condotto ricerche assieme ad Amos Tverskij, un altro psicologo cognitivo che, purtroppo, al momento della assegnazione del Nobel, non era più in vita.

Ci si potrebbe chiedere perché il freddo mondo dell’economia abbia guardato alle ricerche di due psicologi. La risposta sta nella rivelazione dell’effetto framing – meglio conosciuto come effetto bias – di cui i due psicologi si sono occupati. In italiano possiamo parlare di errori sistematici o, meglio, di preferenze o di orientamenti sistematici.

Kahneman e Tverskij hanno sottoposto ad esperti, nelle rispettive materie, alcuni problemi. Ad esempio, al campione dei medici hanno sottoposto il problema di una epidemia che avrebbe messo a rischio la vita di 600 persone, offrendo la soluzione a, per la quale 200 persone si sarebbero sicuramente salvate e 400 sarebbero sicuramente morte, in secca alternativa alla soluzione b, secondo la quale, per 2/3 delle probabilità le 600 persone sarebbero tutte morte e per 1/3 si sarebbero tutte salvate.

Dal punto di vista logico – di pura intelligenza – le due soluzioni sono del tutto equivalenti, ossia 400 persone sono destinate a morire e 200 a sopravvivere. Ebbene, nello studio, il 78% dei medici ha scelto la soluzione a – cioè, la salvezza certa di 200 persone – piuttosto della soluzione b comprendente l’eventualità di veder morire tutti i pazienti. Se il test fosse stato somministrato alle macchine, il risultato sarebbe stato 50% e 50%.

Ciò significa che gli esseri umani, dal punto di vista della pura intelligenza, a differenza delle macchine, esprimono preferenze, perché sono condizionati da “pregiudizi” nel modo di inquadrare i dati a disposizione e, perciò, aggiungono altro. Le opzioni preferenziali – che condizionano la ricezione dei dati – sono da imputare alla presenza di emozioni e di sentimenti.

I test evidenziano che gli esseri umani sono mossi, nelle loro scelte, anche da un qualcosa di molto difficile da definire che, appunto, chiamiamo coscienza: nel caso citato la coscienza “certa” di salvare almeno 200 persone.

Programmazione, apprendimento, esecuzione
  • Ma questo è necessariamente un errore?

Il problema dei bias si è posto per i programmatori di intelligenza artificiali. Da qui l’importanza degli studi di Kahneman e Tverskij. Ci si è accorti che chi programma, ovvero chi guida l’apprendimento delle macchine, è condizionato da opzioni sistematiche, ossia pregiudizi tipicamente umani – di natura di coscienza – che vengono inconsapevolmente trasmesse alle macchine.

Ci si è accorti, ad esempio, che certe intelligenze artificiali non risultavano affidabili nella selezione delle domande di lavoro, perché affette da pregiudizi trasmessi dai programmatori, nei confronti, ad esempio, del sesso femminile o del colore della pelle dei lavoratori. Le macchine ripetono, in maniera sistematica, le valutazioni preferenziali che caratterizzano gli esseri umani da cui sono programmate, che portano agli errori di intelligenza evidenziati da Kahneman e Tverski.

Ma mentre gli esseri umani – tramite la coscienza – sono, almeno potenzialmente, in grado di evitare o di correggere i propri errori, le macchine non sono, allo stato attuale delle cose, in grado di farlo.

Certo, queste valutazioni preferenziali – sottoposte al giudizio della coscienza – non sono necessariamente da ritenersi errori, nel senso di negativi. Dipende sempre dall’essere umano.

  • Mentre è possibile ipotizzare di trasferire alla intelligenza artificiale i valori più nobili?

Direi che è proprio questa la sfida o la scommessa che abbiamo dinnanzi: le macchine possono essere condizionate da pregiudizi – bias – che, secondo le nostre coscienze – possono essere negativi oppure positivi. Per cui l’etica resta – e deve restare – applicata alla tecnologia e, in particolare, alle molteplici applicazioni della intelligenza artificiale.

Evidentemente le questioni etiche da affrontare al riguardo sono molto estese e molto complesse: non si tratta semplicemente di stabilire, a priori, cosa è bene e cosa è male, e di “scriverlo” nella macchina. Neppure noi umani sappiamo, a priori, cosa sia bene e cosa sia male.

  • Vediamo allora quali sono i principali problemi etici? 

Il documento papale li elenca puntualmente.

Un primo livello di problemi è sperimentato da noi stessi – direttamente – quando impieghiamo le nuove tecnologie. Mi sembra evidente lo scarto che si sta creando tra le generazioni, ciascuna con diversa preparazione e attitudine nell’uso delle stesse.

Ogni nuova tecnologia – così è sempre stato nella storia – rischia di produrre scarti e discriminazioni che sono di natura economica, cognitiva, percettiva. Il compito dell’etica è quello di arginare quanto più possibile le differenze, esigendo una più equa distribuzione delle risorse e dei saperi. Il Messaggio del papa è molto accorto nel denunciare le disparità sociali già esistenti e il rischio che si possano ulteriormente aggravare.

Un secondo livello di problemi sta nel grado di consapevolezza/inconsapevolezza dei processi di trasferimento o di proiezione dell’umano nell’artificiale, come ho già detto. Si tratta di un ordine di problemi di carattere sostanzialmente culturale che, inevitabilmente, si trasforma in problema di ordine etico. È richiesta oggi tanta più cultura perché l’umanità possa essere all’altezza della sfida etica che ha di fronte, nell’uso delle nuove tecnologie.

Francesco e l’IA
  • Nel titolo e al centro del Messaggio papale sta la questione della guerra e della pace. Mi sembra che l’intelligenza artificiale sia usata oggi soprattutto per fare la guerra piuttosto che per fare la pace. Cosa ne pensa?

Certamente il tema della guerra ci porta al centro del rapporto tra intelligenza e coscienza. Il tema è molto importante e drammatico. Sappiamo che i sistemi d’arma guidati da intelligenza artificiale – quali i droni – sono sempre più impiegati nelle guerre contemporanee per colpire bersagli umani, a prescindere, ad esempio, dal luogo in cui questi umani – ad esempio terroristi – possano venirsi a trovare: in una scuola o in un ospedale, in un mercato o in una stazione ferroviaria; oppure a prescindere con chi si trovino: con famigliari, bambini, malati… militari o civili, indifferentemente.

L’intelligenza artificiale impiegata nella guerra risponde allo scopo per cui è programmata, in maniera intelligente, molto intelligente – potremmo dire – tanto da riuscire a centrare una casa in una città di milioni di abitanti; ma lo fa, evidentemente, in maniera cieca, priva di coscienza.

Le guerre guidate da intelligenza artificiale sono fatte, inoltre, da sistemi autonomi, distanziati da soggetti umani che si possano ritenere moralmente responsabili di ciò che sta accadendo. La morte del nemico avviene, in questo modo, lontana dagli occhi di chi “spara”, evitandogli l’impatto emotivo che il colpo può produrre. L’atto puramente intelligente è scevro da emozioni. Mentre l’atto cosciente non può esserlo.

Rammento quella bellissima canzone del musicista-poeta Fabrizio de André, di cui ricorre il 25° della scomparsa: La guerra di Piero (qui).  Un paio di strofe recitano:

E se gli sparo in fronte o nel cuore
Soltanto il tempo avrà per morire
Ma il tempo a me resterà per vedere
Vedere gli occhi di un uomo che muore

E mentre gli usi questa premura
Quello si volta, ti vede e ha paura
Ed imbracciata l’artiglieria
Non ti ricambia la cortesia.

Ecco, vedere gli occhi di un altro essere umano che muore è ciò che fa la differenza: Piero, nella canzone, prova un attimo di esitazione, un indugio della coscienza, mentre è già pronto a sparare: è lo sguardo dell’altro uomo a provocarlo. Quell’attimo di esitazione o di coscienza, umanissimo, si rivela “non intelligente”, si potrebbe dire, perché gli costa la vita.

Il soldato Piero oggi – dotato di un drone guidato da intelligenza artificiale – non vive quell’attimo, perché non vede nulla: quell’uomo nel bersaglio è troppo lontano, dai suoi occhi e dalla sua coscienza.

Senz’altro, dunque, le guerre che impiegano le intelligenze artificiali tendono a minimizzare o ad annullare ogni umana reazione emotiva, a sterilizzare le coscienze. E questo è un fatto che deve far molto riflettere.

  • Come conservare l’effetto positivo delle prime parole del Messaggio del papa, con ciò che mi sta dicendo?

Potrei citare, per contro, mille altre applicazioni in cui l’intelligenza artificiale dà una prova molto positiva di sé: in fatto di cure sanitarie ad esempio, di risparmio energetico, di ambiente e di molto altro.

Ma partiamo dal fatto che lo sviluppo e l’impiego della intelligenza artificiale è inevitabile. Anche se, per assurdo, qualche parte del mondo decidesse di rinunciarvi, perché troppo pericoloso, vi sarebbe sempre un’altra parte che non lo farebbe. Non abbiamo, quindi, altra strada da percorrere che non sia – come, del resto, ha detto anche il presidente Mattarella nel messaggio di fine anno – quella di fare in modo che l’intelligenza artificiale «resti umana».

L’unica strada è quella che la saggezza della umanità ha sempre, in fondo, perseguito, non perdendo mai la propria umanità, non chiudendo gli occhi davanti all’altro, lavorando molto sulla educazione, sulla coscientizzazione, sullo sviluppo di una critica ben informata, sulla cultura e quindi sulla morale.

Un ethos per l’IA
  • Come si può fare cultura morale, oggi, in un mondo sempre più tecnico, iper-specialistico per settori?

Non penso, infatti, che possa darsi una disciplina, a sé, chiamata etica. Perché non può darsi un’etica separata dal proprio terreno di coltura e di applicazione. Penso, quindi, ad una cultura ad ampio raggio, in cui la filosofia, la teologia, la scienza e la tecnologia si possano fare insieme, a partire dalla scuola.

Perciò non penso che sia una buona idea quella di privare la scuola delle tecnologie ad intelligenza artificiale – come da qualche parte si sta proponendo – nell’intento di proteggere i giovani dai rischi di cui abbiamo detto. Si produrrebbe, solo, l’effetto contrario: un effetto di impreparazione e di crescente mancanza di consapevolezza etica.

Penso piuttosto che la scuola debba preparare a stabilire le connessioni più significative tra l’enormità dei dati oggi a disposizione, i fenomeni e gli eventi.

Non posso accettare che alcuni docenti – fisici e ricercatori autorevoli nel loro settore -, una volta stabilita l’efficacia funzionale di certe correlazioni si limitino a dire che il resto, a loro, non importa: perché le figure di scienza non possono limitarsi a descrivere come funzionano i processi, bensì devono sentirsi pienamene partecipi e responsabili del perché avvengono e in vista di che.

In proposito voglio ricordare quanto Einstein scriveva a Max Born in una lettera del 1924, adattandolo al tema di cui abbiamo trattato. Ha sostenuto: se mi si imponesse di limitarmi a riscontrare il fatto che le cose accadono, privandomi della possibilità di comprenderne il perché, «preferirei fare il ciabattino, o magari il biscazziere, anziché il fisico».

Print Friendly, PDF & Email

Un commento

  1. Giovanni Di Simone 19 gennaio 2024

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto