Intelligenza artificiale: una sfida seria

di:
paglia e smith

Vincenzo Paglia e Brad Smith, presidente della OpenAI (Microsoft)

Ha suscitato grande impressione – ma anche vivaci polemiche – la lettera aperta, firmata da oltre mille personalità del mondo della cultura, della scienza e dell’economia, in cui si denunciavano i rischi dell’attuale sviluppo incontrollato dell’Intelligenza Artificiale (IA).

«Negli ultimi mesi», si diceva nella lettera, «i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile».

Perdere il controllo

Il problema posto dai firmatari è semplice: posto che «i sistemi di IA contemporanei stanno diventando competitivi con gli esseri umani (…), dovremmo sviluppare menti non umane che, alla fine, potrebbero superarci di numero, essere più intelligenti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?».

Da qui la richiesta: «Pertanto chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa dovrebbe essere pubblica e verificabile (…). I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate», volti a «garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio».

L’appello, firmato tra l’altro da personalità discusse come Elon Musk, è stato oggetto di due ordini di critiche. Uno riguardante la sua praticabilità. È stato osservato da più parti che non è realistica l’idea di coinvolgere tutti i paesi del pianeta – dagli Stati Uniti, alla Russia, alla Cina – in uno stop di 6 mesi. Ma anche se ci si riuscisse – e questo è il secondo ordine di obiezioni –, non basterebbero certo 6 mesi a creare un sistema di controlli che rendano «sicuri al di là di ogni ragionevole dubbio» i prodotti della ricerca sulle IA.

Nessuno, però, ha contestato la serietà del problema che il documento solleva. Anzi alcuni che non l’hanno firmato – come Eliezer Yudkowsky, uno dei maggiori esperti nel campo della sicurezza dei sistemi di intelligenza artificiale –, hanno precisato di non averlo fatto perché troppo blando: «Mi sono astenuto dal firmare – ha scritto Yudkowsky – perché penso che la lettera stia sottovalutando la gravità della situazione».

E poco dopo, ai primi di maggio, è arrivata la notizia che Geoffrey Hinton, definito «il padrino dell’intelligenza artificiale» ha lasciato Google, con cui aveva collaborato per anni, dichiarando che lo faceva per poter parlare liberamente dei rischi dell’IA.

Dal futuro al presente

Per capire il contesto in cui si collocano questi gridi di allarme, basta leggere l’apertura di un articolo del Sole 24 Ore del 15 gennaio 2023, in cui si intervista Brad Smith, il presidente della «OpenAI», la società di Microsoft che ha creato ChatGPT, il più potente sistema di intelligenza artificiale mai prodotto finora e di cui è stata da poco annunciata una versione ancora più potente (menzionata nella lettera citata all’inizio), GPT-4.

Scrive la giornalista dell’autorevole quotidiano, Barbara Carfagna: «Il 2023 è l’anno in cui l’Intelligenza Artificiale entrerà in una nuova era, sarà alla portata di tutti e trasformerà l’economia, la sicurezza, il lavoro, le aziende e la vita stessa dei singoli uomini. A deciderlo sono state le Big Tech che hanno in mano i sistemi più avanzati e l’accesso ad una enorme mole di dati».

Quel che è certo è che siamo davanti a una svolta epocale, immensamente più rilevante di tante altre questioni su cui le pagine e i giornali e i notiziari televisivi polarizzano la loro attenzione e quella dell’opinione pubblica. Forse la cosa più allarmante è proprio questa scarsa attenzione ai problemi che una simile svolta comporta e il conseguente pericolo che essa venga gestita, senza alcun adeguato controllo, da una élite economica la cui logica è, fisiologicamente, quella imprenditoriale.

Nella fantascienza

Dei pericoli legati allo sviluppo dell’Intelligenza Artificiale si è sempre parlato nei romanzi e nei film di fantascienza. Come nel famoso libro di Isaac Asimov Io robot, del 1950, dove già lucidamente si metteva in luce la necessità che questi prodotti della tecnica fossero soggetti a precise regole morali, inscritti nella loro stessa struttura. Erano le «tre leggi della robotica»:

  • «Un robot non può recar danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno.
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non vadano in contrasto alla Prima Legge.
  • Un robot deve proteggere la propria esistenza, purché la salvaguardia di essa non contrasti con la Prima o con la Seconda Legge».

In realtà, tutta la produzione letteraria e filmica di questi ultimi settant’anni si è incaricata di evidenziare la precarietà di questi sforzi dell’essere umano di tenere sotto controllo le sue creature. Film famosi come Blade runner (1982), di Ridley Scott, e Matrix (1999), dei fratelli Wachowsky, ci hanno abituato alla prospettiva di un ammutinamento delle intelligenze artificiali, dipingendo scenari in cui, da strumenti al servizio degli esseri umani, esse entrano in competizione con loro, fino al punto di renderli loro schiavi.

Ma tutto questo rimaneva sempre nei limiti rassicuranti di una proiezione nel futuro. Ora ci si dice che questo futuro è arrivato. E che i pericoli ipotizzati sono incombenti nel presente.

I pericoli

L’elenco è lungo. Si comincia dalla più banale conseguenza di tutte le rivoluzioni tecnologiche, la minore necessità dell’intervento umano e l’inevitabile perdita di posti di lavoro. Anche se, come per il passato, potrebbero crearsene altri proprio in funzione delle nuove tecniche.

Del tutto nuovo è, invece, il pericolo che deriva dalla capacità dell’IA di registrare e accumulare i dati personali, trasformandosi così in un «occhio divino» che travolge tutte le regole della privacy ed è in grado di prevedere, e in qualche modo di determinare, i nostri comportamenti. Già adesso tutti constatiamo come i nostri gusti personali, espressi in acquisti fatti su Internet, vengano archiviati e utilizzati per proporci, in base ad essi, altri prodotti da comprare.

Trasportato nell’ambito della ricerca intellettuale, ciò espone al rischio che la rete ci faccia trovare, su un argomento, proprio quelle fonti di informazione e quelle risposte che corrispondono al nostro profilo intellettuale, delineato in base alle nostre scelte precedenti, assecondando le nostre preferenze ma, al tempo stesso, rendendoci prigionieri di esse.

Queste forme di controllo possono diventare ulteriormente pericolose se i criteri in base a cui vengono esercitate riflettono le idee di coloro che hanno creato l’algoritmo in base a cui l’IA opera. Un’intelligenza artificiale che seleziona il personale potrebbe allora fare le sue scelte in modo apparentemente asettico, ma in realtà ispirato a logiche discriminanti in base al genere, all’etnia, alle condizioni sociali ed economiche.

Autonomia: fino a dove?

Per non parlare della manipolazione che l’IA è in grado di operare sui dati, fornendo rappresentazioni del tutto distorte della realtà e aprendo scenari di realtà virtuale finora immaginati solo in film di fantascienza come Matrix. Nell’intervista al Times in cui ha spiegato le ragioni della sua decisione di lasciare Google, Hinton ha detto tra l’altro che con l’intelligenza artificiale potremmo arrivare a vivere in un mondo in cui le persone «non saranno più in grado di sapere cosa è vero».

L’intelligenza artificiale può essere usata anche per l’automazione della guerra. Fino a che punto può spingersi questo automatismo, scavalcando il controllo umano? Cosa può accadere lasciando all’IA la decisione sul tipo di risposta da dare a un’azione militare del nemico?

A impressionare forse più di tutto è lo spettacolo, alla portata di tutti, di ciò che è in grado di fare ChatGPT (di cui, come si è detto, è già pronta una versione ancora più potente), nel rispondere a ogni nostra richiesta con una velocità sconosciuta alla mente umana e attingendo a una deposito di dati che supera senza paragoni ogni nostra capacità di documentazione. Una «super-intelligenza», che però è sganciata dal nostro contesto valoriale e opera solo come uno strumento senza essere in grado di valutare i fini.

Fino ad ora ci si consolava sottolineando che l’IA non può far nulla che non le sia insegnato e comandato da chi l’ha programmata. Le nuove generazioni di intelligenza artificiale, però, cominciano a essere capaci di imparare e di evolversi autonomamente, rispetto al programma originario. Dove può arrivare questa autonomia?

Una sfida innanzi tutto antropologica

Certo, la più immediata esigenza è quella di mettersi d’accordo sui criteri di fondo a cui la produzione in questo settore deve obbedire. Anche il presidente di «OpenAI» è convinto che un compito fondamentale dell’umanità, in questo momento, «è stabilire principi etici critici che sono importanti per tutte le società del mondo (…) La prima sfida è creare dei principi etici e implementarli così da poter essere fiduciosi che l’AI lavorerà per servire i valori umani».

In questa prospettiva Brad Smith in Vaticano ha firmato una «Rome Call for AI Ethics», documento sottoscritto dalle tre religioni abramitiche promosso dalla Pontificia Accademia per la Vita. Al di là delle differenze di cultura e di religione, egli osserva, «c’è un consenso emergente sui principi che devono guidare l’IA: evitare i pregiudizi, essere inclusiva, proteggere la privacy e la sicurezza, essere trasparente così che la gente capisca cosa l’IA stia facendo e resti rispettosa delle decisioni prese dagli esseri umani».

Ma la sfida è più radicale: si tratta di capire che cosa ci caratterizza davvero come persone umane e ci distingue dai nostri prodotti. In un momento storico in cui la cultura dominante dell’Occidente rifiuta sdegnosamente, come un relitto del passato, il concetto di «natura umana», dobbiamo chiederci se ci sia un confine – quale che sia il nome che gli diamo – tra umano e non-umano. I princìpi etici dipendono da questo.

Non a caso, anch’essi oggi sono oggetto di una totale relativizzazione, che ne nega l’universalità. Se non c’è più l’uomo (nel senso del termine greco «anthropos», che include il maschile e il femminile) come distinguere il bene il male che lo riguardano?

Ma, a questo punto, non ci sarà da stupirsi se le intelligenze che noi stessi abbiamo inventato e costruito ci sostituiranno.

  • Dal sito della pastorale della cultura della diocesi di Palermo (www.tuttavia.eu), 19 maggio 2023
Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto