Paolo Benanti: L’Intelligenza Artificiale, sfida etica

di:
Paolo Benanti

Paolo Benanti

La necessità di adattare le nostre strutture sociali alla nuova e inedita figura di società «costituita di agenti autonomi di tipo misto», una esigenza che l’Intelligenza Artificiale (AI) ha reso ormai sempre meno remota, è tema di cui è divenuto difficile sottostimare la portata. 

A conferma viene un convegno – Intelligenza Artificiale: una sfida etica? – organizzato dal Pontificio consiglio per la cultura all’interno dell’iniziativa del «Cortile dei gentili», che si svolgerà il prossimo 6 luglio a Palazzo Borromeo, sede dell’Ambasciata d’Italia presso la Santa Sede. Paolo Benanti, francescano del Terzo ordine regolare e docente di Teologia morale alla Gregoriana, è uno dei relatori invitati al convegno insieme a Sebastiano Maffettone (LUISS Guido Carli) e Luciano Floridi (Oxford University). A lui abbiamo chiesto di parlarci delle questioni etiche che emergono dall’immaginare una coesistenza uomo-macchina (in ambiente di lavoro) rispettosa della dignità umana.

La prima e fondamentale direttiva che le moderne macchine cognitive dovrebbero implementare la esprimerei con l’adagio latino: primum non nocere. La realizzazione di tecnologie controllate da sistemi di AI solleva tutta una serie di problemi, che – come è facile comprendere – si riferiscono anzitutto alla gestione dell’autonomia decisionale di cui questi apparati godono. E tuttavia la questione degli agenti morali autonomi, ovvero delle macchine cognitive in un ambiente di lavoro misto, che prevede la compresenza uomo-macchina, non può esaurirsi in questa sola direttiva.

– Che cosa è necessario che queste macchine «imparino» collaborando con l’uomo?

Direi che le moderne macchine sapiens – per usare un neologismo – dovrebbero essere in grado di apprendere almeno altri quattro elementi fondamentali, che possiamo considerare una declinazione operativa della dignità umana. Se saranno capaci di interagire nel rispetto di tali dimensioni, allora non solo le macchine non nuoceranno all’uomo, ma sapranno tutelare la dignità e la creatività proprie degli operatori umani.

Quali sono questi elementi?

Il primo, lo definirei una certa capacità di intuizione. Quando due persone collaborano una riesce ad anticipare e assecondare le intenzioni dell’altra, intuendo cosa sta facendo o che cosa vuole fare. Se vediamo una persona camminare a fatica con le braccia ingombre di oggetti, comprendiamo la situazione e la aiutiamo, agevolandone l’opera o sollevandola da parte del carico. Questa capacità intuitiva umana è alla base della grande duttilità che ci è propria e che ci ha permesso di organizzarci, fin dall’antichità, prima nella caccia e nell’agricoltura e in seguito nel lavoro. In un ambiente misto, le AI devono poter intuire le intenzioni degli operatori umani e adattarsi. Infatti, è la macchina a doversi adattare all’uomo e rispettare il suo ingegno e duttilità, non viceversa.

Poi, come secondo, indicherei la intelligibilità dell’azione. Le macchine cognitive vengono governate da software sviluppati per ottimizzare il consumo energetico, le traiettorie e le velocità operative dei servo apparati. Se un robot deve prelevare un oggetto, il movimento del suo braccio meccanico seguirà una traiettoria di minimo consumo energetico e temporale. Un uomo, invece, farà la stessa operazione in modo da far capire a chi gli sta intorno che cosa vuole fare. Vedendo un altro uomo in azione, l’operatore umano è capace di cogliere l’intenzione dell’agente non in forza di una operazione di ottimizzazione, ma della intelligibilità dell’azione stessa. Per questo, volendo garantire un ambiente di lavoro misto rispettoso della dignità umana, l’agire della macchina dovrà essere intellegibile all’uomo. Chi condivide con la macchina lo spazio di lavoro deve sempre poter intuire qual è l’azione che essa sta per compiere. Questo consente, tra l’altro, una coesistenza che non espone l’uomo a situazioni pericolose. Non è solo l’ottimizzazione dell’azione automatica quello che i software devono perseguire, ma sempre e anzitutto il rispetto dell’uomo.

– Rimangono due dimensioni.

Il terzo elemento da richiedere è l’adattabilità. La AI consente già ora alle macchine di adattarsi alle condizioni ambientali per compiere azioni autonome. Gli algoritmi di AI dovrebbero però essere in grado di adattarsi non solo alle mutevoli condizioni ambientali, ma anche – in ambiente di lavoro misto – alle diverse personalità umane con cui devono interagire. Una automobile a guida autonoma, per fare un esempio, deve potersi adattare alle condizioni del traffico per non bloccarsi o provocare ingorghi. Ma essa dovrebbe potersi adattare anche alla sensibilità dei suoi passeggeri, i quali potrebbero essere esasperati dalla sua lentezza nel cambiare corsia o preoccupati dalla sua guida troppo aggressiva. L’uomo non è solo un essere razionale ma anche emotivo; è per questo che la macchina dovrebbe poter valutare e rispettare questa peculiare caratteristica, che riflette l’unicità della persona. L’attenzione a non mortificare tale unicità razionale-emotiva permette una coesistenza rispettosa della dignità delle persone.

Infine, come ultima caratteristica, parlerei di capacità per i software che governano la macchina di adeguare gli obiettivi. Infatti, se in un ambiente del tutto automatico l’assolutezza dell’obiettivo può essere una buona strategia, in un ambiente misto non lo è altrettanto. Affinché la macchina cognitiva interagisca in modo rispettoso con le persone, essa deve apprendere qual è l’obiettivo adeguato in una particolare situazione. Il robot non può avere come unica strategia quella di perseguire il suo obiettivo in modo assoluto, ma deve poter adeguare il suo agire in base all’agire e all’obiettivo di chi coopera con lui. Mi piace parlare della necessità, per la macchina, di implementare una sorta di umiltà artificiale, che le consenta di comprendere – caso per caso – se conviene sospendere o rimandare una certa funzione perché sono sorte altre priorità nelle persone con cui interagisce. La priorità operativa, insomma, va posta nella persona e non nella macchina. È il robot che coopera e non l’uomo che assiste il funzionamento della macchina.

– Come è possibile implementare in modo sicuro queste quattro caratteristiche in una macchina cognitiva?

Occorrono degli algoritmi di verifica indipendenti in grado di misurare e certificare le capacità di intuizione, intelligibilità, adattabilità e adeguatezza degli obiettivi sopra elencate. Tali algoritmi valutativi devono essere sviluppati rigorosamente in modo indipendente e affidati ad enti terzi di certificazione, che si facciano garanti della cosa. Tocca al governo poi provvedere un quadro operativo capace di trasformare la dimensione valoriale in strutture di standardizzazione, certificazione e controllo a tutela della persona e del suo valore negli ambienti di lavoro misti.

– A tale proposito, a che punto siamo nel nostro paese?

Con l’entrata in vigore del DPR 459/1996, l’Italia è entrata tra gli stati europei che – avendo recepito la cosiddetta “Direttiva macchine” – garantiscono la libera circolazione nel mercato comune solo a macchine che possiedono il marchio di conformità CE, che può essere rilasciata dal fabbricante o da un organismo ufficiale di certificazione. È ovvio che non basta fare controlli sulla sicurezza di installazione e delle condizioni operative delle macchine ma si tratta di garantire che lo spazio di autonomia di queste macchine cognitive rispetti sempre le direttive etiche fondamentali di cui dicevamo. Non bastano standard ma servono algoritmi in grado di valutare in modo intelligente l’adeguatezza delle AI destinate a cooperare con operatori umani. Solo così non subiremo l’innovazione tecnologica, ma potremo tentare di governarla e orientarla nella prospettiva di un autentico sviluppo umano anche nell’era delle intelligenze artificiali a-venire.

Cortile dei gentili, locandina

Locandina del Convegno del 6 luglio 2017, organizzato dal Cortile dei gentili

Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto