Cosa (non) dice la relazione sull’intelligenza artificiale

di:

intelligenza artificiale

La Commissione intelligenza artificiale per l’informazione, presieduta da Padre Paolo Benanti, dopo circa sei mesi di lavoro, ha pubblicato la sua attesa Relazione sui lavori svolti e, sinceramente, ci saremmo aspettati di più.

La Commissione ha preso in considerazione l’impatto dell’intelligenza artificiale esclusivamente nel settore dell’informazione e dell’editoria, dopo avere consultato enti importanti, come la Federazione Italiana Editori Giornali (FIEG), la Federazione Nazionale della Stampa Italiana (FNSI), l’Ordine dei giornalisti, Google, Meta e Microsoft, senza tuttavia coinvolgere le piccole e medie imprese che rappresentano una parte rilevante del tessuto economico italiano.

Dal confronto è emerso il riconoscimento dell’importanza degli strumenti di intelligenza artificiale in ambito giornalistico, evidenziando come essi siano già ampiamente utilizzati per fare ricerche, analisi, per adattare i formati editoriali e anche per generare articoli didascalici.

I giornalisti trovano giovamento dall’uso dei sistemi di intelligenza artificiale e non sembrano intenzionati a rinunciarci, dall’altro lato, però, gli autori e gli editori vogliono essere remunerati se i loro lavori sono usati per l’addestramento dei sistemi di intelligenza artificiale.

Che esistano questi due contrapposti interessi è ben noto da tempo e la difficoltà è proprio quella di trovare una soluzione di compromesso che li soddisfi entrambi.

Dei dati di addestramento c’è bisogno e non possono essere remunerati secondo i criteri tradizionali perché i costi sarebbero insostenibili.

Il registro (quasi) inutile

La Relazione pone al primo posto, oltre all’uomo, il rispetto del diritto d’autore e quindi ritiene indispensabile che siano pagati i diritti, senza però individuare una soluzione efficiente.

Si prevede l’opportunità di obbligare gli sviluppatori di sistemi di intelligenza artificiale a tenere un registro aggiornato «recante i contenuti informativi coperti dal diritto d’autore utilizzati per l’input e dunque per l’addestramento dell’algoritmo», espressione che pare riferirsi ai dati di training, anche se non è chiaro se debbano essere conservati per esteso o se debbano essere solo indicati.

Lo scopo di questo registro sembra è di consentire ai titolari di diritti d’autore di potere avere il controllo sulla gestione dei loro diritti.

A questo proposito si suggerisce di intervenire rafforzando l’opt-out, consentendo agli autori di opporsi all’uso delle loro opere per il training, diritto che, però, non vedo come possa essere esercitato ex post dopo che il sistema è già stato addestrato, per cui l’utilità del registro sarebbe limitata da questo punto di vista.

L’opt-out presenta, in ogni caso, delle criticità e la Commissione se ne rende conto, in quanto se venisse esercitato da tutti gli autori i sistemi di intelligenza artificiale rischierebbero il collasso.

Nella relazione si legge che «le misure descritte non intendono favorire un opt-out di massa che produrrebbe conseguenze significative sulla bontà dei modelli di intelligenza artificiale», ma se il diritto di opt-out viene cristallizzato, o addirittura rafforzato, nessuno potrà mai impedire che tutti lo richiedano, a meno che non si voglia prevederlo per legge e sarebbe interessante capire come.

In alternativa la Commissione suggerisce forme di licenza collettiva, ma anche in questo caso non si dice quale contenuto dovrebbero avere e neppure viene ipotizzata una soluzione analoga a quella dei Sep, gli «standard essential patent» per i quali esiste una sorta di licenza obbligatoria a tariffe concordate.

Le cause pendenti negli Stati Uniti insegnano che gli accordi con gli editori non si stanno trovando proprio per la difficoltà pratica di individuare forme contrattuali idonee a soddisfare tutti.

In sostanza, le due soluzioni indicate dalla Relazione, da un lato, non aggiungono nulla di nuovo, in quanto l’opt-out è già previsto dall’art. 4 della Direttiva 2019/790 e le licenze esistono da sempre, mentre dall’altro questi istituti non vengono applicati in modo innovativo all’intelligenza artificiale e tanto meno vengono suggerite nuove strategie.

Proteggere la qualità

Oltre a questo, la Relazione evidenzia i rischi legati all’uso dell’intelligenza artificiale nell’editoria, che individua nella «progressiva sostituzione della creatività umana» che determinerebbe una crisi occupazionale e culturale e che potrebbe incrementare la disinformazione, soprattutto in ambito politico.

I problemi evidenziati dalla Commissione sono noti da tempo, come si legge nella stessa Relazione, ma non sono rischi tipici dell’intelligenza artificiale e attengono più che alla tecnologia all’uomo e all’uso che ne fa.

Si tratta di fenomeni già presenti nei social e in certi canali di comunicazione, in cui oltre alla vera e propria disinformazione dolosa, si trova anche «misinformazione», consistente nella comunicazione di notizie false più per incompetenza che per manipolare, fino alle vere operazioni di influenza, tese a ingannare il pubblico.

Per garantire la qualità dell’informazione, che è senz’altro un valore da preservare, la Relazione evidenzia la necessità di promuovere sistemi per l’identificazione delle fonti utilizzate per la produzione degli output e la possibilità di tracciare l’origine degli articoli, come ha già fatto l’ANSA, in via sperimentale, con «ANSA check», basata su blockchain, che certifica l’origine delle sue notizie.

Si suggerisce che un sistema analogo venga applicato ai contenuti generati dall’intelligenza artificiale, anche se non è chiaro se la tracciabilità debba essere applicata a qualsiasi output generato o solo agli output che abbiano il contenuto di notizia, intesa in senso giornalistico.

La Commissione prevede di applicare anche all’intelligenza artificiale il riconoscimento dell’equo compenso, previsto dal comma 8 dell’art. 43-bis della Legge 633/1941 per i prestatori dei servizi della società dell’informazione a favore degli editori per l’uso online delle pubblicazioni di carattere giornalistico.

Ricorda però che la legittimità di questa norma è attualmente all’esame della Corte di Giustizia dopo il rinvio pregiudiziale da parte del TAR Lazio, sez. IV, sent. 18790/2023, per cui sicuramente si deve almeno attendere l’esito del giudizio prima di ogni riflessione sull’opportunità di una tale iniziativa.

Da ultimo, la Commissione ricorda l’importanza di prevedere fin da subito la costituzione di un’Autorità di Vigilanza, già prevista dall’AI Act, per supervisionare l’applicazione del futuro Regolamento europeo, ente fondamentale anche per monitorare l’applicazione di un’eventuale legge nazionale di cui il governo sta discutendo in questi giorni.

L’Autorità nazionale dovrebbe anche promuovere linee guida comportamentali e favorire la collaborazione tra l’industria tecnologica e l’imprenditoria editoriale, oltre che creare una sorta di sandbox per progetti pilota di regolamentazione dell’intelligenza artificiale. Si insiste anche sulla necessità di un aggiornamento professionale.

Nessuna novità

Come dicevamo all’inizio ci saremmo aspettati di più. La Relazione non dice niente di più di quello che già sapevamo, o che è previsto nell’AI Act o in leggi esistenti.

Ci sarebbe stato bisogno di una maggiore creatività giuridica per potere offrire al governo strumenti concreti su cui ragionare e costruire qualcosa di davvero innovativo per fare dell’Italia uno Stato all’avanguardia nel settore dell’intelligenza artificiale come è nei proposti della nostra presidente del Consiglio.

Se questo era l’obiettivo al momento non è stato raggiunto.

  • Dal Substack di Stefano Feltri, Appunti, 11 aprile 2024
Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto