Che cosa c’entra l’IA con la povertà e la dignità umana

di:
data center

Una vista aerea del data center IAD71 di Amazon Web Services ad Ashburn, Virginia

Questo saggio − pubblicato sulla rivista America il 16 aprile 2026 (qui l’originale inglese) − è tratto dalla conferenza annuale America Media Lecture tenutasi alla Fairfield University il 3 marzo 2026. Kim Daniels è direttrice della Initiative on Catholic Social Thought and Public Life dell’Università Georgetown (Washington D.C.). È stata coordinatrice del Gruppo di studio n. 3 del Sinodo sul tema: «La missione nell’ambiente digitale» (cf. qui su SettimanaNews)

Nella sua prima settimana di pontificato, nel 2013, Papa Francesco invitò con forza a costruire una Chiesa «povera e per i poveri». Fu un’espressione che ripeté spesso, ma che soprattutto incarnò con la sua vita, mostrando al mondo che l’amore per i poveri era al centro del suo ministero. Nell’esortazione apostolica Evangelii gaudium, talvolta definita il “programma” del suo pontificato, ci ha ricordato che «nel cuore di Dio c’è un posto preferenziale per i poveri».

Allo stesso modo, nelle sue prime parole dopo l’elezione dello scorso 8 maggio, Papa Leone XIV ha affermato che la missione della Chiesa è quella di stare accanto ai poveri. Nella sua prima esortazione apostolica, Dilexi Te, ha scritto che la «condizione dei poveri è un grido che, lungo tutta la storia umana, interpella costantemente le nostre vite, le nostre società, i sistemi politici ed economici e, non da ultimo, la Chiesa. Nei volti feriti dei poveri vediamo la sofferenza degli innocenti e, dunque, la sofferenza di Cristo stesso». L’amore per i poveri è il cuore del Vangelo e si colloca al centro della tradizione e dell’insegnamento cattolico.

L’attenzione di Papa Leone verso quanti vivono nella povertà si inserisce nel riconoscimento di un contesto sociale ed economico in rapido mutamento. Subito dopo la sua elezione, egli ha affermato che la Chiesa dovrebbe offrire «la propria dottrina sociale in risposta… agli sviluppi nel campo dell’intelligenza artificiale, che pongono nuove sfide alla difesa della dignità umana e del lavoro». Accanto alla sollecitudine per i poveri, l’impatto dell’intelligenza artificiale è diventato uno dei temi centrali del suo giovane pontificato.

Sappiamo tutti che il progresso dell’intelligenza artificiale solleva interrogativi complessi. Che cosa significa che una macchina sia «intelligente»? Queste tecnologie resteranno sotto il controllo umano? I posti di lavoro scompariranno e, in tal caso, quali e con quale rapidità? Quali leggi e politiche dovrebbero regolamentare lo sviluppo dell’I.A.? Le nostre istituzioni politiche, sociali e civili sono all’altezza di questa sfida? E stiamo forse andando incontro a un’apocalisse dell’intelligenza artificiale, a un’utopia, oppure a qualcosa di intermedio?

L’intelligenza artificiale e gli emarginati

Si tratta di interrogativi complessi, che non ammettono risposte semplici. Tuttavia, alcune domande sono, nelle parole di Papa Leone e di Papa Francesco, «semplici». Una di queste riguarda l’obbligo di mettere in pratica «le parole chiare e forti del Vangelo» circa la «condivisione dei beni e la cura dei poveri» (Dilexi Te, nn. 28 e 32).

Come afferma Papa Leone in Dilexi Te, citando Papa Francesco, «il messaggio della Parola di Dio è “così chiaro e diretto, così semplice ed eloquente, che nessuna interpretazione ecclesiale ha il diritto di relativizzarlo. La riflessione della Chiesa su questi testi non dovrebbe oscurarne o indebolirne la forza, ma spingerci ad accoglierne le esortazioni con coraggio e zelo. Perché complicare ciò che è così semplice?”» (Dilexi Te, n. 31). «Mi domando spesso», aggiunge, «come mai, benché l’insegnamento della Sacra Scrittura sia così chiaro riguardo ai poveri, molti continuino a pensare di poterli tranquillamente ignorare» (Dilexi Te, n. 23).

Una cosa è certa: le tecnologie guidate dall’intelligenza artificiale stanno già ignorando i poveri. L’avvocato per i diritti civili Gary Rhoades riporta il caso di Mary Louis, una donna afroamericana che ha pagato l’affitto con regolarità per 16 anni. Quando ha fatto domanda per un nuovo appartamento, è stata respinta da un algoritmo chiamato SafeRent, che le ha assegnato un punteggio basso. L’algoritmo non ha tenuto conto né della sua impeccabile storia di pagamenti né del voucher abitativo di cui disponeva; non è chiaro, invece, quali fattori abbia considerato. Mary è una delle migliaia di persone che hanno intentato causa contro la società SafeRent Solutions, accusandola di aver utilizzato un algoritmo che discrimina sistematicamente gli inquilini neri e ispanici.

Scenari come questo non sono esercizi teorici. Persone reali stanno subendo danni, già ora. Come riconosce Papa Leone, «questa tecnologia sta già avendo un impatto reale sulla vita di milioni di persone, ogni giorno e in ogni parte del mondo». Come possiamo, nella Chiesa, garantire che le voci dei più vulnerabili restino al centro del dibattito sull’intelligenza artificiale e che i principi della dottrina sociale cattolica continuino a orientare le nostre scelte?

Troppo spesso, nei nostri Paesi, coloro che vivono in condizioni di povertà materiale vengono lasciati indietro. La teologa della Fordham University Christine Firer Hinze ricorda, nel volume Radical Sufficiency: Work, Livelihood, and a U.S. Catholic Economic Ethic, che negli Stati Uniti «potenti dinamiche strutturali hanno spianato la strada al successo economico» per alcuni, mentre le classi medio-basse e lavoratrici, i lavoratori poveri e i poveri incontrano troppo spesso numerosi e persistenti «ostacoli a un sostentamento dignitoso».

L’intelligenza artificiale non crea queste disuguaglianze, ma le perpetua e le accelera. Come osserva Levi Checketts in Poor Technology: Artificial Intelligence and the Experience of Poverty, «la ricerca sull’I.A. non ha preso sul serio la prospettiva dei poveri, né mostra interesse a farlo».

Si consideri ancora il caso di Mary Louis, l’inquilina del Massachusetts con una storia impeccabile, alla quale è stato negato un alloggio sulla base del programma di selezione degli inquilini basato sull’I.A. di SafeRent Solutions, che non teneva conto né del suo storico abitativo né del valore del voucher ricevuto. Il suo caso non è un’eccezione. SafeRent e aziende simili sono state oggetto di numerose azioni legali contro l’uso di prodotti basati su algoritmi che attingono dati, tra le altre fonti, da registri penali inesatti o incompleti.

Sebbene il caso SafeRent si sia concluso con un accordo favorevole alla signora Louis, contestare con successo queste pratiche è spesso difficile, soprattutto nei confronti di aziende che utilizzano strumenti di I.A. addestrati su dati governativi e privati e su criteri occupazionali che, secondo Eric Dunn, direttore del contenzioso presso il National Housing Law Project, «sono intrinsecamente arbitrari e non si fondano su alcuna evidenza empirica o studio».

L’abitazione non è l’unico ambito in cui si manifesta il bias algoritmico. Nei Paesi Bassi, la città di Rotterdam ha fatto ricorso a uno strumento di I.A. per prevedere le frodi nei sussidi. L’algoritmo considerava la scarsa padronanza della lingua olandese come uno degli indicatori di rischio, finendo così per confondere errori amministrativi genuini con vere frodi. Il risultato è stato una discriminazione nei confronti dei migranti nell’accesso ai benefici.

Il bias algoritmico emerge anche nel sistema di giustizia penale. Il gruppo di ricerca vaticano sull’I.A. ha recentemente citato un’indagine di ProPublica sull’uso di «un algoritmo proprietario che assegna un punteggio di rischio ai detenuti candidati alla libertà vigilata durante le udienze». Non solo l’algoritmo si è rivelato scarsamente efficace nel prevedere reati violenti, ma «le persone nere avevano più del doppio delle probabilità di ricevere erroneamente un punteggio elevato di rischio». La conclusione del gruppo vaticano è chiara: «L’uso diffuso e indiscriminato delle tecnologie di I.A. per prendere decisioni politiche e giuridiche rilevanti penalizza e impone oneri indebiti ai poveri e agli emarginati, aggravando ulteriormente le disuguaglianze sociali».

Anche i costi ambientali dell’I.A. rivelano un analogo schema di danno. L’enorme consumo di acqua, il fabbisogno energetico e i rifiuti prodotti mostrano come le scelte tecnologiche abbiano conseguenze ambientali che non possiamo ignorare. Nel 2023, i data center negli Stati Uniti hanno consumato circa 228 miliardi di galloni d’acqua. Il consumo energetico complessivo dei data center è più che raddoppiato tra il 2017 e il 2023 e si prevede che continui a crescere rapidamente. Inoltre, si stima che entro il 2030 l’I.A. genererà tra 1,2 e 5 milioni di tonnellate metriche aggiuntive di rifiuti elettronici.

Non si tratta solo di statistiche astratte: sono dati che toccano la vita concreta delle persone. Come nel caso del bias algoritmico, anche i costi ambientali ricadono in modo sproporzionato sui poveri e sui più vulnerabili. Le comunità con minore potere politico si ritrovano spesso a ospitare data center nelle loro vicinanze, con conseguente pressione sulle risorse idriche ed energetiche. Inoltre, l’estrazione delle terre rare necessarie per lo sviluppo dell’hardware per l’I.A. può devastare gli ecosistemi locali. Ancora una volta, sono troppo spesso i poveri a sopportarne il prezzo.

Lavoro invisibile

Un’altra sfida riguarda il lavoro invisibile che rende possibile l’intelligenza artificiale. In Co-Intelligence: Living and Working with A.I., Ethan Mollick della Wharton School descrive il processo che consente di rendere più sicuri i sistemi di I.A., osservando che esso dipende da «lavoratori sottopagati in tutto il mondo reclutati per leggere e valutare le risposte dell’I.A., i quali, così facendo, sono esposti proprio a quei contenuti che le aziende di intelligenza artificiale non vogliono mostrare al pubblico». Lo human in the loop (il controllo umano nel circuito operativo e decisionale della I.A. − ndr) è una persona reale, con un volto, una famiglia e una storia.

Oggi, in Paesi come Kenya, India, Filippine e Venezuela, lavoratori a basso salario classificano e organizzano dati per meno di 2 dollari l’ora, contribuendo all’addestramento dei sistemi di I.A., in quello che alcuni di loro definiscono «sweatshop dell’intelligenza artificiale, con computer al posto delle macchine da cucire» (sweatshop è una fabbrica dove si sfruttano i lavoratori − ndr). Questi lavoratori non dispongono di tutele, né di sicurezza occupazionale, né di una reale voce nei luoghi di lavoro. Alcuni trascorrono più di otto ore al giorno esaminando contenuti estremamente violenti: omicidi, suicidi, abusi sessuali. Come ha lamentato uno di loro: «Il fatto che siamo neri, o semplicemente persone vulnerabili, non dà loro il diritto di sfruttarci in questo modo».

Se, da un lato, parte del lavoro che rende possibile l’I.A. resta invisibile, dall’altro, in un certo senso, l’I.A. sta rendendo più evidente la dignità e il valore di altri tipi di lavoro. Si pensi, ad esempio, al lavoro di cura: un’attività essenziale per il fiorire umano (human fluorishing), che è un aspetto centrale in una fede che chiama ogni persona all’amore oblativo.

Quanto più le nostre relazioni personali sono mediate da schermi, tanto più dovremmo riconoscere la dignità intrinseca nella cura concreta degli altri. Nessuna tecnologia può realmente sostituire l’insegnante che guida con pazienza un bambino a leggere, il vicino che resta accanto a un amico morente, il figlio che nutre un genitore anziano o l’infermiere che conforta un paziente impaurito.

Tutti, nella nostra vita, abbiamo sperimentato momenti in cui qualcuno si è preso cura di noi in questo modo, o in cui siamo stati noi a prenderci cura di altri. Un qualsiasi strumento basato sull’I.A. avrebbe potuto svolgere altrettanto bene questo compito? L’ingresso dell’I.A. nella vita quotidiana mette in luce la natura essenziale di questo lavoro proprio perché nessun sistema informatico, per quanto avanzato, può compierlo.

Ma visibilità non significa valore. Il mercato non remunera automaticamente ciò che riconosciamo come essenziale. E il lavoro di cura — assistenza all’infanzia, infermieristica, insegnamento, lavoro sociale, assistenza agli anziani e molto altro — è svolto prevalentemente da donne ed è sistematicamente sottovalutato dal mercato.

Questo lavoro si inserisce inoltre in un’economia sempre più segnata dall’intelligenza artificiale, all’interno di quello che Papa Francesco ha definito paradigma tecnocratico, nel quale «la dignità umana e la fraternità sono spesso messe da parte in nome dell’efficienza, “come se la realtà, il bene e la verità scaturissero automaticamente dal potere tecnologico ed economico in quanto tale”» (Antiqua et Nova, n. 54, che cita Laudato si’, n. 105).

La Chiesa sta compiendo passi per valutare l’impatto dell’I.A. sul lavoro e sui lavoratori, riconoscendo anche i possibili benefici di queste tecnologie. In Antiqua et Nova, ad esempio, i responsabili vaticani affermano che l’I.A. «ha il potenziale di accrescere competenze e produttività, creare nuovi posti di lavoro, permettere ai lavoratori di concentrarsi su compiti più innovativi e aprire nuovi orizzonti alla creatività e all’innovazione».

Il documento, tuttavia, mette in guardia anche dai rischi: «Se da un lato l’I.A. promette di aumentare la produttività assumendo compiti ripetitivi, dall’altro spesso costringe i lavoratori ad adattarsi ai ritmi e alle esigenze delle macchine, invece di essere progettata per sostenere chi lavora». La posta in gioco è chiara: «Se l’I.A. viene utilizzata per sostituire il lavoro umano anziché per integrarlo, esiste “un rischio consistente di un beneficio sproporzionato per pochi, al prezzo dell’impoverimento di molti”».

Motivi di speranza

Nonostante tutto questo, vi sono motivi di speranza. Nulla di ciò è inevitabile. I danni descritti derivano da scelte su come l’intelligenza artificiale viene sviluppata, applicata e regolata. Sono possibili scelte fondate su principi come la dignità umana, la solidarietà, il bene comune e l’opzione preferenziale per i poveri.

Ad esempio, pur mettendo in guardia dai rischi, i responsabili vaticani hanno anche sottolineato con chiarezza che queste nuove tecnologie possono offrire opportunità di grande miglioramento sociale. Come ha osservato il vescovo Paul Tighe, l’I.A. può ricordarci «la capacità dell’umanità di apprendere, innovare e svilupparsi, una capacità donata da Dio». Guardando al futuro, alcuni lavorano per orientare lo sviluppo dell’I.A. come uno strumento «a favore dell’uomo e del lavoro», mentre alcuni economisti cercano di valorizzarne il «potenziale trasformativo come moltiplicatore delle capacità e delle competenze umane». Anche le tecnologie educative rappresentano una possibile fonte di speranza, se guidate da scelte appropriate.

Un altro esempio significativo è quello della sanità. Antiqua et Nova affronta direttamente questo ambito, evidenziando come l’I.A. possa contribuire alla diagnosi medica e ampliare l’accesso alle cure, invitando al contempo gli operatori sanitari a «rifiutare la creazione di una società dell’esclusione e ad agire invece come prossimi».

Per quanto riguarda lo sviluppo dell’intelligenza artificiale, dunque, siamo chiamati a compiere delle scelte. Ma chi le compie, e al servizio di quali fini? Di fronte a queste decisioni, è importante evitare sia un ottimismo ingenuo sia un catastrofismo paralizzante. Non è necessario, inoltre, districarsi nella massa di dati e studi spesso contraddittori sugli effetti dell’I.A. prima di agire. Sappiamo che i poveri e i vulnerabili stanno già subendo conseguenze negative, e non siamo impotenti.

I cattolici hanno un ruolo importante da svolgere in questa risposta sociale e possono offrire risorse significative, tra cui una chiara consapevolezza morale di ciò che è in gioco e gli strumenti etici per affrontarlo. Antiqua et Nova ci ricorda il principio fondamentale che sta al cuore di tali risorse: «l’ordine delle cose deve essere subordinato all’ordine delle persone, e non viceversa».

Ma quali sono, concretamente, queste risorse, e in che modo possono orientare le nostre risposte alle «cose nuove» che emergono con lo sviluppo dell’intelligenza artificiale? Poco dopo la sua elezione, Papa Leone ha invitato la Chiesa a offrire «il tesoro della propria dottrina sociale agli sviluppi nel campo dell’intelligenza artificiale». Radicata in una robusta visione della dignità umana e del bene comune, la tradizione del pensiero sociale cattolico mette a disposizione un vocabolario morale e un quadro di riferimento che sono oggi essenziali per il discernimento e l’azione.

Anzitutto, la Dottrina sociale della Chiesa insiste sulla dignità intrinseca di ogni persona, creata a immagine e somiglianza di Dio, indipendentemente dall’età, dalla produttività o dalla stagione della vita. In secondo luogo, essa comprende una concezione del bene comune nella quale si riconosce come il progresso debba servire tutti, non soltanto pochi privilegiati. Promuovere il bene comune significa operare perché giunga il tempo in cui, come ha affermato Papa Francesco, «nessuno resti vittima di un sistema, per quanto avanzato ed efficiente, che non riconosce il valore della dignità e del contributo di ogni persona».

In terzo luogo, la tradizione sociale cattolica sottolinea la dignità del lavoro. Come insegna Antiqua et Nova, il lavoro non è soltanto un mezzo per guadagnarsi da vivere, ma «parte del senso della vita su questa terra, via di crescita, di sviluppo umano e di realizzazione personale»; la tecnologia, pertanto, dovrebbe sostenere i lavoratori, non costringerli ad adeguarsi ai ritmi o alle logiche delle macchine.

In quarto luogo, la Dottrina sociale pone l’accento sulla solidarietà. Come ricorda Firer Hinze, essa implica «il riconoscimento, l’accoglienza e l’impegno responsabile nelle nostre interdipendenze con i vicini, sia prossimi sia lontani», opponendosi a visioni della persona, del lavoro e dell’economia falsamente individualistiche o fatalistiche.

Infine, il pensiero sociale cattolico attribuisce un peso rilevante all’opzione preferenziale per i poveri: si valuta la realtà a partire dal basso, mettendo al centro chi vive ai margini. Papa Leone lo ribadisce in Dilexi Te: «I poveri sono al cuore della Chiesa perché “la nostra fede in Cristo, che si è fatto povero ed è sempre stato vicino ai poveri e agli esclusi, è il fondamento della nostra sollecitudine per lo sviluppo integrale dei membri più trascurati della società”».

Dalle idee alla realtà

Questi principi non sono semplici astrazioni; offrono criteri concreti per discernere quali azioni intraprendere di fronte alle sfide del nostro tempo.

Accanto alle risorse del Vangelo e della dottrina sociale, la Chiesa mette a disposizione anche strumenti pratici peculiari: una presenza istituzionale capillare attraverso parrocchie, scuole e ospedali nelle comunità di tutto il mondo; una solida competenza accademica grazie alla ricerca e alla formazione dei leader nelle istituzioni promosse dalla Chiesa; una tradizione di impegno nella vita pubblica mediante la testimonianza politica, i movimenti popolari e l’azione degli organizzatori in innumerevoli contesti locali; e un rinnovato impegno nell’ascolto e nell’accompagnamento dei più vulnerabili, come testimoniano il documento finale del Sinodo sulla sinodalità e gli sforzi di quanti lavorano per attuarlo.

Le istituzioni cattoliche stanno già traducendo questi principi in pratica. Un esempio è il DELTA Network, promosso presso l’Università di Notre Dame all’interno dell’Institute for Ethics and the Common Good sotto la guida di Meghan Sullivan, che propone un quadro etico per l’intelligenza artificiale ispirato alla fede e fondato su principi cristiani quali dignità, incarnazione, amore, trascendenza e responsabilità. Questa rete sta sviluppando risorse formative concrete per studiosi, educatori, responsabili religiosi e giovani, al fine di affrontare le trasformazioni legate all’I.A.

Il progetto DELTA non si rivolge soltanto ai cristiani: decisori di realtà come YouTube e Google stanno prestando attenzione e cercano orientamenti da iniziative di questo tipo. In effetti, il forte richiamo della Chiesa a mantenere la persona umana al centro di queste tecnologie emergenti ha suscitato interesse e collaborazione anche da parte di aziende come IBM e Microsoft, che hanno chiesto il contributo della Chiesa sulle implicazioni etiche dell’intelligenza artificiale.

La risposta della Chiesa, inoltre, non è soltanto accademica. L’organizzazione del lavoro e l’azione comunitaria rappresentano forme concrete di applicazione della dottrina sociale cattolica, sia quando i lavoratori si uniscono per negoziare salari dignitosi, sia quando le comunità locali reagiscono all’insediamento di un data center nel proprio territorio. In questo, il ruolo degli organizzatori è decisivo per aiutare le persone a rispondere in modo più efficace.

Vincent Alvarez, già presidente del New York City Central Labor Council, ha osservato che le famiglie lavoratrici stanno già affrontando queste sfide: nei mercati del lavoro trasformati dall’I.A., nell’aumento dei costi energetici legati alle esigenze dei data center e nelle battaglie politiche in cui l’influenza delle grandi aziende tecnologiche è, nelle sue parole, «tanto pervasiva quanto preoccupante». È proprio in questo ambito, egli sottolinea, che la Chiesa cattolica dispone di una posizione peculiare, grazie alla presenza di conferenze e organismi impegnati nel dialogo con i legislatori e capaci di orientare le scelte pubbliche alla luce dei principi della dottrina sociale.

E ora?

Se è vero che i progressi dell’intelligenza artificiale possono offrire benefici straordinari, i danni che essa provoca ricadono su persone reali, nel momento presente, e su larga scala. Il ritmo accelerato con cui l’IA si sviluppa significa che la finestra entro cui è ancora possibile contribuire a plasmare questi sistemi — insistendo affinché servano le persone e non viceversa — non resterà aperta per sempre.

Tutto ciò, tuttavia, non è motivo di scoraggiamento o di timore. Possiamo lavorare insieme per portare la tradizione sociale cattolica e i principi su cui essa si fonda — come il rispetto della dignità umana e l’impegno per il bene comune — nelle scelte che compiamo in famiglia, nelle nostre comunità, nei luoghi di lavoro e nella vita politica.

La domanda che ci troviamo di fronte non è se l’IA trasformerà il nostro mondo: lo sta già facendo. La vera domanda è se questa trasformazione sarà al servizio di tutti, compresi i poveri. Le scelte incorporate in questi sistemi rifletteranno o meno le nostre convinzioni circa la dignità della persona umana e i nostri obblighi verso i più bisognosi: se non lo faranno, si limiteranno a riprodurre le disuguaglianze esistenti.

Papa Leone scrive di una Chiesa «che non pone limiti all’amore, che non conosce nemici da combattere ma solo uomini e donne da amare». È questo ciò a cui il Vangelo ci chiama nel momento presente, come in ogni momento: l’amore di Dio e l’amore per il prossimo, in modo speciale per coloro che sono poveri.

Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto