Falle nel riconoscimento facciale

di:

Una ricerca del governo americano suggerisce che gli algoritmi di riconoscimento facciale siano molto meno accurati nell’identificare i volti afroamericani e asiatici rispetto ai volti caucasici. Una prova del rischio sociale di tale tecnologia. Eccone i dettagli.

Inoltre secondo questo studio, le donne afro-americane avrebbero ancora più probabilità di essere identificate erroneamente. Ciò pone nuovi dubbi sul fatto che tale tecnologia possa o debba essere utilizzata dalle forze dell’ordine.

Un critico ha definito i risultati “scioccanti”: il software di fatto ha risultati diversi in base a sesso, età e etnia. Questi parametri che sono sempre stati alla base di disuguaglianze che, se umane, vengono definite pregiudiziali, ora sono prodotte dalla macchina e possono riprodurre vecchie ingiustizie colpendo le stesse minoranze etniche precedentemente discriminate. Anche se non sono basate su odio o pregiudizi umani gli effetti, se impiegati nel settore pubblico, potrebbero essere uguali se non peggiori.

riconoscimento facciale

Il National Institute of Standards and Technology (Nist) ha testato 189 algoritmi di 99 sviluppatori, la maggior parte del mercato di tali software, tra cui Intel, Microsoft, Toshiba e le aziende cinesi Tencent e DiDi Chuxing.

Genere e razza

Amazon – che vende il suo prodotto di riconoscimento facciale Rekognition alle forze di polizia statunitensi – non ne ha voluto sottoporre alcuno a questa revisione. Il gigante della vendita al dettaglio aveva precedentemente definito uno studio del Massachusetts Institute of Technology “fuorviante”. Quel rapporto aveva suggerito che il Rekognition si comportava male quando si trattava di riconoscere le donne con pelle più scura.

In particolare secondo questo nuovo studio, quando si abbina una particolare foto a un’altra della stessa faccia, nota come corrispondenza uno a uno, molti degli algoritmi testati identificano falsamente i volti afroamericani e asiatici tra le dieci e le 100 volte più di quelli caucasici. E le donne afro-americane hanno maggiori probabilità di essere identificate erroneamente nel cosiddetto abbinamento uno-a-molti, che confronta una particolare foto con molte altre in un database.

Il deputato Bennie Thompson, presidente del comitato della Camera sulla sicurezza interna degli Stati Uniti, ha dichiarato a Reuters: “L’amministrazione deve rivedere i suoi piani per la tecnologia di riconoscimento facciale alla luce di questi risultati scioccanti”. Lo scienziato informatico,  fondatore della Algorithmic Justice League, Joy Buolamwini ha definito il rapporto “una confutazione globale” per coloro che affermano che i pregiudizi nei software di intelligenza artificiale non sono un problema.

Gli algoritmi nello studio Nist sono stati testati su due tipi di errore:

  1. falsi positivi, in cui il software considera erroneamente che le foto di due persone diverse mostrano la stessa persona;
  2. falsi negativi, in cui il software non riesce a far corrispondere due foto che mostrano la stessa persona.

Il software utilizzava le foto dei database forniti dal Dipartimento di Stato, dal Dipartimento per la sicurezza interna e dall’FBI, senza immagini da social media o videosorveglianza. “Sebbene di solito non sia corretto fare dichiarazioni trasversali sugli algoritmi, abbiamo trovato prove empiriche dell’esistenza di differenziali demografici nella maggior parte degli algoritmi di riconoscimento facciale che abbiamo studiato”, ha affermato Patrick Grother, un informatico della Nist e autore principale del paper.

Bug e potere

“Mentre non esploriamo ciò che potrebbe causare questi differenziali, questi dati saranno preziosi per i responsabili delle politiche, gli sviluppatori e gli utenti finali nel pensare ai limiti e all’uso appropriato di questi algoritmi”. Una delle aziende cinesi, SenseTime, i cui algoritmi sono stati trovati inesatti, ha affermato che questo era il risultato di “bug” che ora erano stati risolti.

“I risultati non riflettono i nostri prodotti, in quanto sottoposti a test approfonditi prima di entrare nel mercato. Ecco perché le nostre soluzioni commerciali segnalano un alto grado di precisione”, ha detto un portavoce alla BBC. Diverse città degli Stati Uniti, tra cui San Francisco e Oakland in California e Somerville, nel Massachusetts, hanno già vietato l’uso della tecnologia di riconoscimento facciale. Le tecnologia di riconoscimento facciale sembrano essere il primo luogo in cui la convergenza tra diversi sviluppatori, diversi modelli di sviluppo e ideologie, l’impatto sui diritti civili e le questioni legate alla sicurezza nazionale stiano generando un conflitto di valori.

riconoscimento facciale

Sembra essenziale monitorare il tema: come risponderemo alla questione orienterà la nostra attitudine a considerare queste tecnologie e a gestirne politicamente il loro impiego. Da parte di chi scrive suona forte più che mai l’appello che questo blog rivolge ai suoi lettori: abbiamo bisogno di un’algo-etica se non vogliamo dover lottare contro severe forme di algo-crazia.

Articolo ripreso dal blog dell’autore nel quadro della collaborazione fra il prof. Benanti e SettimanaNews.

Print Friendly, PDF & Email

Lascia un commento

Questo sito fa uso di cookies tecnici ed analitici, non di profilazione. Clicca per leggere l'informativa completa.

Questo sito utilizza esclusivamente cookie tecnici ed analitici con mascheratura dell'indirizzo IP del navigatore. L'utilizzo dei cookie è funzionale al fine di permettere i funzionamenti e fonire migliore esperienza di navigazione all'utente, garantendone la privacy. Non sono predisposti sul presente sito cookies di profilazione, nè di prima, né di terza parte. In ottemperanza del Regolamento Europeo 679/2016, altrimenti General Data Protection Regulation (GDPR), nonché delle disposizioni previste dal d. lgs. 196/2003 novellato dal d.lgs 101/2018, altrimenti "Codice privacy", con specifico riferimento all'articolo 122 del medesimo, citando poi il provvedimento dell'authority di garanzia, altrimenti autorità "Garante per la protezione dei dati personali", la quale con il pronunciamento "Linee guida cookie e altri strumenti di tracciamento del 10 giugno 2021 [9677876]" , specifica ulteriormente le modalità, i diritti degli interessati, i doveri dei titolari del trattamento e le best practice in materia, cliccando su "Accetto", in modo del tutto libero e consapevole, si perviene a conoscenza del fatto che su questo sito web è fatto utilizzo di cookie tecnici, strettamente necessari al funzionamento tecnico del sito, e di i cookie analytics, con mascharatura dell'indirizzo IP. Vedasi il succitato provvedimento al 7.2. I cookies hanno, come previsto per legge, una durata di permanenza sui dispositivi dei navigatori di 6 mesi, terminati i quali verrà reiterata segnalazione di utilizzo e richiesta di accettazione. Non sono previsti cookie wall, accettazioni con scrolling o altre modalità considerabili non corrette e non trasparenti.

Ho preso visione ed accetto