In USA proteste contro il riconoscimento facciale nelle università. E in Italia se ne discute?

UCLA is watching you

Una delle tematiche più dibattute negli ultimi mesi dagli attivisti di Fight For The Future è quella dell’utilizzo del riconoscimento facciale all’interno dei campus americani. La tecnologia in questione è stata introdotta nel campus della UCLA – Università della California già nel settembre 2018 attraverso una policy che forniva nuove procedure di sicurezza che prevedevano l’utilizzo di un sistema con queste caratteristiche. La voce di una parte degli studenti si è fatta subito sentire criticando aspramente la decisione anche perchè, secondo la regolamentazione, le forze dell’ordine avrebbero accesso alle registrazioni durante eventuali emergenze nell’istituto.

Due anni dopo, alla fine di gennaio, UCLA ha deciso di implementare nuovamente le policy (UCLA Interim Policy 133), sorvegliando 24 ore su 24 e 7 giorni su 7 il campus per aumentarne la sicurezza. Una scelta, quella dell’impiego di sistemi di riconoscimento facciale, in totale controtendenza rispetto alle recenti decisioni contrarie espresse ad esempio nelle città di San Francisco, Somerville e Oakland. Dall’inizio della campagna Ban Facial Recognition, progetto che oltre a FFF vede la collaborazione di NYCLU e SSDP, sono oltre 50 le università che hanno dichiarato di non voler utilizzare questa tecnologia in futuro, ma non basta. La campagna ha portato alla mobilitazione di molti studenti che il 2 marzo sfoceranno nella protesta contro l’utilizzo di questa tecnologia. L’azione sarà completamente libera e autorganizzata, per prendersi gioco delle telecamere e confonderne i risultati: c’è chi propone classi di make up suggeriti dagli Insane Clown Posse, oppure di indossare gioielli come quelli creati da alcuni designer, ma anche maschere.

© Jip van Leeuwenstein

Tecnologie datacentriche e vulnerabili

Impiegare sistemi di riconoscimento biometrico – in questo caso nelle scuole – ha ripercussioni sul comportamento degli studenti e comporta una violazione del diritto alla loro privacy: da una parte è ormai impossibile non sorvegliare ciò che accade all’interno dei campus attraverso un sistema di videosorveglianza, ma dall’altra è ancora peggio utilizzare dati biometrici senza il consenso dei soggetti e al fine di tracciarne gli spostamenti. La UCLA, secondo dati forniti dalla stessa università, ha una comunità fra le più multietniche dei campus del mondo. Questo è un aspetto davvero importante, se non decisivo, in quanto è ormai risaputo che la tecnologia che permette il riconoscimento facciale non è sicura e ancora piena di bias. Numerosi ricercatori nel campo dell’intelligenza artificiale, così come attivisti per i diritti digitali, riportano di una tecnologia non così efficace nel riconoscere la diversità umana: a parità di condizioni di luce, persone con un colore della pelle molto chiaro (bianche) sono riconosciute dalla maggior parte dei sistemi come persone di un certo genere e appartenenza etnica, al contrario di chi ha una pelle più scura. Interessante notare come oltre alla pelle, in alcuni casi la tecnologia restituisca informazioni errate anche per quanto riguarda il genere (biologico, ovviamente solo binario), che risulta differente rispetto a quello reale.

Accurate or not, Clearview’s face surveillance technology in law enforcement hands will end privacy as we know it.

ACLU, Febbraio 2020

Sono anche tecnologie vulnerabili e vittime di attacchi hacker, così come si è chiaramente visto nel recentissimo caso che ha coinvolto l’azienda Clearview AI. Come spiegato più volte anche da ACLU, organizzazione non governativa statunitense orientata alla difesa dei diritti civili, tante sono le criticità che emergono con l’utilizzo di sorveglianza pubblica da parte ad esempio della polizia (negli USA sono molti i dipartimenti che stanno cominciando ad adottare un proprio sistema di videosorveglianza comprensivo di facial recognition). Oltre al fatto che la giustificazione primaria per questi sistemi è quella di fornire una maggiore sicurezza, finora non correlata al loro utilizzo, vi è anche la possibilità siano abusati: da appartenenti alle forze dell’ordine per fini personali, da operatori addetti alla sicurezza delle telecamere nei confronti di un preciso target, o più banalmente per voyeurismo. In tutto ciò non è chiaro quanto effettivamente sia possibile limitare l’utilizzo di telecamere di videosorveglianza una volta installate in un luogo, poichè di fatto anche se presente una normativa è facile possa essere comunque aggirata (vedi casi precedenti).

Inoltre, la videosorveglianza porta inevitabilmente ad un chilling effect sulla vita pubblica: in altre parole, come già succede in stati come la Cina, i cittadini sono costantemente sorvegliati e modificano inconsciamente il loro comportamento e dunque limitano la loro libertà. Un altro fantastico caso di panopticon benthamiano – e immaginate quanto possa essere peggiore se ha anche i dati biometrici che definiscono il vostro volto. Come tutte le tecnologie intrusive, i benefici sono per ora di fatto minori dei rischi connessi.

189 software di riconoscimento facciale, 99 sviluppatori nel mondo

Secondo l’ultimo report pubblicato dal National Institute of Standards and Technology (NIST) l’accuratezza nell’identificazione di persone di sesso, etnia ed età differenti dipende dall’algoritmo alla base del sistema, dall’applicazione che lo utilizza e dal database che lo alimenta. Il report ha indagato il modo in cui ciascun singolo algoritmo analizzato eseguisse le applicazioni più comuni in cui viene utilizzato il riconoscimento facciale. Il primo è il match one-to-one ovvero la verifica della corrispondenza di un volto con un’immagine della stessa persona all’interno di un database (esempi della vita quotidiana sono lo sblocco dello smartphone, il controllo dei passaporti); il secondo è una comparazione one-to-many in cui una persona in foto viene ricercata al’interno di un database di interesse.

Secondo lo studio, nella comparazione one-to-one c’è stato un tasso di falsi positivi maggiore su volti di afroamericani e asiatici rispetto ai caucasici. Ciò significa che il numero di match non corretti per queste “categorie” è stato più alto nella totalità delle comparazioni realizzate, e che il software ha erroneamente considerato le foto di due persone diverse come la stessa persona. Viceversa, sarebbe un falso negativo: “in una ricerca one-to-one questo risultato potrebbe essere anche solo dettato da una svista, risolvibile. Mentre un falso positivo in una ricerca one-to-many restituisce una corrispondenza errata in un elenco di soggetti che sicuramente merita ulteriori approfondimenti” dice Patrick Grother, informatico e autore del report. Ovvero, in sostanza, potrebbe portare un soggetto ad essere accusato ad esempio di un crimine non commesso.

I tassi di fasi positivi registrati da NIST sono simili in tutti gli algoritmi di intelligenza artificiale sviluppati da aziende USA, andando a discriminare asiatici, afroamericani e gruppi di nativi americani. Eccezion fatta per i sistemi sviluppati nei paesi asiatici: non sono state evidenziate differenze incisive nella comparazione one-to-one dei falsi positivi tra asiatici e caucasici. Questo può effettivamente dire abbastanza sulla relazione tra le prestazioni di un algoritmo e i dati utilizzati per addestrarlo: dataset differenti producono risultati diversi, magari più equi (e più precisi).

Ma se il database è formato per la maggior parte da immagini di uomini bianchi, caucasici e coi capelli biondi (o da donne bianche, caucasiche e con i capelli biondi – comunque sempre meno rappresentate rispetto agli uomini), allora sarà difficile avere a disposizione un dataset che possa effettivamente rappresentare sia la popolazione nera sia le donne. Infatti, nella comparazione one-to-many, il team ha riscontrato tassi più elevati di falsi positivi per le donne afroamericane.

The gender shades project del MIT Media Lab

Le immagini e i volti utilizzati per allenare l’intelligenza artificiale sono lo specchio della società nella quale viviamo, una società a maggioranza bianca e che vede le minoranze così come le donne escluse in molti settori. Ma non solo. Anche banali casi di scarsa illuminazione e pessima qualità dell’immagine possono ridurre significativamente l’accuratezza di questi sistemi.

Perchè deve interessarci, anche in Italia

Il dibattito sul tema è ancora di nicchia in Italia, ma nessuna tecnologia con un impatto sulla società dovrebbe essere ignorata e lasciata proliferare senza contraddittorio. Nel nostro Paese il suo utilizzo è ancora minimo, e soprattutto da parte delle forze dell’ordine, ma due casi recenti stanno cominciando a far emergere e conoscere il tema: il primo è relativo all’utilizzo di riconoscimento facciale all’imbarco di Milano Linate, in fase sperimentale fino al 31 dicembre 2020 ed esclusivamente per voli da Milano a Roma (passeggeri maggiorenni, con passaporto o C.I). Le immagini sono conservate, a seconda del consenso fornito dai passeggeri, da un minimo di 24 ore fino al 31 dicembre. Qui l’informativa privacy e… piacere di riconoscerti (brrr).

Il secondo caso è quello di controllo biometrico effettuato all’aeroporto di Roma Fiumicino unicamente per voli diretti ad Amsterdam. Self Boarding for an Easy Fly, questo il nome del progetto, utilizza il riconoscimento facciale per rilevare le caratteristiche biometriche del volto e identificare i passeggeri. Durerà 6 mesi e l’azienda coinvolta è Vision-Box. In entrambi i casi viene fatto riferimento ad una maggiore velocità nei controlli all’imbarco e praticità data dalla mancanza di documenti cartacei da esibire. Ma sono davvero 10 minuti quelli che ci serve risparmiare? “La foto che ti verrà scattata non verrà registrata in alcun modo, ma servirà soltano a generare i contorni biometrici del tuo viso”. L’aeroporto di Roma assicura che le informazioni acquisite saranno automaticamente eliminate dopo la partenza.

Si è discusso in merito anche a Progress un paio di giorni fa, in presenza del Garante Privacy Antonello Soro.