Riconoscimento facciale e sorveglianza di massa

Riconoscimento facciale e sorveglianza di massa
La sorveglianza di massa e l’utilizzo di algoritmi di intelligenza artificiale comportano gravi rischi per le libertà fondamentali degli individui e possibili discriminazioni.
La sorveglianza di massa

L’emergenza sanitaria globale causata dalla diffusione pandemica del COVID-19 ha cambiato radicalmente le abitudini quotidiane degli individui, in particolare in relazione all’improvvisa esigenza di ridurre gli spostamenti oppure, laddove concessi, di sottoporre i luoghi frequentati ad una sorveglianza di massa con la finalità di contenere i contagi; a seconda dell’andamento epidemiologico, il controllo poteva estendersi ad aspetti ulteriori legati a tali spostamenti (si pensi, ad esempio, alla necessità di conoscere le ragioni dello spostamento, il numero e l’identità degli individui con cui si era in compagnia).

A fronte dell’adozione di tali misure, è sorta spontanea la riflessione circa il bilanciamento di alcuni interessi, a prima vista, contrapposti: da un lato, la necessità di preservare la privacy degli individui, dall’altro l’interesse comunitario a ripristinare la sicurezza e tutelare la salute dei consociati, anche attraverso la compressione di altri diritti costituzionalmente protetti.

In verità, anche senza fare specifico riferimento alla situazione pandemica, buona parte dei Paesi nel mondo ricorre a sistemi di sorveglianza di massa per diverse finalità, quali ad esempio il contrasto alla criminalità, la sicurezza interna, oppure ancora, come avviene in Cina, la profilazione dei cittadini ai fini dell’attribuzione da parte del Governo di una serie di “punti sociali” (cd. “credit scoring”).

Il riconoscimento facciale e il trattamento di dati biometrici

L’adozione di sistemi di sorveglianza di massa comporta astrattamente diverse implicazioni sulla privacy degli individui, specialmente perché, negli ultimi anni, si è aggiunta alla videosorveglianza “tradizionale” una più avanzata tecnologicamente (cd. “biometrica”) che permette, attraverso l’impiego di algoritmi di intelligenza artificiale, l’elaborazione dei dati biometrici raccolti con la registrazione.

In buona sostanza, vi è, da un lato, la parte hardware – la telecamera – che acquisisce il dato biometrico rappresentato dal volto, dall’altro, una parte software che, attraverso l’impiego dei predetti algoritmi, lo analizza e lo confronta con i dati video acquisiti in precedenza e archiviati nel database del sistema, con l’obiettivo di collegare le caratteristiche del volto a una precisa persona.

Mentre l’adozione di simili sistemi di sorveglianza di massa nei Paesi asiatici è fiorente e raggiunge una diffusione quasi capillare, in Europa si assiste ad uno stallo forzato dalle Autorità Garanti che hanno, fin da subito, ammonito i Governi circa le criticità dovute dalla forte interferenza con la vita privata delle persone.

Si pensi al noto caso di “Sari Real Time”, che prende il nome dal sistema sottoposto al vaglio del Garante Privacy italiano e che, attraverso una serie di telecamere, permette di analizzare in tempo reale i volti dei soggetti ripresi, confrontandoli con una banca dati predefinita (denominata “watch-list”), la quale può contenere fino a 10.000 volti. Con il provvedimento pubblicato nell’aprile 2021, il Garante ne ha bloccato l’adozione, sottolineando come l’utilizzo di tecnologie di riconoscimento facciale per finalità di prevenzione e repressione dei reati debba essere ponderato con estrema delicatezza e come al momento non esista una base giuridica che legittimi l’introduzione di sistemi di videosorveglianza di massa.

Volgendo lo sguardo al GDPR, non pare dunque sufficiente lo svolgimento di una valutazione d’impatto ai sensi dell’art. 35 che tenga conto, in particolar modo, dei potenziali rischi derivanti dal trattamento su larga scala (nella nozione desumibile dal Considerando 91) di aspetti personali relativi alle persone fisiche, basata sulla profilazione di tali dati, o in seguito al trattamento di categorie particolari di dati personali, dati biometrici o dati relativi a condanne penali e reati o a connesse misure di sicurezza.

In altre parole, al di là delle misure di mitigazione del rischio che potrebbero essere predisposte dal titolare del trattamento, una tale tipologia di trattamento resterebbe vietato dall’ordinamento europeo, in virtù della astratta violazione dei principi cardine del GDPR (quali quelli di minimizzazione e limitazione del trattamento).

Conclusioni

Il 6 ottobre 2021, il Parlamento europeo ha preso per la prima volta una posizione ufficiale contro l’uso dei sistemi di riconoscimento facciale negli spazi pubblici, al fine di tutelare il rispetto della privacy, della dignità umana ed evitare pratiche discriminatorie. I deputati hanno approvato una risoluzione per chiedere alla Commissione europea di istituire un divieto permanente sulla videosorveglianza biometrica in pubblico e sull’uso di banche dati private.

In particolare, il testo approvato invita la Commissione ad attuare, con ogni mezzo necessario, “il divieto di qualsiasi trattamento di dati biometrici, comprese le immagini facciali, utilizzato dalle forze dell’ordine, che possa portare a una sorveglianza di massa negli spazi pubblici”. La risoluzione chiede anche di interrompere qualunque finanziamento diretto alla “ricerca e allo sviluppo di tecnologie biometriche o di programmi che possano portare alla sorveglianza di massa indiscriminata degli spazi pubblici”.

Inoltre, i deputati si sono espressi a favore del divieto di qualunque sistema di sorveglianza predittiva, basata sui comportamenti delle persone, e sui sistemi di punteggio sociale che tentano di valutare l’affidabilità dei cittadini e delle cittadine sulla base del loro comportamento o personalità.

Avv. Rossella Bucca e Dott. Lorenzo Baudino Bessone

Newsletter

Iscriviti per ricevere i nostri aggiornamenti

* campi obbligatori