Il trattamento dei dati biometrici nell’ambito della sicurezza pubblica, disciplinato dal recente Regolamento IA (UE) 2024/1689, affronta una sfida normativa complessa in Europa. La legislazione europea si differenzia significativamente da quella degli Stati Uniti, dove manca un quadro normativo federale chiaro, creando un contrasto nelle modalità di utilizzo di queste tecnologie.
Indice degli argomenti
La protezione dei dati biometrici in Europa: l’AI Act
L’approvazione del Regolamento (UE) 2024/1689 sull’intelligenza artificiale o AI Act rappresenta una tappa fondamentale nell’ambito della regolazione europea delle tecnologie emergenti, adottando un impianto graduale, classificando i sistemi di IA in funzione del livello di rischio, e individuando tra quelli ad alto rischio i sistemi che comportano trattamenti di dati biometrici per finalità di identificazione da parte di autorità dedicate alle attività di contrasto e repressione dei crimini o comunque alla pubblica sicurezza, oltre che stabilire gli usi vietati, salvo eccezioni specifiche.
Ma i trattamenti automatizzati con sistemi tecnologici avvengono già da qualche anno e la materia è già generalmente disciplinata da normative pregresse, che dovranno quindi essere integrate – a livello operativo – dall’applicazione del Regolamento IA per quei trattamenti di dati personali effettuati specificatamente da sistemi IA.
Il quadro normativo specialistico in materia di sicurezza: dal D.lgs. 51/2018 al Regolamento IA
Nel contesto della pubblica sicurezza, il trattamento dei dati personali – compresi quelli biometrici – da parte delle autorità pubbliche competenti in materia di prevenzione, indagine, accertamento e perseguimento di reati, o di esecuzione di sanzioni penali, è disciplinato dal D.lgs. 18 maggio 2018, n. 51 (D.lgs. 51/2018) che ha recepito la Direttiva (UE) 2016/680, nota anche come Law Enforcement Directive (LED) e lo stesso si applica espressamente anche alla salvaguardia e prevenzione di minacce alla sicurezza pubblica (art. 1, co. 2 D.lgs. 51/2018).
Tra i diversi scopi prefissati, la normativa in esame ha avuto anche l’obiettivo di rafforzare lo scambio di informazioni e la cooperazione tra autorità e forze dell’ordine europee, uniformando i principi e le modalità corrette di trattamento dei dati personali in tale contesto. Modalità che ricalcano – rinforzandoli – gli adempimenti previsti dal Regolamento Europeo 2016/679 in materia di trattamenti di dati personali (Gdpr) e dovuti nei confronti dei soggetti interessati.
Gli articoli del D. Lgs. 51/2018 che disciplinano i trattamenti di dati biometrici che inevitabilmente comprenderanno categorie particolari dati, nonché i trattamenti automatizzati con strumenti tecnologici sono rispettivamente agli articoli 7) e 8).
L’articolo 7 sui trattamenti di categorie particolari di dati, si rifà direttamente all’articolo 9 del RGPD, che definisce tali i dati che rivelano l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, l’appartenenza sindacale, nonché dati genetici, biometrici, relativi alla salute o alla vita sessuale e all’orientamento sessuale.
Il decreto stabilisce che il trattamento di tali dati da parte delle autorità competenti è consentito solo se sussistono contemporaneamente due presupposti: (i) deve essere strettamente necessario per le finalità indicate nel D.lgs. 51/2018 e (ii) deve essere autorizzato dal diritto dell’Unione Europea o da leggi domestiche, regolamenti inclusi. Attenzione, l’autorizzazione riguarda ciascuna categoria di dati personali definiti come particolari dall’articolo 9 del RGPD.
In caso di assenza di fonti giuridiche che autorizzino il trattamento di tali dati personali, il trattamento sarà possibile solo se necessario per tutelare un interesse vitale dell’interessato o di un’altra persona fisica, oppure se l’interessato ha reso pubblici quei dati in modo esplicito, ferma restando la sussistenza di garanzie adeguate per i diritti e le libertà dell’interessato.
Le decisioni automatizzate nei dati biometrici intelligenza artificiale: divieti e garanzie
L’articolo 8 disciplina invece il processo decisionale automatizzato. Anche in questo caso, il D.lgs. 51/2018 impone un divieto di principio: tali decisioni non possono essere adottate, salvo che siano previste da disposizioni di legge o del diritto dell’Unione. Inoltre, le garanzie di salvaguardia previste, implicano il diritto di ottenere un intervento umano, di esprimere la propria opinione e di contestare la decisione (art. 22 RGPD); qualora i processi decisionali automatizzati riguardassero dati particolari di cui all’articolo 9 del RGPD le garanzie e le misure da adottare per il trattamento, saranno rafforzate.
Il divieto rimane invece assoluto riguardo la profilazione dell’interessato laddove la finalità del trattamento sia atta a discriminare l’interessato sulla base di categorie particolari di dati personali, richiamando esplicitamente l’articolo 21 della Carta dei diritti fondamentali dell’Unione europea, che vieta ogni forma di discriminazione.
Tra gli adempimenti previsti per trattamenti caratterizzati dall’utilizzo di tecnologie, troviamo la valutazione di impatto sulla protezione dei dati (art. 23), che deve essere sempre effettuata tenuto conto della natura e delle finalità di trattamento dei dati personali da parte delle autorità e forze dell’ordine deputate alle attività oggetto del d.lgs. 51/2018 e qualora il potenziale impatto sulla libertà e i diritti dell’interessato fosse alto, sarà necessario consultare preventivamente l’Autorità Garante.
L’Autorità Garante oltre a vigilare sull’applicazione corretta della normativa, è altresì consultata nel corso dell’esame di un progetto di legge o di uno schema di decreto legislativo ovvero di uno schema di regolamento o decreto non avente carattere regolamentare, suscettibile di rilevare ai fini della garanzia del diritto alla protezione dei dati personali (art. 24 comma 2).
Obblighi organizzativi per il trattamento di dati biometrici con intelligenza artificiale
La nomina del responsabile della protezione dei dati o DPO è obbligatoria e stringenti disposizioni sono previste sia avuto riguardo dell’organizzazione che della sicurezza dei dati trattati. In caso di nomina di responsabili del trattamento, sono previsti contenuti specifici da includere nella nomina del responsabile (art. 18).
Infine, e per completezza, il D.lgs. 81/2018 non si applica alle autorità e organi di controllo dell’Unione Europea e non si applica alle attività e trattamenti previsti dal titolo V del Trattato sull’Unione Europea, riguardante l’azione esterna dell’Unione Europea in relazione alla Politica estera e sicurezza Comune (versione consolidata del 26 ottobre 2012).
In tal evenienza si applicherà il Capo IX del Regolamento (UE) 2018/1725. Coerentemente con la normativa appena esaminata che promana dalla Direttiva LED, nel Regolamento 2018/1725 troviamo agli articoli 76 (Trattamento di categorie particolari di dati personali operativi) e all’articolo 77 (Processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione) previsioni analoghe a quelle già viste nel D. lgs. 51/2018, volte a circoscrivere la possibilità di effettuare tali trattamenti solo per finalità specifiche, con garanzia di protezione adeguate e ferma la tutela dei diritti delle libertà fondamentali.
Ma come si inserisce la disciplina del Regolamento IA nelle normative già vigenti?
Il regolamento ia e l’approccio basato sul rischio per i dati biometrici
Come brevemente premesso, il Regolamento IA è strutturato secondo il cd. risk based approach, stabilendo un insieme di obblighi tecnici e procedurali sia per i fornitori che per gli utilizzatori di sistemi IA, sancendo quindi il percorso corretto per l’utilizzo di tali sistemi senza derogare, ma al contrario richiamando espressamente sia la Direttiva LED, sia il Regolamento 2018/1725, nonché i Regolamenti Europei relativi all’istituzione e alla disciplina di organismi quali, tra gli altri, Europol ovvero l’Eurodac, database europeo delle impronte digitali per coloro che richiedono asilo politico, elencati espressamente nell’Allegato X del Regolamento IA. E pertanto, l’uso di sistemi IA da parte di autorità pubbliche per finalità di sicurezza resta quindi soggetto a una verifica multilivello di conformità giuridica.
Trattamenti ad alto rischio: l’uso dei dati biometrici nella sicurezza pubblica
Entrando nello specifico, l’articolo 6 paragrafo 2 lettera a) del Regolamento IA qualifica come ad alto rischio, in combinato disposto con l’Allegato III), i sistemi di IA utilizzati dalle autorità di contrasto per (i) l’identificazione di persone fisiche, anche sulla base di dati biometrici (paragrafo 6 Allegato III), (ii) la gestione del controllo delle frontiere (paragrafo 7 Allegato III) nonché (iii) i sistemi usati per l’amministrazione della giustizia e dei processi (paragrafo 8 Allegato III), purché in tutti e 3 i casi l’uso sia permesso dal diritto dell’Unione o degli Stati membri.
Tali sistemi ad alto rischio, pur non essendo vietati tanto più che sono già in uso, sono soggetti ad un articolato regime giuridico che impone requisiti tecnici e organizzativi aggiuntivi, rispetto a quelli già previsti dalla normativa generale sul trattamento dei dati personali e dalle normative di settore esaminate o citate.
In particolare, al Sezione 2 del Capo III del Regolamento IA prevede b, tra cui:
- la gestione del rischio (art. 9),
- la qualità dei dati e la loro governance anche nella fase di addestramento del sistema (art. 10),
- la tracciabilità e la registrazione delle operazioni (artt. 12–13),
- la trasparenza e completezza delle informazioni che il fornitore dovrà dare agli utilizzatori (art. 13),
- la concezione di sistemi di IA che permettano di essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso (art. 14), evitando di fare automaticamente affidamento o fare eccessivo affidamento sull’output prodotto da un sistema di IA ad alto rischio («distorsione dell’automazione») (art. 11 paragrafo 4),
- nonché la sicurezza e accuratezza dei sistemi (art. 15).
- L’articolo 26 sancisce poi specifici adempimenti per gli utilizzatori, non dissimili da quelli contenuti nel D.lgs. 51/2018, tra cui la valutazione di impatto.
Utilizzi vietati e deroghe per i dati biometrici nel contrasto
All’interno di questo sistema di controllo rafforzato, l’articolo 5 del Regolamento IA in particolare, individua pratiche vietate in via generale ma permesse – a certe condizioni – per attività di contrasto al crimine.
Si tratta quindi di utilizzi eccezionali e residuali, che non rientrano nella normale disciplina degli strumenti ad alto rischio da parte delle pubbliche autorità, e che comportano un ulteriore livello di cautela giuridica.
Vediamo in dettaglio le eccezioni ai divieti nel caso di utilizzo nel contesto in esame:
– l’ Art. 5, par. 1, lett. d) vieta l’uso di sistemi di IA per inferire o categorizzare le persone fisiche sulla base di dati sensibili (come origine etnica, opinioni politiche, convinzioni religiose o orientamento sessuale), salvo che ciò sia strettamente necessario per l’applicazione della legge e purché sia conforme al diritto dell’Unione o degli Stati membri. Abbiamo già visto come il D.lgs. 51/2018, in maniera quasi circolare ripeta gli stessi presupposti;
– l’Art. 5, par. 1, lett. g): vieta l’uso di sistemi di IA per l’identificazione biometrica remota ex post – cioè tramite l’analisi di registrazioni video già esistenti – in modo generalizzato, salvo nei casi in cui l’uso sia strettamente necessario per finalità di contrasto e conforme alla legge applicabile.
Inoltre, fermi restando i contenuti del D. Lgs. 51/2018 nel contesto di indagini a carico di persone specifiche sospettate o condannate per un reato,l’articolo 26 al paragrafo 10 prevede chel’utilizzatore di un sistema di IA per l’identificazione biometrica remota a posteriori debba ottenere un’autorizzazione preventiva da parte di un’autorità giudiziaria o amministrativa per l’uso di tale sistema, ovvero richiederla entro 48 ore dall’uso, a meno che il sistema sia utilizzato per l’identificazione iniziale di un potenziale sospetto sulla base di fatti oggettivi e verificabili direttamente connessi al reato. L’uso eventualmente autorizzato rimarrà limitato a quanto strettamente necessario per le indagini su uno specifico reato.
Se l’autorizzazione è respinta, l’uso del sistema di identificazione biometrica remota a posteriori collegato a tale autorizzazione richiesta è interrotto con effetto immediato e i dati personali connessi all’uso del sistema di IA per il quale è stata richiesta l’autorizzazione devono essere cancellati.
L’obiettivo di questa previsione è palesato nel terzo capoverso del paragrafo 10: non è possibile utilizzare sistemi di identificazione biometrica remota ex post in maniera non mirata, senza che vi sia un collegamento con un reato, una minaccia reale, un procedimento in corso, o ancora la ricerca di una determinata persona scomparsa.
Insomma, non è possibile identificare la generalità degli individui senza una motivazione connessa ad esigenze attuali e cogenti.
– l’Art. 5, par. 1, lett. h): vieta l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi pubblici da parte delle autorità pubbliche. Tuttavia, l’art. 5, par. 3 consente deroghe in tre casi tassativi: (i) la ricerca mirata di vittime o persone scomparse, (ii) la prevenzione di minacce gravi e imminenti alla vita o all’incolumità fisica, (iii) l’individuazione o l’arresto di soggetti indagati o condannati per reati particolarmente gravi. In tali casi, è altresì necessaria un’autorizzazione preventiva, caso per caso, da parte di un’autorità giudiziaria o amministrativa indipendente. In effetti, almeno in Italia, già così è in generale, anche senza dover ricorrere a sistemi di IA, avuto riguardo ad esempio delle intercettazioni ambientali si sensi del nostro codice di procedura penale.
Ai sensi dell’art. 5, par. 2, in tutti i casi in cui il divieto è derogabile per fini di contrasto, l’uso deve essere giustificato da un fondamento giuridico chiaro, proporzionato e limitato nel tempo, nello spazio e nella finalità, con obbligo di rendicontazione e trasparenza.
Tempi di applicazione e transizione normativa sui dati biometrici
Alla luce di quanto sopra è evidente come il trattamento di dati biometrici da parte delle autorità di contrasto nell’ordinamento europeo sia sottoposto a una disciplina giuridica complessa e articolata, che coniuga esigenze di controllo dei sistemi di IA effettivamente utilizzati e con garanzie sostanziali e procedurali a tutela dei diritti fondamentali.
In ogni caso, la tenuta di queste discipline particolarmente articolate a livello operativo e di imposizione di obblighi ed adempimenti, sarà da verificare poi nella pratica, non potendo altresì trascurare un elemento temporale cruciale: ad oggi (2025), sono pienamente applicabili solo le disposizioni relative ai divieti e alle deroghe previste all’articolo 5 del Regolamento IA, mentre il regime generale per i sistemi ad alto rischio entrerà in vigore solo a partire dal 2 agosto 2026, con ulteriore slittamento al 2030 per quanto riguarda gli obblighi di adeguamento dei sistemi IA già impiegati dalle autorità pubbliche.
Questo differimento temporale comporta inevitabilmente una fase di transizione nella quale continueranno a trovare applicazione, con pieno valore, le normative settoriali già vigenti – dal D.lgs. 51/2018 al Regolamento (UE) 2018/1725 – che, pur in assenza del nuovo quadro tecnico-procedurale dell’IA Act, garantiscono un sistema multilivello di protezione dei dati personali.
È anche prevedibile che l’assetto europeo di regolazione del trattamento di dati biometrici in ambito di pubblica sicurezza subirà progressive evoluzioni anche in ragione dello sviluppo delle tecnologie impiegate, lasciando aperto il dibattito sulla tenuta di questo equilibrio giuridico da qui al 2030.
Rimane innegabile lo sforzo del legislatore europeo di sancire un bilanciamento tra finalità pubbliche e protezione individuale, marcando così, la distanza rispetto ad altri ordinamenti, come ad esempio quello statunitense.
Il modello statunitense sui dati biometrici intelligenza artificiale: frammentazione e limiti
La distanza tra il modello europeo e quello statunitense nella disciplina del trattamento dei dati biometrici e nell’utilizzo di tecnologie di intelligenza artificiale da parte delle autorità pubbliche, ma ben si potrebbe scrivere da parte di qualsiasi soggetto pubblico e privato, è sostanziale.
Negli Stati Uniti non esiste, ad oggi, una disciplina federale organica né un’autorità nazionale indipendente con poteri ispettivi e sanzionatori comparabili a quelli delle autorità europee. Il quadro normativo è frammentato e largamente demandato ai singoli Stati, con esiti disomogenei. Non solo non esiste, ma probabilmente non esisterà nei prossimi anni.
Se facciamo un passo indietro e torniamo al 2024 troviamo il Rapporto della Commissione statunitense per i Diritti Civili (il Rapporto), trasmesso lo scorso 19 settembre 2024 all’allora Presidente USA Joseph R. Biden e alla vice Presidente Kamala Harris.
Il Rapporto ha analizzato le implicazioni legate all’uso federale della tecnologia di riconoscimento facciale (Facial Recognition Technology, FRT) da parte di tre agenzie negli anni precedenti, ossia il Dipartimento di Giustizia (DOJ), il Dipartimento della Sicurezza Interna (DHS) e il Dipartimento per l’Edilizia Pubblica e lo Sviluppo Urbano (HUD): si può pacificamente concludere in sintesi come il Rapporto sia stato una denuncia dell’assenza di regole uniformi sull’impiego dell’FRT (Facial Recognition Technology) da parte delle agenzie federali tutte, non solo quelle oggetto di specifico audit.
Oltre a ciò, il Rapporto evidenziava diversi rischi di “automated bias” nei dataset di addestramento sollevando gravi preoccupazioni di giustizia razziale, in particolare per le alte probabilità di identificazioni errate nei confronti di persone di colore, donne, asiatici orientali e anziani, oltre che una mancanza di disclosure nei procedimenti giudiziari in cui si fa uso del FRT e i potenziali impatti sulla libertà di espressione e associazione: infatti, l’uso investigativo del FRT, sebbene formalmente limitato a “lead investigativi”, spesso non prevede l’obbligo di divulgazione alla difesa, riducendo la trasparenza e i diritti dell’imputato. Inoltre, l’uso del FRT in assenza di un “predicate fact” (una base fattuale per sospettare un crimine) può portare a investigazioni generiche e discriminatorie, rafforzando dinamiche storiche di iper-polizia nei quartieri a maggioranza non bianca.
Evoluzioni recenti della policy americana sui dati biometrici intelligenza artificiale
Biden era in effetti già intervenuto con qualche intervento precedente, quale ad esempio con l‘Ordine Esecutivo 14110 del 30 ottobre 2023, introducendo misure per garantire uno sviluppo sicuro e affidabile dell’IA, inclusi test di sicurezza, trasparenza e protezione dei diritti civili. Inoltre, erano state emanate linee guida per evitare l’uso discriminatorio dell’IA, in particolare nel settore dell’istruzione e dei servizi pubblici.
Tuttavia a ridosso dell’insediamento del Presidente Donald Trump, e l’Ordine Esecutivo sopra citato è stato revocato in data 23 gennaio 2025 ed è stato sottoscritto un altro Ordine Esecutivo denominato Removing Barriers to American Leadership in Artificial Intelligence, che mira a promuovere lo sviluppo dell’IA senza “pregiudizi ideologici”, enfatizzando la competitività economica e la sicurezza nazionale. Ed è notizia del 14 maggio 2025 che i Repubblicani hanno inserito una proposta nel disegno di legge di bilancio attualmente all’esame della Camera dei Rappresentanti che avrebbe lo scopo di proibire a qualsiasi organismo governativo federale o statale di adottare qualsiasi legge o regolamento che disciplini i modelli di intelligenza artificiale, i sistemi di intelligenza artificiale o i sistemi decisionali automatizzati, a meno che lo scopo della legge sia quello di rimuovere ostacoli legali o facilitare l’implementazione o il funzionamento” di tali sistemi. La discussione della legge di bilancio e quindi della disposizione proposta è prevista il 20 maggio 2025. L’esito della discussione è ancora ignoto, tuttavia è evidente che le differenze tra Europa ed USA in relazione allo sviluppo e all’uso dell’intelligenza artificiale, sono a dir poco divergenti.
4. Conclusioni
La contrapposizione evidenziata riflette non solo modelli giuridici diversi, ma anche concezioni profondamente distanti del rapporto tra Stato, tecnologia e cittadino. È evidente che un’iper-regolamentazione come quella europea non è esente da rischi, tra cui il rallentamento della capacità dell’Europa di competere sul piano globale nello sviluppo dell’IA, anche nel settore pubblico. Tuttavia, abbandonare o ridurre sensibilmente le garanzie significherebbe rinunciare a ciò che definisce l’identità stessa del diritto europeo: la centralità della persona e la tutela effettiva dei suoi diritti. E non è un mistero che il Regolamento IA abbia anche lo scopo di contrastare le ingerenze di altri Stati ed entità che potrebbero avere accesso ai dati personali dei cittadini europei.
Trovare una via di mezzo tra protezione e progresso rappresenta quindi la vera sfida per i prossimi anni. Vedremo come e se l’Europa saprà tenere insieme i due poli di questo bilanciamento: lo sviluppo responsabile e la protezione non negoziabile della dignità umana. Solo allora sarà possibile, forse, parlare di una vera “sovranità digitale” europea.