3 minute read

Consulenza Integrata

stesso di “sorveglianza”, alterando il “vegliare su” in un controllo coatto di massa, il cui pericolo risiede proprio nella possibilità di attuare un accertamento generalizzato.

Del resto, è su tale risvolto che in questi anni si è allertata l’attenzione dell’Unione, inquadrando la questione entro il più ampio dibattito sulla necessità di disciplinare l’impiego dell’IA, lanciando una vera e proprio sfida regolativa attraverso l’AI-Act (Artificial Intelligence, Automation and Control Technologies): una guida normativa applicabile in tutti gli Stati membri dell’Unione, configurata nel 2021 sulla cognizione degli effetti collaterali di una tecnologia tanto più rischiosa in quanto capace di molteplici possibilità di applicazione. Tra queste, quella relativa all’individuazione facciale è stata riconosciuta come la più perniciosa per «l’intrusività che comporta per il diritto alla vita privata e alla dignità delle persone, unitamente al rischio di ripercussioni negativie su altri diritti umani e sulle libertà fondamentali», secondo quanto riportato nella nota del Garante per la privacy.

Advertisement

Il problema, invero, risiede nei sistemi cosiddetti Real-time, già ritenuti illegittimi dal GDPR, in quanto programmati a svolgere una profilazione e una sorveglianza di massa, senza il suppurto di adeguate garanzie di tutele. Come si legge nella valutazione preventiva su “Sari Real Time”, del 20 marzo 2021: «Il sitema in argomento realizza un trattamento automatizzato su larga scala al fine di generare modelli di tutti per confrontarli con quelli delle persone incluse nella watchlist», con la risultante di una «evoluzione della natura stessa dell’attività di sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale allo scopo di identificare alcuni individui».

L’ingerenza nel pubblico degli strumenti di controllo di identità biometrico, in assenza, per altro, di un adeguato ausilio normativo, defrauda i cittadini del diritto all’anonimato, con il conseguente rischio, tra gli altri, di ingenerare un deleterio effetto dissuasivo (chilling effect) sulla loro libertà di espressione: un contraccolpo, questo, che solleva nuovi interrogativi sull’uso di tali tecnologie, motivando anche una valutazione d’impatto sull’agire umano. Occorre poi considerare la nocività, in termini di trasparenza e di affidabilità, delle cosiddette black box, le scatole nere, le zone d’ombra protette dei sistemi decisionali dell’IA.

La materia è complessa e sollecita, nello specifico, un’adozione controllata del sistema identificativo, tanto più doveroso se si considera l’inarrestabile avanzamento tecnologico, in grado ormai di andare oltre il semplice riconoscimento, ricavando informazioni aggiuntive come l’età, il genere, l’etnia, le condizioni familiari e/o di salute.

Del resto, proprio la realtà di una fenomenologia in costante evoluzione sta spingendo l’UE in direzione di interventi normativi che accordino l’emergenza della sicurezza della società civile ai principi di necessità e proporzionalità nel trattamento dei dati personali dei singoli soggetti, in prospettiva, anche, della prevenzione di possibili pregiudizi ai danni degli interessati.

La Commissione Europea si è impegnata a dialogare con il Consiglio e il Parlamento in vista della definizione compiuta di un regolamento che segni il punto di arrivo dell’iter legislativo avviato due anni fa, in funzione di una strategia dell’IA sicura e lecita, a tutela dell’integrità e dei diritti dell’individuo.

La questione è tanto più rilevante in considerazione del pericolo di incoraggiare, in mancanza di una posizione normativa risolutiva, accomodamenti autonomi, come la richiesta avanzata dalle associazioni sportive spagnole per l’uso dellle RBI negli stadi, o, caso ancora più problematico, il disegno di legge proposto dal Governo francese a favore di un potenziamento della sicurezza in vista dei Giochi olimpici del 2024. La misura, nel prevedere il monitoraggio, in tempo reale, delle strade parigine, sta suscitando proteste anche fuori della Francia, dando voce alle preoccupazioni sull’effettiva compatibilità tra l’autenticazione biometrica e la tutela dei diritti fondamentali.

Da qui l’interesse crescente per le decisioni europee, attese non solo dagli adetti ai lavori e dai governi, ma anche dai cittadini, che confidano in una risposta definitiva, allarmati come sono dalle implicazioni dell’IA nella vita quotidiana. L’auspicio è che la posizione umano-centrica, propria del dibattito europeo, possa evitare il pericolo, già preconizzato dal sociologo Zygmunt Bauman, di una “adiaforizzazione” della sorveglianza, di un suo scollamento da qualsiasi considerazione etica.

Valentina Lotoro

In sintesi

Dal 17 al 21 aprile si è svolto a Venezia, presso l’Università Ca’ Foscari, il Privacy Symposium, la conferenza internazionale organizzata con l’intento di promuovere il dialogo internazionale, la cooperazione e la condivisione in materia di protezione dei dati.

La manifestazione ha visto impegnati oltre 200 relatori di alto livello, nazionale e internazionale, che hanno dibattuto sulla questione privacy in più di 80 sessioni. Tra queste, quelle in italiano sono state coordinate dall’Istituto Italiano per la Privacy e la Valorizzazione dei Dati (IIP) in collaborazione con diverse organizzazioni nazionali impegnate nella tutela dei dati. Le riflessioni italiane hanno dedicato particolare attenzione al rapporto tra IA e privacy, attualizzato dalla recente sospensione di ChatGPT da parte del Garante. Nello specifico, il panel Intelligenza Artificiale vs Privacy, ha puntato a valutare l’impatto dell’IA sui diritti e le libertà degli interessati, dando voce alle più recenti preoccupazioni espresse dai giuristi come dagli imprenditori del settore tech. La prospettiva delineata ha rimarcato la necessità di un coinvolgimento sinergico delle autorità garanti, nella consapevolezza del ruolo che queste possono assumere in vista di una regolamentazione che freni il liberticidio digitale.

This article is from: