Nel mese di ottobre del 2019 è stato presentato all’ONU il rapporto del relatore speciale sulla povertà estrema e i diritti umani, Philip Alston. Il rapporto è dedicato all’allarme per i diritti umani derivante dall’abuso della digitalizzazione nel campo della protezione sociale.
Lo stato sociale digitale è un complesso ed eterogeneo insieme di interventi totalmente o quasi interamente governati dal software e da sistemi automatizzati. Come riferisce il rapporto <<i sistemi di protezione sociale e di assistenza sono sempre più dipendenti dai dati digitali e dalle tecnologie che vengono utilizzate per automatizzare, prevedere, individuare, sorvegliare, rilevare il bersaglio e punire. I commentatori hanno predetto un futuro in cui le agenzie governative potrebbero effettivamente legiferare con i robot, ed è evidente che stanno emergendo nuove forme di governance che si basano in modo significativo sull’elaborazione di grandi quantità di dati digitali da tutte le fonti disponibili, utilizzano l’analisi predittiva per prevedere il rischio, automatizzare il processo decisionale e rimuovere la discrezionalità dalle decisioni umane. In un mondo del genere, i cittadini diventano sempre più visibili al loro governo, ma non il contrario>>.
Il rapporto osserva che nei paesi dove questi sistemi sono stati implementati, lo stato sociale digitale viene presentato come una creatura benigna, foriera di efficienza, riduzione dei costi e di un livello più alto dei servizi. In realtà la digitalizzazione dei sistemi di welfare è stata spesso <<accompagnata da profonde riduzioni di budget complessivo, un restringimento della platea di beneficiari, l’eliminazione di alcuni servizi, l’introduzione di forme esigenti e intrusive di valutazione dei requisiti di accesso ai benefici, il perseguimento di obiettivi di modifica dei modelli di comportamento, l’imposizione di regimi sanzionatori più forti e una completa inversione della nozione tradizionale secondo cui lo stato dovrebbe essere responsabile nei confronti dell’individuo>>.
Insomma, siamo in presenza di una sorta di neoliberismo strisciante mascherato da buon samaritano digitale con effetti fortemente regressivi che riflette valori e ipotesi che sono molto lontani dai principi dei diritti umani e che possono risultarvi addirittura antitetici.
La minaccia di un futuro distopico è particolarmente significativa rispetto al tema dello stato digitale. Il rapporto presenta un resoconto sistematico dei modi in cui le tecnologie digitali vengono utilizzate nello stato sociale e delle loro implicazioni per i diritti umani. Il documento si conclude chiedendo la regolamentazione delle tecnologie digitali, compresa l’intelligenza artificiale, per garantire il rispetto dei diritti umani e un ripensamento dei modi positivi in cui lo stato sociale digitale possa divenire uno strumento potente per il raggiungimento di un effettivo miglioramento dei sistemi di protezione sociale.
La verifica dell’identità
Quello della verifica dell’identità della popolazione è stato considerato uno dei fattori strategici e di sviluppo. In effetti in moltissime aree del mondo gran parte della popolazione non possiede un documento di identità e non sono stati adottati sistemi efficienti di registrazione delle nascite. La Banca Mondiale ha attivato dei programmi di finanziamento finalizzate alla promozione ed all’implementazione di tecnologie digitali per la registrazione anagrafica e l’identificazione. Pur essendo innegabili i benefici di tali interventi, esistono dei pericoli intrinseci al funzionamento di questi sistemi informatici, talvolta basati su tecnologie di riconoscimento biometrico, che possono mettere a repentaglio la sicurezza dei dati personali della popolazione oppure essere utilizzati come tecnologie di controllo di massa o, più semplicemente, possono funzionare male mettendo a repentaglio anche la vita di esseri umani. In India ad esempio è stato introdotto dal 2009 un gigantesco sistema di riconoscimento biometrico che ad oggi coinvolge oltre 1,2 miliardi di persone. Ed è proprio dall’India che viene una storia incredibile. Il sistema di riconoscimento biometrico viene utilizzato anche per l’erogazione delle razioni di sussistenza alimentare; secondo quanto riferito dal Guardian a causa del malfunzionamento di un sensore biometrico, l’impronta digitale di Motka Majhi non è stata riconosciuta dalla macchina che quindi non gli ha erogato il cibo necessario ala sua sussistenza; il 22 maggio Motka Majhi è morto, secondo i suoi parenti a causa della fame.
Raccolte di massa di dati biometrici e DNA si riscontrano in Kenia, Sudafrica, Argentina, Bangladesh, Cile, Irlanda, Giamaica, Malesia, Filippine e Stati Uniti.
Nel nostro ordinamento l’art. 9 del GDPR riguarda proprio il trattamento dei dati biometrici, che è generalmente vietato ma risulta ammesso se si verificano i casi previsto al paragrafo 2 (vedi in particolare le lettere b), g), h), i)).
Articolo 9 del GDPR
Trattamento di categorie particolari di dati personali
1. È vietato trattare dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona.
2. Il paragrafo 1 non si applica se si verifica uno dei seguenti casi:
a) l’interessato ha prestato il proprio consenso esplicito al trattamento di tali dati personali per una o più finalità specifiche, salvo nei casi in cui il diritto dell’Unione o degli Stati membri dispone che l’interessato non possa revocare il divieto di cui al paragrafo 1;
b) il trattamento è necessario per assolvere gli obblighi ed esercitare i diritti specifici del titolare del trattamento o dell’interessato in materia di diritto del lavoro e della sicurezza sociale e protezione sociale, nella misura in cui sia autorizzato dal diritto dell’Unione o degli Stati membri o da un contratto collettivo ai sensi del diritto degli Stati membri, in presenza di garanzie appropriate per i diritti fondamentali e gli interessi dell’interessato;
c) il trattamento è necessario per tutelare un interesse vitale dell’interessato o di un’altra persona fisica qualora l’interessato si trovi nell’incapacità fisica o giuridica di prestare il proprio consenso;
d) il trattamento è effettuato, nell’ambito delle sue legittime attività e con adeguate garanzie, da una fondazione, associazione o altro organismo senza scopo di lucro che persegua finalità politiche, filosofiche, religiose o sindacali, a condizione che il trattamento riguardi unicamente i membri, gli ex membri o le persone che hanno regolari contatti con la fondazione, l’associazione o l’organismo a motivo delle sue finalità e che i dati personali non siano comunicati all’esterno senza il consenso dell’interessato;
e) il trattamento riguarda dati personali resi manifestamente pubblici dall’interessato;
f) il trattamento è necessario per accertare, esercitare o difendere un diritto in sede giudiziaria o ogniqualvolta le autorità giurisdizionali esercitino le loro funzioni giurisdizionali;
g) il trattamento è necessario per motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri, che deve essere proporzionato alla finalità perseguita, rispettare l’essenza del diritto alla protezione dei dati e prevedere misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato;
h) il trattamento è necessario per finalità di medicina preventiva o di medicina del lavoro, valutazione della capacità lavorativa del dipendente, diagnosi, assistenza o terapia sanitaria o sociale ovvero gestione dei sistemi e servizi sanitari o sociali sulla base del diritto dell’Unione o degli Stati membri o conformemente al contratto con un professionista della sanità, fatte salve le condizioni e le garanzie di cui al paragrafo 3;
i) il trattamento è necessario per motivi di interesse pubblico nel settore della sanità pubblica, quali la protezione da gravi minacce per la salute a carattere transfrontaliero o la garanzia di parametri elevati di qualità e sicurezza dell’assistenza sanitaria e dei medicinali e dei dispositivi medici, sulla base del diritto dell’Unione o degli Stati membri che prevede misure appropriate e specifiche per tutelare i diritti e le libertà dell’interessato, in particolare il segreto professionale;
j) il trattamento è necessario a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici in conformità dell’articolo 89, paragrafo 1, sulla base del diritto dell’Unione o nazionale, che è proporzionato alla finalità perseguita, rispetta l’essenza del diritto alla protezione dei dati e prevede misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato.
3. I dati personali di cui al paragrafo 1 possono essere trattati per le finalità di cui al paragrafo 2, lettera h), se tali dati sono trattati da o sotto la responsabilità di un professionista soggetto al segreto professionale conformemente al diritto dell’Unione o degli Stati membri o alle norme stabilite dagli organismi nazionali competenti o da altra persona anch’essa soggetta all’obbligo di segretezza conformemente al diritto dell’Unione o degli Stati membri o alle norme stabilite dagli organismi nazionali competenti.
4. Gli Stati membri possono mantenere o introdurre ulteriori condizioni, comprese limitazioni, con riguardo al trattamento di dati genetici, dati biometrici o dati relativi alla salute.
La valutazione dei requisiti di ammissibilità alle prestazioni assistenziali
I sistemi automatici di valutazione dei requisiti di ammissibilità alle prestazioni assistenziali sono sempre più utilizzati. Nello stato canadese dell’Ontario l’accesso al sistema di assistenza sociale si basava su un software IBM denominato Curam. Il software è stato usato anche negli Stati Uniti, in Germania, Australia e Nuova Zelanda ed è personalizzabile. Ebbene, questo software, a causa di un errore di programmazione, ha letteralmente tagliato le prestazioni per una somma pari a 140 milioni di dollari a fronte di un totale di budget pari a 290 milioni. Prestazioni quindi dimezzate per un errore di programmazione con conseguente panico per i beneficiari e per i pochi operatori umani destinati a risolvere la faccenda.
Nello stato dell’Illinois, riporta il Guardian, il governo ha richiesto il rimborso di sussidi asseritamente pagati in eccesso, relativi in alcuni casi a 30 anni fa. Questi “rimborsi zombie”, decisi sinteticamente dai programmi per elaboratore, stanno mettendo nel panico gli strati più deboli della società. Nel Regno Unito si investono miloni di sterline in un progetto di “robot assistenziali” per sostituire gli umani nella cura delle persone bisognose. In Australia, si usa l’automazione per sospendere, senza preavviso, i sussidi sociali. Ma la storia più incredibile viene dall’India dove è stato introdotto un sistema di riconoscimento biometrico per l’erogazione delle razioni di sussistenza alimentare.
Questi sono solo alcuni esempi delle distorsioni derivanti da un uso sconsiderato delle tecnologie e dell’automazione governata da algoritmi e senza la supervisione dell’uomo.
Il primato del diritto sul codice informatico: code is not law
A tal riguardo è di particolare interesse la sentenza N. 10964/2019 del TAR Lazio. Secondo il TAR, sul solco già tracciato precedentemente dal Consiglio di Stato, in materia di procedimento amministrativo l’intervento umano è necessario e non potrà mai essere completamente sostituito dal sistema automatizzato.
Il meccanismo informatico o matematico è infatti del tutto impersonale e orfano di capacità valutazionali delle singole fattispecie concrete, tipiche invece della tradizionale e garantistica istruttoria procedimentale che deve informare l’attività amministrativa.
Alle procedure informatiche va riservato quindi un ruolo strumentale e meramente ausiliario in seno al procedimento amministrativo e giammai dominante o surrogatorio dell’attività dell’uomo; ostando il presidio costituito dal baluardo dei valori costituzionali scolpiti negli artt. 3, 24, 97 della Costituzione oltre che all’art. 6 della Convezione europea dei diritti dell’uomo, alla deleteria prospettiva orwelliana di dismissione delle redini della funzione istruttoria e di abdicazione a quella provvedimentale.
Le decisioni della giustizia amministrativa italiana sono di fondamentale importanza perché riaffermano il primato dell’uomo e di una delle sue più sofisticate ed evolute creazioni, il diritto. Se ne sentiva il bisogno ma bisogna restare vigili.
Occorre una regolamentazione dell’uso delle tecnologie digitali, compresi i sistemi esperti digitali – impropriamente definiti come intelligenza artificiale – da intendersi esclusivamente come ausilio all’intervento dell’uomo, per garantire il rispetto dei diritti fondamentali e un ripensamento dei modi positivi in cui lo stato sociale digitale possa divenire uno strumento potente per il raggiungimento di un effettivo miglioramento dei sistemi di protezione.
Lascia un commento
Devi essere connesso per inviare un commento.