E’ stato presentato all’ONU il rapporto del relatore speciale sulla povertà estrema e i diritti umani, Philip Alston. Il rapporto è dedicato all’allarme per i diritti umani derivante dall’abuso della digitalizzazione nel campo della protezione sociale.
Lo stato sociale digitale è un complesso ed eterogeneo insieme di interventi totalmente o quasi interamente governati dal software e da sistemi automatizzati. Come riferisce il rapporto <<i sistemi di protezione sociale e di assistenza sono sempre più dipendenti dai dati digitali e dalle tecnologie che vengono utilizzate per automatizzare, prevedere, individuare, sorvegliare , rilevare, bersaglio e punire. I commentatori hanno predetto ” un futuro in cui le agenzie governative potrebbero effettivamente legiferare con i robot”, ed è evidente che stanno emergendo nuove forme di governance che si basano in modo significativo sull’elaborazione di grandi quantità di dati digitali da tutte le fonti disponibili, utilizzano l’analisi predittiva per prevedere il rischio, automatizzare il processo decisionale e rimuovere la discrezionalità dalle decisioni umane. In un mondo del genere, i cittadini diventano sempre più visibili al loro governo, ma non il contrario>>.
Il rapporto osserva che nei paesi dove questi sistemi sono stati implementati, lo stato sociale digitale viene presentato come una creatura benigna, foriera di efficienza, riduzione dei costi e di un livello più alto dei servizi. In realtà la digitalizzazione dei sistemi di welfare è stata spesso <<accompagnata da profonde riduzioni di budget complessivo, un restringimento della platea di beneficiari, l’eliminazione di alcuni servizi, l’introduzione di forme esigenti e intrusive di valutazione dei requisiti di accesso ai benefici, il perseguimento di obiettivi di modifica dei modelli di comportamento, l’imposizione di regimi sanzionatori più forti e una completa inversione della nozione tradizionale secondo cui lo stato dovrebbe essere responsabile nei confronti dell’individuo>>.
Insomma, siamo in presenza di una sorta di neoliberismo strisciante mascherato da buon samaritano digitale con effetti fortemente regressivi che riflette valori e ipotesi che sono molto lontani dai principi dei diritti umani e che possono risultarvi addirittura antitetici.
La minaccia di un futuro distopico è particolarmente significativa rispetto al tema dello stato digitale. Il rapporto presenta un resoconto sistematico dei modi in cui le tecnologie digitali vengono utilizzate nello stato sociale e delle loro implicazioni per i diritti umani. Il documento si conclude chiedendo la regolamentazione delle tecnologie digitali, compresa l’intelligenza artificiale, per garantire il rispetto dei diritti umani e un ripensamento dei modi positivi in cui lo stato sociale digitale possa divenire uno strumento potente per il raggiungimento di un effettivo miglioramento dei sistemi di protezione sociale.
La verifica dell’identità
Quello della verifica dell’identità della popolazione è stato considerato uno dei fattori strategici e di sviluppo. In effetti in moltissime aree del mondo gran parte della popolazione non possiede un documento di identità e non sono stati adottati sistemi efficienti di registrazione delle nascite. La Banca Mondiale ha attivato dei programmi di finanziamento finalizzate alla promozione ed all’implementazione di tecnologie digitali per la registrazione anagrafica e l’identificazione. Pur essendo innegabili i benefici di tali interventi, esistono dei pericoli intrinseci al funzionamento di questi sistemi informatici, talvolta basati su tecnologie di riconoscimento biometrico, che possono mettere a repentaglio la sicurezza dei dati personali della popolazione oppure essere utilizzati come tecnologie di controllo di massa o, più semplicemente, possono funzionare male mettendo a repentaglio anche la vita di esseri umani. In India ad esempio è stato introdotto dal 2009 un gigantesco sistema di riconoscimento biometrico che ad oggi coinvolge oltre 1,2 miliardi di persone. Ed è proprio dall’India che viene una storia incredibile. Il sistema di riconoscimento biometrico viene utilizzato anche per l’erogazione delle razioni di sussistenza alimentare; secondo quanto riferito dal Guardian a causa del malfunzionamento di un sensore biometrico, l’impronta digitale di Motka Majhi non è stata riconosciuta dalla macchina che quindi non gli ha erogato il cibo necessario ala sua sussistenza; il 22 maggio Motka Majhi è morto, secondo i suoi parenti a causa della fame.
Raccolte di massa di dati biometrici e DNA si riscontrano in Kenia, Sudafrica, Argentina, Bangladesh, Cile, Irlanda, Giamaica, Malesia, Filippine e Stati Uniti.
Nel nostro ordinamento l’art. 9 del GDPR riguarda proprio il trattamento dei dati biometrici, che è generalmente vietato ma risulta ammesso se si verificano i casi previsto al paragrafo 2 (vedi in particolare le lettere b), g), h), i)).
Articolo 9 del GDPR
Trattamento di categorie particolari di dati personali
1. È vietato trattare dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona.
2. Il paragrafo 1 non si applica se si verifica uno dei seguenti casi:
a) l’interessato ha prestato il proprio consenso esplicito al trattamento di tali dati personali per una o più finalità specifiche, salvo nei casi in cui il diritto dell’Unione o degli Stati membri dispone che l’interessato non possa revocare il divieto di cui al paragrafo 1;
b) il trattamento è necessario per assolvere gli obblighi ed esercitare i diritti specifici del titolare del trattamento o dell’interessato in materia di diritto del lavoro e della sicurezza sociale e protezione sociale, nella misura in cui sia autorizzato dal diritto dell’Unione o degli Stati membri o da un contratto collettivo ai sensi del diritto degli Stati membri, in presenza di garanzie appropriate per i diritti fondamentali e gli interessi dell’interessato;
c) il trattamento è necessario per tutelare un interesse vitale dell’interessato o di un’altra persona fisica qualora l’interessato si trovi nell’incapacità fisica o giuridica di prestare il proprio consenso;
d) il trattamento è effettuato, nell’ambito delle sue legittime attività e con adeguate garanzie, da una fondazione, associazione o altro organismo senza scopo di lucro che persegua finalità politiche, filosofiche, religiose o sindacali, a condizione che il trattamento riguardi unicamente i membri, gli ex membri o le persone che hanno regolari contatti con la fondazione, l’associazione o l’organismo a motivo delle sue finalità e che i dati personali non siano comunicati all’esterno senza il consenso dell’interessato;
e) il trattamento riguarda dati personali resi manifestamente pubblici dall’interessato;
f) il trattamento è necessario per accertare, esercitare o difendere un diritto in sede giudiziaria o ogniqualvolta le autorità giurisdizionali esercitino le loro funzioni giurisdizionali;
g) il trattamento è necessario per motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri, che deve essere proporzionato alla finalità perseguita, rispettare l’essenza del diritto alla protezione dei dati e prevedere misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato;
h) il trattamento è necessario per finalità di medicina preventiva o di medicina del lavoro, valutazione della capacità lavorativa del dipendente, diagnosi, assistenza o terapia sanitaria o sociale ovvero gestione dei sistemi e servizi sanitari o sociali sulla base del diritto dell’Unione o degli Stati membri o conformemente al contratto con un professionista della sanità, fatte salve le condizioni e le garanzie di cui al paragrafo 3;
i) il trattamento è necessario per motivi di interesse pubblico nel settore della sanità pubblica, quali la protezione da gravi minacce per la salute a carattere transfrontaliero o la garanzia di parametri elevati di qualità e sicurezza dell’assistenza sanitaria e dei medicinali e dei dispositivi medici, sulla base del diritto dell’Unione o degli Stati membri che prevede misure appropriate e specifiche per tutelare i diritti e le libertà dell’interessato, in particolare il segreto professionale;
j) il trattamento è necessario a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici in conformità dell’articolo 89, paragrafo 1, sulla base del diritto dell’Unione o nazionale, che è proporzionato alla finalità perseguita, rispetta l’essenza del diritto alla protezione dei dati e prevede misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato.
3. I dati personali di cui al paragrafo 1 possono essere trattati per le finalità di cui al paragrafo 2, lettera h), se tali dati sono trattati da o sotto la responsabilità di un professionista soggetto al segreto professionale conformemente al diritto dell’Unione o degli Stati membri o alle norme stabilite dagli organismi nazionali competenti o da altra persona anch’essa soggetta all’obbligo di segretezza conformemente al diritto dell’Unione o degli Stati membri o alle norme stabilite dagli organismi nazionali competenti.
4. Gli Stati membri possono mantenere o introdurre ulteriori condizioni, comprese limitazioni, con riguardo al trattamento di dati genetici, dati biometrici o dati relativi alla salute.
La valutazione dei requisiti di ammissibilità alle prestazioni assistenziali
Secondo il rapporto i sistemi automatici di valutazione dei requisiti di ammissibilità alle prestazioni assistenziali sono sempre più utilizzati. Viene in particolare fatto l’esempio dell’Ontario in Canada dove l’accesso al sistema di assistenza sociale si basava su un software IBM denominato Curam. Il software è stato usato anche negli Stati Uniti, in Germania, Australia e Nuova Zelanda ed è personalizzabile. Ebbene, questo software, a causa di un errore di programmazione. ha letteralmente tagliato le prestazioni per una somma pari a 140 milioni di dollari a fronte di un totale di budget pari a 290 milioni. Prestazioni quindi dimezzate per un errore di programmazione con conseguente panico per i beneficiari e per i pochi operatori umani destinati a risolvere la faccenda.
Questi sono solo alcuni esempi delle distorsioni derivanti da un uso sconsiderato delle tecnologie e dell’automazione governata da algoritmi senza l’ausilio e la supervisione dell’uomo.
A mio avviso è di particolare interesse al riguardo una recente pronuncia del TAR Lazio di cui ho scritto in un recente articolo su questo sito.
Secondo il TAR, sul solco già tracciato precedentemente dal Consiglio di Stato, in materia di procedimento amministrativo l’intervento umano è necessario ed insostituibile e non potrà mai essere completamente sostituito dal sistema automatizzato. Alle procedure informatiche va riservato un ruolo strumentale e meramente ausiliario in seno al procedimento amministrativo e giammai dominante o surrogatorio dell’attività dell’uomo; ostando alla deleteria prospettiva orwelliana di dismissione delle redini della funzione istruttoria e di abdicazione a quella provvedimentale, il presidio costituito dal baluardo dei valori costituzionali scolpiti negli artt. 3, 24, 97 della Costituzione oltre che all’art. 6 della Convezione europea dei diritti dell’uomo.
Il rapporto merita una lettura per acquisire maggiore consapevolezza e disincanto rispetto all’uso delle tecnologie informatiche, elementi necessari affinché i giuristi possano salvaguardare e difendere il primato della persona umana e del diritto sul codice informatico.
Lascia un commento
Devi essere connesso per inviare un commento.