Si segnala la Sentenza N. 08472/2019 pubblicata il 13/12/2019.
Di seguito la parte della motivazione che ritengo particolarmente rilevante.
Ti possono interessare anche:
Consiglio di Stato, l’algoritmo è un atto amministrativo informatico
TAR Lazio, l’algoritmo va bene ma solo se strumentale e mai surrogatorio dell’attività dell’uomo
6. La restante parte delle censure, concernente la legittimità del ricorso all’algoritmo e la correttezza del relativo meccanismo così come applicato, è parimenti infondata, seppur sulla scorta di un più apprfondito percorso argomentativo.
7. In termini generali, come correttamente evidenziato dalle parti, questa sezione ha già avuto modo di approfondire il tema in oggetto con la nota sentenza n. 2270 del 2019.
A fronte della diversità della fattispecie e del dibattito sollevato, occorre svolgere alcune brevi considerazioni integrative, in specie in relazione a quanto dedotto avverso la sentenza appellata.
7.1 In linea generale va ribadito come anche la pubblica amministrazione debba poter sfruttare le rilevanti potenzialità della c.d. rivoluzione digitale.
In tale contesto, il ricorso ad algoritmi informatici per l’assunzione di decisioni che riguardano la sfera pubblica e privata si fonda sui paventati guadagni in termini di efficienza e neutralità.
In molti campi gli algoritmi promettono di diventare lo strumento attraverso il quale correggere le storture e le imperfezioni che caratterizzano tipicamente i processi cognitivi e le scelte compiute dagli esseri umani, messi in luce soprattutto negli ultimi anni da un’imponente letteratura di economia comportamentale e psicologia cognitiva. In tale contesto, le decisioni prese dall’algoritmo assumono così un’aura di neutralità, frutto di asettici calcoli razionali basati su dati.
7.2 Peraltro, già in tale ottica è emersa altresì una lettura critica del fenomeno, in quanto l’impiego di tali strumenti comporta in realtà una serie di scelte e di assunzioni tutt’altro che neutre: l’adozione di modelli predittivi e di criteri in base ai quali i dati sono raccolti, selezionati, sistematizzati, ordinati e messi insieme, la loro interpretazione e la conseguente formulazione di giudizi sono tutte operazioni frutto di precise scelte e di valori, consapevoli o inconsapevoli; da ciò ne consegue che tali strumenti sono chiamati ad operano una serie di scelte, le quali dipendono in gran parte dai criteri utilizzati e dai dati di riferimento utilizzati, in merito ai quali è apparso spesso difficile ottenere la necessaria trasparenza.
8.1 Sempre in linea generale va richiamato quanto già evidenziato dalla sezione in ordine all’elemento positivo derivante dal nuovo contesto di digitalizzazione; in proposito, non può essere messo in discussione che un più elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini e agli utenti.
In tale ottica lo stesso Codice dell’amministrazione digitale rappresenta un approdo decisivo in tale direzione. I diversi interventi di riforma dell’amministrazione susseguitisi nel corso degli ultimi decenni, fino alla legge n. 124 del 2015, sono indirizzati a tal fine; nella medesima direzione sono diretti gli impulsi che provengono dall’ordinamento comunitario.
8.2 Tuttavia, nel caso di specie lo scenario necessita di un approfondimento ulteriore. Non si tratta, infatti, di sperimentare forme diverse di esternazione della volontà dell’amministrazione, come nel caso dell’atto amministrativo informatico, ovvero di individuare nuovi metodi di comunicazione tra amministrazione e privati, come nel caso della partecipazione dei cittadini alle decisioni amministrative attraverso social network o piattaforme digitali, ovvero di ragionare sulle modalità di scambio dei dati tra le pubbliche amministrazioni.
Nel caso dell’utilizzo di tali strumenti digitali, come avvenuto nella fattispecie oggetto della presente controversia, ci si trova dinanzi ad una situazione che, in sede dottrinaria, è stata efficacemente qualificata con l’espressione di rivoluzione 4.0 la quale, riferita all’amministrazione pubblica e alla sua attività, descrive la possibilità che il procedimento di formazione della decisione amministrativa sia affidato a un software, nel quale vengono immessi una serie di dati così da giungere, attraverso l’automazione della procedura, alla decisione finale.
9.1 Come già evidenziato nel precedente della sezione richiamato, l’utilità di tale modalità operativa di gestione dell’interesse pubblico è particolarmente evidente con riferimento a procedure, come quella oggetto del presente contenzioso, seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale.
La piena ammissibilità di tali strumenti risponde ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei propri fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale.
9.2 Anche il caso in esame, relativo ad una procedura di assegnazione di sedi in base a criteri oggettivi, l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata: essa comporta infatti numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata.
10. Peraltro, l’utilizzo di procedure informatizzate non può essere motivo di elusione dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa.
In tale contesto, infatti, il ricorso all’algoritmo va correttamente inquadrato in termini di modulo organizzativo, di strumento procedimentale ed istruttorio, soggetto alle verifiche tipiche di ogni procedimento amministrativo, il quale resta il modus operandi della scelta autoritativa, da svolgersi sulla scorta delle legislazione attributiva del potere e delle finalità dalla stessa attribuite all’organo pubblico, titolare del potere.
11. Né vi sono ragioni di principio, ovvero concrete, per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale, entrambe espressione di attività autoritativa svolta nel perseguimento del pubblico interesse.
In disparte la stessa sostenibilità a monte dell’attualità di una tale distinzione, atteso che ogni attività autoritativa comporta una fase quantomeno di accertamento e di verifica della scelta ai fini attribuiti dalla legge, se il ricorso agli strumenti informatici può apparire di più semplice utilizzo in relazione alla c.d. attività vincolata, nulla vieta che i medesimi fini predetti, perseguiti con il ricorso all’algoritmo informatico, possano perseguirsi anche in relazione ad attività connotata da ambiti di discrezionalità.
Piuttosto, se nel caso dell’attività vincolata ben più rilevante, sia in termini quantitativi che qualitativi, potrà essere il ricorso a strumenti di automazione della raccolta e valutazione dei dati, anche l’esercizio di attività discrezionale, in specie tecnica, può in astratto beneficiare delle efficienze e, più in generale, dei vantaggi offerti dagli strumenti stessi.
12. In tale contesto, premessa la generale ammissibilità di tali strumenti, qualificati nei termini di cui sopra al punto 10, assumono rilievo fondamentale, anche alla luce della disciplina di origine sovranazionale, due aspetti preminenti, quali elementi di minima garanzia per ogni ipotesi di utilizzo di algoritmi in sede decisoria pubblica: a) la piena conoscibilità a monte del modulo utilizzato e dei criteri applicati; b) l’imputabilità della decisione all’organo titolare del potere, il quale deve poter svolgere la necessaria verifica di logicità e legittimità della scelta e degli esiti affidati all’algoritmo.
13.1 Sul versante della piena conoscibilità, rilievo preminente ha il principio della trasparenza, da intendersi sia per la stessa p.a. titolare del potere per il cui esercizio viene previsto il ricorso allo strumento dell’algoritmo, sia per i soggetti incisi e coinvolti dal potere stesso.
In relazione alla stessa p.a., nel precedente richiamato la sezione ha già chiarito come il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) debba essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico.
Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato.
In proposito, va ribadito che, la “caratterizzazione multidisciplinare” dell’algoritmo (costruzione che certo non richiede solo competenze giuridiche, ma tecniche, informatiche, statistiche, amministrative) non esime dalla necessità che la “formula tecnica”, che di fatto rappresenta l’algoritmo, sia corredata da spiegazioni che la traducano nella “regola giuridica” ad essa sottesa e che la rendano leggibile e comprensibile. Con le già individuate conseguenze in termini di conoscenza e di sindacabilità (cfr. punto 8.3 della motivazione della sentenza 2270 cit.).
In senso contrario non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza.
13.2 In relazione ai soggetti coinvolti si pone anche un problema di gestione dei relativi dati. Ad oggi nelle attività di trattamento dei dati personali possono essere individuate due differenti tipologie di processi decisionali automatizzati: quelli che contemplano un coinvolgimento umano e quelli che, al contrario, affidano al solo algoritmo l’intero procedimento.
Il più recente Regolamento europeo in materia (2016/679), concentrandosi su tali modalità di elaborazione dei dati, integra la disciplina già contenuta nella Direttiva 95/46/CE con l’intento di arginare il rischio di trattamenti discriminatori per l’individuo che trovino la propria origine in una cieca fiducia nell’utilizzo degli algoritmi.
In particolare, in maniera innovativa rispetto al passato, gli articoli 13 e 14 del Regolamento stabiliscono che nell’informativa rivolta all’interessato venga data notizia dell’eventuale esecuzione di un processo decisionale automatizzato, sia che la raccolta dei dati venga effettuata direttamente presso l’interessato sia che venga compiuta in via indiretta.
Una garanzia di particolare rilievo viene riconosciuta allorché il processo sia interamente automatizzato essendo richiesto, almeno in simili ipotesi, che il titolare debba fornire “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato” . In questo senso, in dottrina è stato fatto notare come il legislatore europeo abbia inteso rafforzare il principio di trasparenza che trova centrale importanza all’interno del Regolamento.
13.3 L’interesse conoscitivo della persona è ulteriormente tutelato dal diritto di accesso riconosciuto dall’articolo 15 del Regolamento che contempla, a sua volta, la possibilità di ricevere informazioni relative all’esistenza di eventuali processi decisionali automatizzati.
Incidentalmente, è stato evidenziato come l’articolo 15, diversamente dagli articoli 13 e 14, abbia il pregio di prevedere un diritto azionabile dall’interessato e non un obbligo rivolto al titolare del trattamento, e permette inoltre di superare i limiti temporali posti dagli articoli 13 e 14, consentendo al soggetto di acquisire informazioni anche qualora il trattamento abbia avuto inizio, stia trovando esecuzione o abbia addirittura già prodotto una decisione. Ciò, ai fini in esame, conferma ulteriormente la rilevanza della trasparenza per i soggetti coinvolti dall’attività amministrativa informatizzata in termini istruttori e decisori.
14.1 Sul versante della verifica degli esiti e della relativa imputabilità, deve essere garantita la verifica a valle, in termini di logicità e di correttezza degli esiti. Ciò a garanzia dell’imputabilità della scelta al titolare del potere autoritativo, individuato in base al principio di legalità, nonché della verifica circa la conseguente individuazione del soggetto responsabile, sia nell’interesse della stessa p.a. che dei soggetti coinvolti ed incisi dall’azione amministrativa affidata all’algoritmo.
14.2 In tale contesto, lo stesso Regolamento predetto affianca alle garanzie conoscitive assicurate attraverso l’informativa e il diritto di accesso, un espresso limite allo svolgimento di processi decisionali interamente automatizzati. L’articolo 22, paragrafo 1, riconosce alla persona il diritto di non essere sottoposta a decisioni automatizzate prive di un coinvolgimento umano e che, allo stesso tempo, producano effetti giuridici o incidano in modo analogo sull’individuo. Quindi occorre sempre l’individuazione di un centro di imputazione e di responsabilità, che sia in grado di verificare la legittimità e logicità della decisione dettata dall’algoritmo.
14.3 In tema di imputabilità occorre richiamare, quale elemento rilevante di inquadramento del tema, la Carta della Robotica, approvata nel febbraio del 2017 dal Parlamento Europeo. Tale atto esprime in maniera efficace questi passaggi, laddove afferma che “l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; (…) tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente; (…) nell’ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati».
14.4 Quindi, anche al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, occorre garantire la riferibilità della decisione finale all’autorità ed all’organo competente in base alla legge attributiva del potere.
15. A conferma di quanto sin qui rilevato, in termini generali dal diritto sovranazionale emergono tre principi, da tenere in debita considerazione nell’esame e nell’utilizzo degli strumenti informatici.
15.1 In primo luogo, il principio di conoscibilità, per cui ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata.
Il principio, in esame è formulato in maniera generale e, perciò, applicabile sia a decisioni prese da soggetti privati che da soggetti pubblici, anche se, nel caso in cui la decisione sia presa da una p.a., la norma del Regolamento costituisce diretta applicazione specifica dell’art. 42 della Carta Europea dei Diritti Fondamentali (“Right to a good administration”), laddove afferma che quando la Pubblica Amministrazione intende adottare una decisione che può avere effetti avversi su di una persona, essa ha l’obbligo di sentirla prima di agire, di consentirle l’accesso ai suoi archivi e documenti, ed, infine, ha l’obbligo di “dare le ragioni della propria decisione”.
Tale diritto alla conoscenza dell’esistenza di decisioni che ci riguardino prese da algoritmi e, correlativamente, come dovere da parte di chi tratta i dati in maniera automatizzata, di porre l’interessato a conoscenza, va accompagnato da meccanismi in grado di decifrarne la logica. In tale ottica, il principio di conoscibilità si completa con il principio di comprensibilità, ovverosia la possibilità, per riprendere l’espressione del Regolamento, di ricevere “informazioni significative sulla logica utilizzata”.
15.2 In secondo luogo, l’altro principio del diritto europeo rilevante in materia (ma di rilievo anche globale in quanto ad esempio utilizzato nella nota decisione Loomis vs. Wisconsin), è definibile come il principio di non esclusività della decisione algoritmica.
Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano
significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente
su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.
15.3 In terzo luogo, dal considerando n. 71 del Regolamento 679/2016 il diritto europeo trae un ulteriore principio fondamentale, di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e che impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti.
In tale contesto, pur dinanzi ad un algoritmo conoscibile e comprensibile, non costituente l’unica motivazione della decisione, occorre che lo stesso non assuma carattere discriminatorio.
In questi casi, come afferma il considerando, occorrerebbe rettificare i dati in “ingresso” per evitare effetti discriminatori nell’output decisionale; operazione questa che richiede evidentemente la necessaria cooperazione di chi istruisce le macchine che producono tali decisioni.
16. Sulla scorta delle argomentazioni sin qui svolte, nel caso di specie l’algoritmo non risulta essere stato utilizzato in termini conformi ai principi predetti, anche in considerazione del fatto che non è dato comprendere per quale ragione le legittime aspettative di soggetti collocati in una determinata posizione in graduatoria siano andate deluse.
Non può quindi ritenersi applicabile in modo indiscriminato, come si ritiene nella motivazione della sentenza di primo grado, all’attività amministrativa algoritmica, tutta la legge sul procedimento amministrativo, concepita in un’epoca nella quale l’amministrazione non era investita dalla rivoluzione tecnologica, né sono condivisibili richiami letterari, pur noti ed apprezzabili, a scenari orwelliani ( da considerarsi con cautela perché la materia merita un approccio non emotivo ma capace di delineare un nuovo equilibrio, nel lavoro, fra uomo e macchina differenziato per ogni campo di attività ).
Il tema dei pericoli connessi allo strumento non è ovviato dalla rigida e meccanica applicazione di tutte le minute regole procedimentali della legge n. 241 del 1990 ( quali ad es. la comunicazione di avvio del procedimento sulla quale si appunta buona parte dell’atto di appello o il responsabile del procedimento che , con tutta evidenza, non può essere una macchina in assenza di disposizioni espresse ), dovendosi invece ritenere che la fondamentale esigenza di tutela posta dall’utilizzazione dello strumento informatico c.d. algoritmico sia la trasparenza nei termini prima evidenziati riconducibili al principio di motivazione e/o giustificazione della decisione.
L’amministrazione, nel presente contenzioso, si è limitata a postulare una coincidenza fra la legalità e le operazioni algoritmiche che deve invece essere sempre provata ed illustrata sul piano tecnico, quantomeno chiarendo le circostanze prima citate, ossia le istruzioni impartite e le modalità di funzionamento delle operazioni informatiche se ed in quanto ricostruibili sul piano effettuale perché dipendenti dalla preventiva, eventualmente contemporanea o successiva azione umana di impostazione e/o controllo dello strumento.
In tal senso la sentenza può essere confermata ma con diversa motivazione.
Infatti, l’impossibilità di comprendere le modalità con le quali, attraverso il citato algoritmo, siano stati assegnati i posti disponibili, costituisce di per sé un vizio tale da inficiare la procedura, in termini analoghi e coerenti rispetto al precedente della sezione più volte citato che, tuttavia, in parte se ne differenziava essendo state provate singole violazioni di legge mentre qui la censura finisce per involgere il metodo in quanto tale per il difetto di trasparenza dello stesso. Ciò ha trovato indiretta conferma dall’avvenuta esecuzione della sentenza appellata, in termini satisfattivi delle posizioni azionate.
Lascia un commento
Devi essere connesso per inviare un commento.