09/03/2020 – Innovazione tecnologica, azione amministrativa e organizzazione della P.A.

Innovazione tecnologica, azione amministrativa e organizzazione della P.A.[1]
 
Ringrazio gli organizzatori per avermi invitato a partecipare alla discussione su questo tema, nuovo e stimolante ma anche ostico per chi ha una formazione giuridica.
La difficoltà dell’argomento mi spinge ad accostarmi all’argomento inizialmente facendo riferimento ad una vicenda abbastanza nota, quale quella di cui si sono occupate le pronunce della sesta sezione del Consiglio di Stato[2] (ma ancor prima del TAR del Lazio[3]), conosciute come le sentenze sull’algoritmo[4].
La vicenda riguardava la procedura nazionale straordinaria di mobilità, prevista dall’articolo 1, comma 108, della legge 13 luglio 2015, n. 107 (buona scuola), e regolamentata dall’ordinanza ministeriale 8 aprile 2016, n. 241.
I ricorrenti, coinvolti in quella che nelle pronunce viene indicata come fase B, delusi dalle destinazioni a loro assegnate, lamentavano sostanzialmente che l’illogicità dell’intera operazione fosse palese, visto che le sedi a cui aspiravano erano rimaste scoperte in maniera massiccia ovvero occupate dagli insegnanti collocati interessati alla fase C.
Poiché, come peraltro riportato anche dall’Amministrazione, la mobilità era stata gestita integralmente attraverso un algoritmo[5], gli interessati hanno richiesto che fosse ricostruita in modo puntuale e comprensibile la sequenza ordinata dei passaggi logici che componevano la formula utilizzata. Il Ministero dell’istruzione non ha saputo fornire queste informazioni; essendo esso, in definitiva, attraverso il responsabile del procedimento, l’autorità procedente e non essendo riuscito a spiegare il percorso procedimentale e logico di cui era comunque garante, è risultato soccombente sia in primo sia in secondo grado.
Si tratta evidentemente di un caso in cui il mezzo informatico era ben lontano dalla complessità della cosiddetta intelligenza artificiale[6], ma il contenzioso che ne è scaturito ha consentito di confrontarsi con varie questioni che gli strumenti informatici avanzati pongono all’amministrazione, prima, e al giudice amministrativo, poi.
Non è inutile precisare che l’utilizzo di un programma nella mobilità del personale scolastico appare nella generalità dei casi una scelta opportuna[7] perché
  • a livello amministrativo, sono stati sviluppati nel tempo alcuni automatismi nella gestione di queste procedure;
  • i criteri di attribuzione dei punteggi sono fissi e prestabiliti[8];
  • non essendo possibile determinare a priori il numero esatto dei posti disponibili[9], tutti gli spostamenti (nessuno escluso perché, all’avvio delle lezioni, tutte le classi devono esser coperte dal personale insegnante) devono essere concentrati in pochi mesi fino a settembre. Quindi è evidente l’esigenza di prontezza e velocità.
Senza indulgere nei particolari, da tali vicende possono trarsi alcune considerazioni.
Nel momento in cui un’azione amministrativa si sviluppa anche attraverso strumenti informatici, per garantire l’osservanza dei principi in tema di procedimento, è necessario che l’amministrazione sia in grado di dare i corretti input al fornitore informatico e di testare la fornitura per verificare se essa soddisfa le sue esigenze[10].
Questo controllo può essere naturalmente fatto anche attraverso l’apporto degli interessati stimolati alla correzione (con eventuale frammentazione della relativa pubblicazione di singole fasi del procedimento)[11].
Ciò significa che l’amministrazione deve dotarsi di figure professionali nuove, probabilmente non ancora disponibili sul mercato del lavoro: così come, ad esempio, presso l’Unione europea i traduttori non sono solo esperti linguistici ma sono “giuristi-traduttori”, si dovrà in futuro pensare a formare giuristi che capiscano l’informatica e informatici con conoscenze giuridiche.
Si dovrà anche ripensare l’impostazione dei rapporti contrattuali con i fornitori informatici, che, in quanto imprenditori privati, custodiscono gelosamente i loro brevetti e il loro know-how[12]; sicché l’impegno deve essere diretto, da un  lato, a dare input sempre più precisi e dettagliati nei capitolati e, dall’altro, a limitare la possibilità che i fornitori possano trincerarsi dietro i propri diritti di proprietà industriale nel momento in cui debbano dar conto della correttezza, anche amministrativa, dei prodotti e dei servizi prestati. In ogni caso, si deve evitare in generale un clima di diffidenza e chiusura reciproca e, in particolare, che i tecnici fornitori assumano quella posizione (finora alquanto comune) di sufficienza rispetto alle esigenze formali dell’amministrazione.
In realtà, le prospettive in questo ambito non sono affatto rosee, visto che, anche per le spinte corporative, spesso espresse dai sindacati, negli anni, le competenze richieste ai dipendenti pubblici si sono sempre più ristrette al campo giuridico, fenomeno che si è rispecchiano nello smantellamento dei corpi degli organi tecnici dello Stato[13].
L’insieme dei problemi che ho cercato di delineare si è manifestato in concreto anche nella vicenda della mobilità degli insegnanti.
In definitiva, mi sembra che l’Amministrazione scolastica prima non sia riuscita a fornire i giusti input e poi a spiegare (perché non ha potuto e saputo controllare gli output) l’insieme delle operazioni (quelle regolate attraverso l’algoritmo) né a coordinare queste ultime con le altre movimentazioni di personale (compresi i trasferimenti ordinari[14]).
A questo punto, dopo aver preso in considerazione un atto amministrativo generato da un algoritmo, bisogna chiedersi se le sentenze del Consiglio di Stato e del TAR Lazio potevano essere anch’esse generate dall’intelligenza artificiale.
In conclusione, nelle vicende a cui si è accennato, il percorso logico era piuttosto semplice (seppure in assenza di precedenti): una volta inquadrato l’atto generato dall’algoritmo nell’alveo degli atti amministrativi frutto del procedimento, a questo si applicano tutti i principi e le regole del procedimento e tutti i vizi dell’atto. In concreto, poiché la sequenza delle ragioni che conducono al risultato non erano ricostruibili (e comunque giungevano a un risultato contrastante con l’interesse pubblico espressamente perseguito), il ricorso non poteva che essere accolto.
Viene naturalmente da domandarsi se questo approdo sia generalizzabile.
A questo quesito sono già state date le prime e convincenti risposte[15].
Vorrei sottolineare al proposito alcuni aspetti del rapporto tra giurisdizione amministrativa e intelligenza artificiale che sono stati autorevolmente evidenziati.
In primo luogo, il giudizio amministrativo ha per oggetto archetipico non dei semplici fatti, bensì una precedente decisione, frutto di una valutazione non neutrale, ma funzionale all’interesse pubblico.
In secondo luogo, nella regolazione dei fenomeni, il legislatore ricorre a modelli normativi aperti, in cui trovano posto clausole generali e concetti giuridici indeterminati che il giudice è tenuto a “riempire”[16]. Inoltre, alcuni canoni ermeneutici o valutativi sono anch’essi indeterminati: si pensi alle tradizionali fattispecie sintomatiche di eccesso di potere (illogicità, motivazione inadeguata, istruttoria insufficiente), ma anche ai canoni di ragionevolezza o di adeguatezza o proporzionalità, fino al bilanciamento degli interessi in gioco che il giudice è tenuto talvolta ad operare (sicuramente in sede cautelare e in sede di esecuzione delle sentenze sugli appalti). Dunque giustamente è da domandarsi: “Quanti di questi indicatori di (il)legittimità sono misurabili e quindi “trasferibili” a un algoritmo?”[17].
Io vorrei aggiungere due notazioni per alimentare ancor più i dubbi sulla possibilità di un giudice-robot ovvero di una sentenza frutto dell’intelligenza artificiale.
La prima è un dato che mi sembra scontato: questo dibattito trova il suo naturale humus nella cultura anglosassone, in cui la prevedibilità dell’esito dei giudizi è indissolubilmente legata alla vincolatività del precedente (espresso dalla formula stare decisis). In ogni caso, tale utilizzo presuppone la stabilità e una certa uniformità della giurisprudenza che nel mondo giuridico italiano non esistono (al di là dei tentativi di rafforzare la funzione nomofilattica)[18].
Le perplessità che si sono espresse non intendono peraltro spingersi sino a negare che l’intelligenza artificiale possa essere d’ausilio sia per limitare i casi di contrasti giurisprudenziali inconsapevoli sia per indirizzare meglio l’attività forense, attraverso la percezione più precisa delle percentuali di successo di un’azione. Questa funzione è una realtà diffusissima che già si coglie riflettendo sull’essenza dei meccanismi di funzionamento delle banche-dati che quotidianamente gli operatori del diritto consultano[19].
Si è già accennato alla stabilità della giurisprudenza come conditio sine qua non per l’intelligenza artificiale in ambiente giudiziario. Costituisce un altrettanto scontato presupposto una certa stabilità della legislazione[20], che però (anch’essa) non esiste in Italia, neppure laddove la certezza del diritto dovrebbe essere connaturale all’ordinamento: come nel diritto penale investito invece da ripetuti flussi di legislazione dell’emergenza (spesso confusa e non coordinata con il sistema del codice), prodotta per contrastare il terrorismo, la criminalità organizzata, l’immigrazione clandestina, la corruzione, ma che sembra a volte perdere di vista il basilare canone della proporzionalità della pena[21].
L’altra notazione riguarda l’essenza stessa del processo amministrativo.
Il processo penale e il processo civile sono prevalentemente giudizi rivolti al passato: si punisce un reato, si risarcisce un torto.
Per il processo amministrativo è diverso. L’ha spiegato magistralmente Mario Nigro[22]: il giudizio è un episodio nel flusso dell’attività amministrativa; non è la fine della vicenda, ma il suo nuovo inizio e ciò anche quando il ricorrente risulti vittorioso. Infatti, nel caso in cui sia portatrice di un interesse pretensivo, è la stessa parte che vuole la riattivazione dell’azione amministrativa, senza la quale non potrà soddisfare realmente le sue pretese; nell’ipotesi in cui invece abbia agito unicamente per opporsi all’agere amministrativo, l’interesse pubblico nel nome del quale sono stati emanati provvedimenti illegittimi non è scomparso, semplicemente non è stato soddisfatto attraverso gli atti annullati dal giudice. Se, ad esempio, era stata programmata la costruzione di una strada, ma l’impugnata espropriazione è risultata illegittima, comunque la strada dovrà essere realizzata: magari con altri atti, magari con un altro percorso o con altri accorgimenti, ma comunque dovrà essere costruita per rispondere alle esigenze di mobilità che l’amministrazione aveva già avvertito.
Questo fenomeno è stato ricostruito anche dai processualisti, che hanno individuato tra gli effetti della sentenza quello conformativo. Anzi, il concetto è stato ampliato tenendo conto delle ricadute extraprocessuali della pronuncia e giungendo così alla definizione dell’effetto conformativo esterno, che prescinde dalle parti del giudizio e che fornisce concrete direttive di interpretazione e di applicazione delle norme alle amministrazioni che dovessero gestire vicende analoghe[23].
Con queste premesse credo quindi che nessun’intelligenza artificiale possa competere con le conoscenze, l’esperienza, il buon senso, l’equilibrio e la flessibilità della mente umana.
Per onestà intellettuale, è però comunque da ipotizzare che, al di là delle opinioni scettiche nei confronti della decisione robotica, essa troverà in futuro in ogni caso ingresso nei sistemi giudiziari.
In quest’ipotesi, si dovrà essere innanzitutto consapevoli che si è compiuta una radicale scelta culturale in favore di un modello anglosassone di giurisdizione che vede nella definizione della controversia la funzione del processo, con l’abbandono dell’idea continentale per la quale si tratta di decidere su chi ha torto o ragione, chi agito contra ius o, al contrario, secondo diritto[24].
Per una (anche approssimativa) valutazione costi-benefici, bisogna sin d’ora aver chiare le controindicazioni.
Alcune sono effetti comuni a tutti i settori e già li avvertiamo nella nostra esperienza quotidiana di fruitori di prodotti informatici.
Mi riferisco a quelli sulla memorizzazione[25] e sulla varietà lessicale.
Da un lato, già l’affidare alla macchina delle semplici fasi di calcolo dei tempi del processo (decadenza, perenzione), dei tempi agli effetti del diritto civile (decadenza, prescrizione), del risarcimento e simili (con programmi già comunemente usati per gli interessi e la rivalutazione) comporta il rischio che si perda il controllo pieno dei parametri. Dall’altro, un impoverimento del linguaggio può discendere dai programmi di correzione ortografica e grammaticale, dotati di un vocabolario standard, e costituisce peraltro il precipitato logico di una tendenza alla normalizzazione che facilita la riconoscibilità di una sentenza come rientrante in un certo orientamento giurisprudenziale[26].
Naturalmente il problema più rilevante è quello specifico: una giurisprudenza che si vuole prevedibile a tutti i costi, deve essere necessariamente statica e conservatrice, resistente ad ogni spinta evolutiva; una giurisprudenza cioè frutto di input che vengono dal passato senza finestre sul futuro.
Questo già astrattamente rappresenta l’inconveniente più grave; in concreto, in Italia, in cui il disordine normativo e la disomogeneità della giurisprudenza rendono il passato (informaticamente trasformato in input) non meno incerto del futuro, il risultato mi sembra addirittura inaccettabile.
Tale conclusione non significa però un aprioristico rifiuto dell’utilizzo della “macchina”, che invece può aiutare sia nello studio della causa (attraverso le banche-dati perfezionate mediante meccanismi di autoapprendimento) sia nella preparazione degli atti, compresa la sentenza (avvalendosi di formulari informatici integrati con le banche-dati). Tuttavia, è difficile ipotizzare che la robotica possa sostituire la realtà umana, intellettiva e psicologica dei protagonisti del processo; così come non è agevole immaginare che i giudizi (soprattutto quelli prognostici) possano scaturire meccanicamente dalla rielaborazione di input; ciò condurrebbe (in una visione deterministica) a togliere qualsiasi significato, speranza e prospettiva alla volontà e al libero arbitrio, alla libertà e all’umanità dei soggetti coinvolti.
Si può invece ragionevolmente prevedere un sempre più frequente utilizzo parziale (e non sostitutivo del giudice) di strumenti (già a volte applicati) che risolvano problemi prevalentemente di calcolo, ad esempio, da una parte, degli interessi e della rivalutazione, di alcune indennità o di alcune voci del risarcimento del danno; dall’altro, dei termini processuali.
Non è poi da escludere che, a lungo termine, non si producano effetti più radicali, anche procedendo con molta prudenza nell’impiego dell’intelligenza artificiale. In questa prospettiva, è probabile che siano individuati in futuro criteri per distinguere (attraverso appositi filtri) le controversie suscettibili di essere decise roboticamente da quelle destinate a percorrere canali tradizionali.
Le prime potrebbero essere le cause di carattere prettamente economico e/o applicative di una normazione stabile e collaudata, interpretata da una giurisprudenza consolidata (si pensi alla materia dei diritti reali o ai casi per i quali è previsto il decreto ingiuntivo[27]). In ogni caso, la decisione affidata agli algoritmi dovrebbe essere richiesta dalle parti, che così rinuncerebbero consapevolmente a quel contraddittorio e a quell’oralità garantita dal processo classico in favore della celerità nella risoluzione del conflitto.
Tra le seconde, un ruolo rilevante e paradigmatico sarebbe assunto da quei contenziosi in cui, anche quando il valore della causa sia elevato, prevalgono gli aspetti personali. Un esempio tipico è costituito dalle liti ereditarie, per le quali qualche volta si è portati addirittura a pensare che sarebbe più conveniente affidarle ad uno psicologo piuttosto che a un giurista …!
Vorrei rendere più concreta l’idea sottesa alle mie affermazioni sull’insostituibilità del giudice con la sua saggezza e umanità, riferendo ciò che, qualche anno fa, un mio amico mi raccontò sulla sua esperienza di giudice civile che si occupava di separazioni.
La sua prima affermazione fu che non aveva mai pronunciato una separazione giudiziale perché in corso di causa i coniugi avevano sempre trovato un accordo. Dopodiché mi narrò la vicenda-tipo: il marito, professionista, resisteva alle pretese economiche della moglie minacciando battaglie sull’affidamento dei figli minori. Il mio amico ascoltava il marito e poi gli faceva presente di non essere un giudice come tutti gli altri, perché non era pregiudizialmente contrario all’affidamento dei figli, anche piccoli, al padre. Continuava il suo discorso sottolineando: “È un’esperienza unica e bellissima seguire i figli nella loro crescita, giorno per giorno: la mattina prepararli per la scuola, accompagnarli, andare a riprenderli e ascoltare i loro racconti e le loro riflessioni; portarli a fare sport, cambiarli prima e dopo la lezione di nuoto, con la soddisfazione di poter assistere alle tappe che percorrono nel diventare più sicuri di sé e più autonomi. Certo, sono provvedimenti di affidamento nuovi, guardarti con una certa diffidenza… Quindi naturalmente sempre sotto la supervisione dei servizi sociali”. A questo punto il marito reagiva chiedendo: “Dove devo firmare?”
Giuseppina Adamo – consigliere T.A.R.
 
pubblicato il 6 marzo 2020
 
 
ABSTRACT
Il dibattito sorto sulle sentenze del giudice amministrativo relative alle procedure di mobilità degli insegnanti, gestite informaticamente, fornisce ulteriori spunti e argomenti, sviluppati nello scritto, a coloro che guardano con diffidenza e scetticismo al possibile utilizzo di sistemi d’intelligenza artificiale nell’attività giurisdizionale.
 
 
 
 

[1] Lo scritto riproduce con alcune integrazioni e correzioni la relazione presentata al seminario “Innovazione tecnologica, azione amministrativa e organizzazione della p.A.” tenutosi a Bari, Palazzo Fizzarotti, il 22 gennaio 2020.
[2] 8 aprile 2019, n. 2270, confermativa della sentenza del TAR del Lazio, sezione terza-bis, I dicembre 2016, n. 12026, e 13 dicembre 2019, n. 8472, confermativa della sentenza del TAR del Lazio, sezione terza-bis, 10 settembre 2018, n. 9230.
[3] Anche 21 marzo 2017, n. 3742; 22 marzo 2017, n. 3769; 10 settembre 2018, nn. 9224-9230; 28 maggio 2019, n. 6686, non appellate.
[4] La giurisprudenza si era occupata peraltro già prima delle esclusioni da procedure avviate attraverso domande a piattaforme telematiche.
[5] Per algoritmo s’intende “Nell’uso odierno, anche con riferimento all’uso dei calcolatori, qualunque schema o procedimento matematico di calcolo; più precisamente, un procedimento di calcolo esplicito e descrivibile con un numero finito di regole che conduce al risultato dopo un numero finito di operazioni, cioè di applicazioni delle regole” (www.treccani.it/vocabolario).
[6] Sinteticamente, in cibernetica, l’intelligenza artificiale è la “riproduzione parziale dell’attività intellettuale propria dell’uomo (con partic. riguardo ai processi di apprendimento, di riconoscimento, di scelta) realizzata o attraverso l’elaborazione di modelli ideali, o, concretamente, con la messa a punto di macchine che utilizzano per lo più a tale fine elaboratori elettronici (per questo detti cervelli elettronici)” (www.treccani.it/vocabolario). La frontiera più avanzata di queste ricerche è rappresentata dalla machine learning (“Branca dell’Intelligenza Artificiale che si occupa dello sviluppo di algoritmi e tecniche finalizzate all’apprendimento automatico mediante la statistica computazionale e l’ottimizzazione matematica” (www.treccani.it/vocabolario/machine-learning_%28Neologismi%29) volti a creare sistemi capaci appunto di auto apprendere.
[7] Non si condivide perciò il giudizio espresso dal TAR Lazio, sezione terza-bis, nelle sentenze 10 settembre 2018, n. 9224, e 27 maggio 2019, n. 6606, secondo le quali “Un algoritmo, quantunque, preimpostato in guisa da tener conto di posizioni personali, di titoli e punteggi, giammai può assicurare la salvaguardia delle guarentigie procedimentali che gli artt. 2, 6, 7, 8, 9, 10 della legge 7.8.1990 n. 241 hanno apprestato, tra l’altro in recepimento di un inveterato percorso giurisprudenziale e dottrinario…. gli istituti di partecipazione, di trasparenza e di accesso, in sintesi, di relazione del privato con i pubblici poteri non possono essere legittimamente mortificati e compressi soppiantando l’attività umana con quella impersonale, che poi non è attività, ossia prodotto delle azioni dell’uomo, che può essere svolta in applicazione di regole o procedure informatiche o matematiche. A essere inoltre vulnerato non è solo il canone di trasparenza e di partecipazione procedimentale, ma anche l’obbligo di motivazione delle decisioni amministrative, con il risultato di una frustrazione anche delle correlate garanzie processuali che declinano sul versante del diritto di azione e difesa in giudizio di cui all’art. 24 Cost., diritto che risulta compromesso tutte le volte in cui l’assenza della motivazione non permette inizialmente all’interessato e successivamente, su impulso di questi, al Giudice, di percepire l’iter logico – giuridico seguito dall’amministrazione per giungere ad un determinato approdo provvedimentale”.  In effetti, la posizione del Consiglio di Stato appare più prudente: “8.1 – Per quanto attiene più strettamente all’oggetto del presente giudizio, devono sottolinearsi gli indiscutibili vantaggi derivanti dalla automazione del processo decisionale dell’amministrazione mediante l’utilizzo di una procedura digitale ed attraverso un “algoritmo” – ovvero di una sequenza ordinata di operazioni di calcolo–che in via informatica sia in grado di valutare e graduare una moltitudine di domande.
L’utilità di tale modalità operativa di gestione dell’interesse pubblico è particolarmente evidente con riferimento a procedure seriali o standardizzate, implicanti l’elaborazione di ingenti quantità di istanze e caratterizzate dall’acquisizione di dati certi ed oggettivamente comprovabili e dall’assenza di ogni apprezzamento discrezionale.
Ciò è, invero, conforme ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 l. 241/90), i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art. 97 Cost.), impongono all’amministrazione il conseguimento dei propri fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale.
Per questa ragione, in tali casi – ivi compreso quello di specie, relativo ad una procedura di assegnazione di sedi in base a criteri oggettivi – l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata: essa comporta infatti numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata.
In altre parole, l’assenza di intervento umano in un’attività di mera classificazione automatica di istanze numerose, secondo regole predeterminate (che sono, queste sì, elaborate dall’uomo), e l’affidamento di tale attività a un efficiente elaboratore elettronico appaiono come doverose declinazioni dell’art. 97 Cost. coerenti con l’attuale evoluzione tecnologica” (13 dicembre 2019, n. 8472).
La diversità dell’impostazione della questione è stata oggetto di diversa valutazione in dottrina (A. Simoncini, “Profili costituzionali della amministrazione algoritmica”, Riv. trim. diritto pubblico, 2019, pag. 1149, spec. pag. 1169; R. Ferrara, “Il giudice amministrativo e gli algoritmi. Nota estemporanea a margine di un recente dibattito giurisprudenziale”, in Diritto amministrativo, 2019, pag. 773, spec. pag. 775).
[8] Anche per il largo uso da parte dell’Amministrazione scolastica di criteri di valutazione predeterminati in tutti i procedimenti di massa che coinvolgono il personale docente, il Consiglio di Stato ha ritenuto che le controversie sulle graduatorie permanenti, anche finalizzate all’assunzione, appartengano alla giurisdizione ordinaria (adunanza plenaria, 12 luglio 2011, n. 11). D’altronde, pure per le controversie sul piano straordinario di mobilità (che, in base all’articolo 1, comma 108, della legge n. 107/2015, era predisposto “Per l’anno scolastico 2016/2017” e “rivolto ai docenti assunti a tempo indeterminato entro l’anno scolastico 2014/2015”) sorge più di un dubbio in ordine alla giurisdizione. Il Consiglio di Stato si è espresso prevalentemente nel senso di ritenere la giurisdizione, perché incidente su un atto di macro-organizzazione (v. Consiglio di Stato, sesta sezione, 16 febbraio 2018, n. 997; 6 luglio 2018, n. 4134; 8 febbraio 2019, n. 968; 18 novembre 2019, n. 7892; 30 dicembre 2019, n. 8902; nonché 24 aprile 2019, n. 2633 che riguarda il personale tecnico-amministrativo), anche se non mancano pronunce di senso diverso (8 maggio 2017, n. 2107; 29 gennaio 2019, n. 733; 11 ottobre 2019, n. 6932). Sulla questione si sono pronunciate, dopo il seminario di Bari, le sezioni unite della Corte di cassazione (20 febbraio 2020, n. 4318; ma già nello stesso senso, 10 aprile 2018 n. 8821) che hanno affermato la natura di mero atto di gestione dell’ordinanza relativa al piano di mobilità.
[9] Il numero delle classi infatti può essere approssimativamente calcolato dopo le iscrizioni degli allievi (D.P.R. 20 marzo 2009, n. 81) per essere poi verificato solo all’inizio dell’anno scolastico dovendosi tener conto tra l’altro della presenza degli alunni con disabilità che comporta la riduzione del numero degli allievi per classe.
[10] Questo aspetto sembra implicito nei documenti elaborati a livello internazionale, come le raccomandazioni del Consiglio dell’OCSE (Organisation for economic cooperation and development) sull’intelligenza artificiale, adottate il 22 maggio 2019 (https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449), che ha individuato i seguenti principi: “Human-centred values and fairness” (in particolare devono essere rispettati “the rule of law, human rights and democratic values, throughout the AI system lifecycle”); “Transparency and explainability” (specificando che deve essere consentito ai soggetti coinvolti da un sistema d’intelligenza artificiale non solo di comprendere i risultati raggiunti ma anche “to challenge its outcome based on plain and easy-to-understand information on the factors, and the logic that served as the basis for the prediction, recommendation or decision”); “Robustness, security and safety”; “Accountability”, nel senso che “AI actors should be accountable for the proper functioning of AI systems and for the respect of the above principles, based on their roles, the context, and consistent with the state of art”.
La stessa Organizzazione ha poi pubblicato, nel novembre 2019, il Working Papers on Public Governance n. 36 dedicato alla Artificial intelligence and its use in the public sector (https://www.oecd-ilibrary.org/docserver/726fd39d-en.pdf?expires=1582713772&id=id&accname=guest&checksum=41011077C9FAFCE2E04356CC2A508E43).
Non si può peraltro ignorare, a proposito della transparency and explainability, che tali obiettivi potrebbero essere non effettivamente perseguibili, perlomeno per i sistemi di deep learning, visto che “Oggi ci troviamo dinanzi ad algoritmi – soprattutto quelli predittivi – che non hanno necessariamente una logica, quanto meno nel senso filosofico o deterministico-matematico con cui normalmente utilizziamo il termine […]. La maggior parte degli algoritmi di nuova generazione […] in virtù dei sistemi automatici di apprendimento […] producono i propri criteri di inferenza. Criteri che in molti casi non sono comprensibili agli stessi programmatori” (A. Simoncini, “Profili costituzionali della amministrazione algoritmica”, cit., pag. 1182).
[11] La European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, adottata dal CEPEJ alla 31ª riunione plenaria tenutasi a Strasburgo il 3-4 dicembre 2018, più incisivamente e specificamente ha incluso, tra i principi elaborati, il quinto (“PRINCIPLE “UNDER USER CONTROL”: preclude a prescriptive approach and ensure that users are informed actors and in control of the choices made”).
Anche la politica dell’Unione europea in materia registra un’accelerazione (si veda, da ultimo, la pagina https://ec.europa.eu/digital-single-market/en/artificial-intelligence che contiene la documentazione più recente), coniugando la consapevolezza dell’utilità di tali strumenti con la prudenza nel relativo utilizzo che necessita di una normazione più puntuale. In specie la comunicazione della Commissione COM(2020) 65 final, denominata White Paper on Artificial Intelligence: a European approach to excellence and trust del 19 febbraio 2020 mette in luce la necessità di misure di COMPLIANCE AND ENFORCEMENT le quali assicurino che “the applicable legal requirements need to be complied with in practice and be effectively enforced both by competent national and European authorities and by affected parties. Competent authorities should be in a position to investigate individual cases, but also to assess the impact on society” (pag. 23)
[12] Questo rappresenta uno degli aspetti critici che ha posto in luce il caso Loomis deciso nel 2016 dalla Corte suprema del Wisconsin anche con l’utilizzo del software predittivo COMPAS, ricostruito da S. Carrer, “Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin”, Giurisprudenza Penale Web, 2019, 4, dove è anche riportata la sentenza.
In Europa il rischio che si verifichi una vicenda analoga dovrebbe essere scongiurato dall’art. 22, paragrafo 1, del Regolamento (UE) 2016/679 sulla privacy (GDPR), per il quale “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. È però anche vero che sono previste deroghe al paragrafo 2 (“Il paragrafo 1 non si applica nel caso in cui la decisione: […] b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato; c) si basi sul consenso esplicito dell’interessato”) tanto ampie da suscitare qualche dubbio sulla reale capacità di tutela della disciplina eurounitaria e sulla sua capacità di resistenza di fronte alla default-option force.
[13] Il tema della “fuga dei tecnici” dai ministeri e del relativo impatto sui processi decisionali pubblici è stato affrontato di recente da A. Marra, “I pubblici impiegati tra vecchi e nuovi concorsi”, Riv. trim. diritto pubblico, 2019, pag. 233, spec. pag. 237 ss.; in una diversa prospettiva: L. Ieva, “Fondamenti di meritocrazia”, Europa edizioni, 2018, pag. 129.
[14] Il dibattito sull’informatizzazione dell’attività amministrativa è sicuramente fondamentale; rimane il dubbio se il caso affrontato dal Giudice sia sorto non tanto per un errato algoritmo quanto perché il piano straordinario di mobilità previsto dalla legge n. 107/2015 (e disciplinato in maniera alquanto confusa dall’ordinanza ministeriale n. 241/2016, che, in pratica, richiamava il contratto nazionale collettivo integrativo sottoscritto il giorno 8 aprile 2016) conteneva una serie di insidie e punti critici non chiariti dai vari atti legislativi e amministrativi, quali l’opzione tra le fasi degli aventi diritto; la contemporaneità del trasferimento con il passaggio di ruolo e di cattedra; l’interferenza con i trasferimenti ordinari; l’avvio dell’organico dell’autonomia.
[15] Mi riferisco a F. Patroni Griffi “La decisione robotica e il giudice amministrativo”, in www.giustizia-amministrativa.it, 2018; in relazione alla funzione giurisdizionale senza distinzioni, M. Luciani, “La decisione giudiziaria robotica”, Riv. AIC, 2019, pag. 872.
[16] Da un punto di vista più generale, tale fenomeno è un prodotto della crisi della decisione pubblica, per cui la soluzione del conflitto viene consapevolmente traslata dal momento politico a quello giudiziario, come limpidamente spiegato nella relazione d’inaugurazione dell’anno giudiziario 2018 del Consiglio di Stato dal presidente Alessandro Pajno, che sul punto osserva: “E così le controversie politiche diventano giuridiche, anzi giudiziarie, ed il giudice rischia di essere il decisore pubblico di ultima istanza, chiamato a pronunciarsi non sulla legittimità dei provvedimenti sottoposti al suo esame, ma sul conflitto politico e sociale che è sotteso alla controversia esaminata”. È quindi difficile da immaginare e d’accettare che decisioni di tal fatta possano essere prese da una macchina per quanto sofisticata.
[17] F. Patroni Griffi “La decisione robotica”, cit.
[18] Basta citare ad esempio un caso tanto frequente quanto trascurato: la questione della competenza ad emanare ordinanze di rimozione dei rifiuti ai sensi dell’articolo 192, comma 3, del decreto legislativo 3 aprile 2006, n. 152, che per anni ha trovato soluzioni divergenti in giurisprudenza. Tale fenomeno, peraltro (purtroppo), mostra non solo la non accuratezza nella redazione delle norme, conseguente anche ad una sottovalutazione dei problemi relativi all’impatto della legislazione, ma anche una colpevole incapacità di riconoscere e risolvere, attraverso le opportune modifiche, le difficoltà e problemi interpretativi e applicativi quando essi emergono.
[19] Considerazioni analoghe, nell’ambito di una critica all’ipotesi dell’intelligenza artificiale, incentrata sulla humanitas, sono espresse da M. Luciani, “La decisione giudiziaria robotica”, cit., pag. 892.
[20] C. Castelli, D. Piana, “Giustizia predittiva. La qualità della giustizia in due tempi”, Questione Giustizia, n.4/2018: “Questo ragionamento di massima va però declinato all’interno della specificità dei sistemi giuridici e giudiziari, tenendo conto di un fattore rilevante: la variabilità della normativa stessa. In ambiti in cui la revisione del quadro normativo costringe le istituzioni che sono responsabili della attuazione di questa ad una azione di aggiustamento, interpretazione e adattamento funzionale la possibilità di prevedere gli orientamenti giurisprudenziali si riduce a fronte degli ambiti o dei periodi nei quali la normativa è consolidata”.
[21] È un tema molto dibattuto tra gli studiosi del diritto penale che tocca anche la restorative justice (per un quadro d’insieme: “La società punitiva. Populismo, diritto penale simbolico e ruolo del penalista” in https://archiviodpc.dirittopenaleuomo.org/d/5087-la-societa-punitiva-populismo-diritto-penale-simbolico-e-ruolo-del-penalista).
[22] “Giustizia amministrativa”, il Mulino, 1983, pagg. 36 e 392.
[23] Il senso di questa riflessione è più incisivamente espresso da Domenico Dalfino, “Stupidità (non solo) artificiale, predittività e processo”, Questione Giustizia, n. 4/2018: “Il punto è proprio questo: il robot agisce in base ad un pensiero che non è il suo, pensa un pensiero che non gli appartiene, un pensiero elargitogli dall’uomo; se si vuole si può dire che pensa un passato senza futuro, perché il futuro si costruisce partendo sì dall’esperienza (ammesso che il robot sia in grado di maturarla), ma anche dalla comprensione del significato e delle conseguenze, anche in termini etici, delle azioni che si compiono. Ma per fare questo occorre anche un’autocoscienza”.
[24] A. Garapon, “Lo Stato minimo. Il neoliberalismo e la giustizia”, Raffaello Cortina editore, 2012, pag. 48 ss.
[25] Il tema potrebbe richiamare alla mente Fahrenheit 451 di Ray Bradbury e il film del 1966 che ne fu tratto, diretto da François Truffaut con Oskar Werner e Julie Christie; più prosaicamente, per prendere consapevolezza delle conseguenze negative, è sufficiente riflettere su quanti numeri di telefono si ricordavano in passato e quanti si rammentano oggi avendo a disposizione la rubrica integrata nel cellulare.
[26] G. Adamo, “La redazione della sentenza nell’era del processo digitale”, in www.giustizia-amministrativa.it e in Diritto e processo amministrativo, 2019, pag. 757, spec. pag. 775.
[27] In questo campo, l’Italia vanta un’esperienza non episodica perché, già nei primi anni ’80, l’Istituto per la documentazione giuridica del CNR di Firenze (in ultimo confluito nell’Istituto di informatica giuridica e sistemi giudiziari) condusse una ricerca sperimentale sul decreto ingiuntivo robotico, come mi spiegarono, ricevendomi con grande disponibilità in una torrida giornata del 1983, Costantino Ciampi e Isabella D’Elia, responsabili del progetto.
Print Friendly, PDF & Email
Torna in alto