La giustizia amministrativa sui concetti di “algoritmo” e di “intelligenza artificiale”

Un bando gara prevedeva la fornitura di pacemaker e tra i criteri per l’assegnazkione <<il parametro tabellare “Algoritmo di prevenzione+trattamento delle tachiaritmie atriali” al quale assegnare 15 punti per l’ipotesi di presenza di entrambi gli algoritmi e 7 punti nel caso di “presenza del solo algoritmo di prevenzione o del solo trattamento delle tachiaritmie atriali>>.

Il TAR, puntualizzato che “la legge di gara richiede unicamente la presenza di un algoritmo di trattamento (senza altro specificare)” ha definito il concetto di algoritmo, <<affermando che “con esso ci si richiama, semplicemente, a una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato (come risolvere un problema oppure eseguire un calcolo e, nel caso di specie, trattare un’aritmia)“. Ha aggiunto, il primo giudice, al fine di meglio circoscrivere il concetto, che “non deve confondersi la nozione di “algoritmo” con quella di “intelligenza artificiale”, riconducibile invece allo studio di “agenti intelligenti”, vale a dire allo studio di sistemi che percepiscono ciò che li circonda e intraprendono azioni che massimizzano la probabilità di ottenere con successo gli obiettivi prefissati…..sono tali, ad esempio, quelli che interagiscono con l’ambiente circostante o con le persone, che apprendono dall’esperienza (machine learning), che elaborano il linguaggio naturale oppure che riconoscono volti e movimenti”.     4. Definita la nozione di algoritmo, il primo giudice ha così concluso il suo percorso argomentativo: “l’algoritmo di trattamento dell’aritmia non è altro che l’insieme di passaggi (di stimoli creati dal pacemaker secondo istruzioni predefinite) necessari al trattamento del singolo tipo di aritmia. Questo concetto non include necessariamente, invece, come erroneamente ritenuto dalla stazione appaltante, che il dispositivo debba essere in grado di riconoscere in automatico l’esigenza (quindi di diagnosticare il tipo di aritmia) e somministrare in automatico la corretta terapia meccanica (trattamento). In altre parole, il dato testuale della lettera di invito non richiede che l’algoritmo di trattamento, al verificarsi dell’episodio aritmico, sia avviato dal dispositivo medesimo in automatico. Tale caratteristica attiene a una componente ulteriore, non indicata nella legge di gara, vale a dire a un algoritmo di intelligenza artificiale nella diagnosi dell’aritmia e avvio del trattamento. Fondatamente, pertanto, Abbott ha dedotto l’erroneità della valutazione della commissione di gara che – pur in presenza di un algoritmo di trattamento delle aritmie nel proprio dispositivo (vale a dire l’algoritmo NIPS, pacificamente definibile come tale) – ha attribuito soli 7 punti anziché 15 al dispositivo offerto. Infatti, la commissione ha confuso, sovrapponendoli indebitamente, il concetto di algoritmo con quello di avvio automatico del trattamento”.>>.

Ora interviene il Consiglio di STato, sez. III,  con sentenza 7891 del 25.11.2021, che sul punto così motiva, distaccandosi dal TAR: <<Non v’è dubbio che la nozione comune e generale di algoritmo riporti alla mente “semplicemente una sequenza finita di istruzioni, ben definite e non ambigue, così da poter essere eseguite meccanicamente e tali da produrre un determinato risultato” (questa la definizione fornite in prime cure). Nondimeno si osserva che la nozione, quando è applicata a sistemi tecnologici, è ineludibilmente collegata al concetto di automazione ossia a sistemi di azione e controllo idonei a ridurre l’intervento umano. Il grado e la frequenza dell’intervento umano dipendono dalla complessità e dall’accuratezza dell’algoritmo che la macchina è chiamata a processare. Cosa diversa è l’intelligenza artificiale. In questo caso l’algoritmo contempla meccanismi di machine learnig e crea un sistema che non si limita solo ad applicare le regole sofware e i parametri preimpostati (come fa invece l’algoritmo “tradizionale”) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico.

9.2. Nel caso di specie, per ottenere la fornitura di un dispositivo con elevato grado di automazione non occorreva che l’amministrazione facesse espresso riferimenti a elementi di intelligenza artificiale, essendo del tutto sufficiente – come ha fatto – anche in considerazione della peculiarità del prodotto (pacemaker dotati, per definizione, di una funzione continuativa di “sensing” del ritmo cardiaco e di regolazione dello stesso) il riferimento allo specifico concetto di algoritmo, ossia ad istruzioni capaci di fornire un efficiente grado di automazione, ulteriore rispetto a quello di base, sia nell’area della prevenzione che del trattamento delle tachiaritmie atriali. I pacemakers moderni e di alta fascia sono infatti dotati di un numero sempre maggiore di parametri programmabili e di algoritmi specifici progettati per ottimizzare la terapia di stimolazione in rapporto alle caratteristiche specifiche del paziente. L’amministrazione ha espresso preferenza per la presenza congiunta di algoritmi di prevenzione e trattamento delle “tachiaritmie atriali”.>>

Consenso al trattamento e oscurità algoritmica

La Cassazione chiarisce il concetto di <consenso>  nella disciplina privacy, inr elazione al caso <Mevaluate> (Cass. 14381 del 25.05.2021 , rel. Terrusi).

Il punto di partenza è il provvedimento 24.11.2016 col quale il Garante (G.) dichiarava incompatibile col cod. privacy il sistema di rating reputazionale progettato da società del gruppo Mevaluate (v. provvedimento Piattaforma web per l´elaborazione di profili reputazionali – 24 novembre 2016 Registro dei provvedimenti n. 488 del 24 novembre 2016, [doc. web n. 5796783] ).

L’impugnazione in Tribunale di Mevaluate era stata accolta.

L’Avvocatura dello Stato però ricorre in Cassazione e con successo.

Non è chiarissimo il contesto fattuale (cioè il funzionamento del meccanismo di controllo reputazionale) ; qui però conta il passaggio teorico sul rapporto tra consenso e algoritmi, ove invece la SC è chiara:

<<Il problema, per la liceità del trattamento, era invece (ed è) costituito dalla validità – per l’appunto – del consenso che si assume prestato al momento dell’adesione. E non può logicamente affermarsi che l’adesione a una piattaforma da parte dei consociati comprenda anche l’accettazione di un sistema automatizzato, che si avvale di un algoritmo, per la valutazione oggettiva di dati personali, laddove non siano resi conoscibili lo schema esecutivo in cui l’algoritmo si esprime e gli elementi all’uopo considera>>, VII, p. 7/8,.

Motivazione esatta (anche se quasi scontata: è inconcepibile una diversa soluzione), anche se troppo sintetica: nemmeno cita le norme pertinenti. Il ricorrente citava anche l’art. 7 reg. UE 679/2016, oltre che l’ex art. 23 cod. priv. Però la fattispecie normativa esatta è la seconda, essendosi il primo applicato solo a partire dal 25 maggio 2018 (v. il suo art. 99).

Solo che, in un’ottica generale, questo è solo l’inizio del problema.   Sempre più numerosi infatti sono i trattamenti algoritmici (peggio: tramite machine learning), il cui assenso allora diventa giuridicamente nullo perchè l’assenziente nulla sa del modus operandi della logica algoritmica impiegata.

Decisione automatizzata della Pubblica Amministrazione e divulgazione (accessibilità) dell’algoritmo sottostante

Iniziano ad aumentare i casi di richiesta di accesso all’algoritmo utilizzato per l’emissione di provvedimenti amministrativi.

Ls sentenza del Consiglio di Stato, sez. VI, 13.12.2019, n. 8472/2019, Reg. Ric. 2936/2019, è molto interessante perchè analizza il ruolo dell’algoritmo nell’azione amministrativa, affermandone la piena utilizzabilità, dati gli evidenti vantaggi (§§ 7-11).

Ne afferma anche però la piena soggezione al principio di trasparenza (§ 13.1)

Nel caso specifico alcuni docenti hanno contestato i provvedimenti di assegnazione delle sedi, resi sulla base di un algoritmo sconosciuto, sopratutto perchè non avevano tenuto conto delle preferenze da loro espresse in domanda, nonostante i posti preferiti fossero disponibili (§ 1).

Nè <<in senso contrario … può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza >> (ivi).

L’espressione pare da intendere nel senso che l’invocazione della riservatezza (tecnicamente: la non riproducibilità causata dalla vigenza di diritto di autore)  va disattesa. Infatti l’impresa, che “negozia” con la PA la realizzazione e consegna di software, sa che il suo uso sarà soggetto agli obblighi di trasparenza dell’azione amministrativa.

Sorgono dubbi circa la proprietà intellettuale.  L’affermazione può forse condividersi quando negli atti negoziali (o amministrativi) di affidamento dell’incarico nulla sia detto in proposito. Se però la fornitrice fosse riuscita ad imporre il divieto assoluto di divulgazione dell’algoritmo, quid iuris? L’interesse pubblico alla trasparenza amministrativa dovrebbe di certo prevalere sull’interesse privato tutelato con la privativa di autore: ma su quale base giuridica?

A fini pratici, inoltre, il CdS ne afferma sì la soggezione alla disciplina del procedimento amministrativo, ma con gli opportuni adattamenti  (§ 16): <<l’amministrazione, nel presente contenzioso, si è limitata a postulare una coincidenza fra la legalità e le operazioni algoritmiche che deve invece essere sempre provata ed illustrata sul piano tecnico, quantomeno chiarendo le circostanze prima citate, ossia le istruzioni impartite e le modalità di funzionamento delle operazioni informatiche se ed in quanto ricostruibili sul piano effettuale perché dipendenti dalla preventiva, eventualmente contemporanea o successiva azione umana di impostazione e/o controllo dello strumento. In tal senso la sentenza può essere confermata ma con diversa motivazione. Infatti, l’impossibilità di comprendere le modalità con le quali, attraverso il citato algoritmo, siano stati assegnati i posti disponibili, costituisce di per sé un vizio tale da inficiare la procedura, in termini analoghi e coerenti rispetto al precedente della sezione più volte citato che, tuttavia, in parte se ne differenziava essendo state provate singole violazioni di legge mentre qui la censura finisce per involgere il metodo in quanto tale per il difetto di trasparenza dello stesso. Ciò ha trovato indiretta conferma dall’avvenuta esecuzione della sentenza appellata, in termini satisfattivi delle posizioni azionate>>.

Commentando la decisione, la dottrina ha evidenziato quattro garanzie (requisiti) per il legittimo ricorso alla decisione algoritmica: conoscibilità, trasparenza, partecipazione e sindacabilità. Circa le prime due, ha precisato che <<si deve poter accedere quanto meno ai seguenti elementi: a) creatori del software; b) criteri utilizzati per la sua  elaborazione; c) modalità di svolgimento della fase istruttoria procedimentale; d) criteri utilizzati per l’adozione della decisione>> (Dalfino, Decisione amministrativa robotica ed effetto performativo. Un beffardo algoritmo per una “buona scuola”, 13.01.2020, Questionegiustizia.it , § 3).

Del resto la P.A. deve fornire ai soggetti “trattati” (i cui dati sono trattati) <<informazioni necessarie per garantire un trattamento corretto e trasparente>>, relative all’ <<esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato>> (art. 13.2.f; art. 14.2.g; art. 15.1.h, GDPR reg. 679/2016).

La direttiva sulla tutela dei segreti commerciali (dir. UE 94372015), del resto, pone la riserva per cui <<La presente direttiva non dovrebbe pregiudicare l’applicazione delle norme dell’Unione o nazionali che prevedono la divulgazione di informazioni, inclusi i segreti commerciali, … alle autorità pubbliche, né essa dovrebbe pregiudicare l’applicazione delle norme che consentono alle autorità pubbliche di raccogliere informazioni per lo svolgimento dei loro compiti>> (cons. 11): compiti tra cui c’è amministrare la giustizia.

Questa sentenza ne cita un altra della medesima sezione sesta, diverso estensore, molto simile come fattispecie da esaminare e come iter ed esito decisionale: Cons. Stato sez. VI, 08.04.2019, n. 2270/2019, Reg. Ric.  4477/2017 , della quale riporto i seguenti passaggi:

  • utilità e legittimità del processodecisionale automatico, § 8.1;
  • necessità però di sottostare alla disciplina comune del procedimento amministrativo, per cui il <<In definitiva, dunque, l’algoritmo, ossia il software, deve essere considerato a tutti gli effetti come un “atto amministrativo informatico”>>, § 8.2. Ne seguono due conseguenze:
  • primo: <<il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) deve essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti>>, § 8.3
  • secondo: <<la regola algoritmica deve essere non solo conoscibile in sé, ma anche soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo. La suddetta esigenza risponde infatti all’irrinunciabile necessità di poter sindacare come il potere sia stato concretamente esercitato, ponendosi in ultima analisi come declinazione diretta del diritto di difesa del cittadino, al quale non può essere precluso di conoscere le modalità (anche se automatizzate) con le quali è stata in concreto assunta una decisione destinata a ripercuotersi sulla sua sfera giuridica>>,  § 8.4.

In altre parole, secondo il C.d.S. questo comporta <<che la traduzione della regola tecnica in regola giuridica avvenga in modo chiaro per l’utente e per il giudice che deve verificarne la legittimità, in un’ottica di trasparenza “irrobustita”; sganciata da schemi predefiniti e orientata unicamente a garantire il risultato della massima spiegabilità. Per rispettare il concetto di massima trasparenza e dunque consentire di attuare quel meccanismo di spiegabilità che consiste nella traduzione della formula tecnica nella regola giuridica a essa sottesa, non basta fornire le istruzioni del software ma occorre che siano resi noti i suoi autori, il procedimento utilizzato per la sua elaborazione, il meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati sele-zionati come rilevanti: in altri termini, il linguaggio sorgente del software. Infatti, gli algoritmi funzionano attraverso appositi software, cioè programmi informatici specifici. A ben vedere, il fulcro della sentenza del Consiglio di Stato sta proprio in questo passaggio argomentativo e nell’accezione “sostanziale” di trasparenza che propone. Non vi è alcun ostacolo giuridico all’utilizzo dell’algoritmo nei procedimenti amministrativi che, anzi, si pone del tutto in linea con il favor generale dell’ordinamento per la digitalizzazione degli uffici pubblici>> (cosi Nicotra-Varone , L’algoritmo, intelligente ma non troppo, in Rivista A.I.C., 2019/4, 22.11.2019, p. 15, a commento di Cons. Stato n. 2270/2019).

L’attività di bilanciamento degli interessi allora dovrà essere compiuta dalla PA a monte e cioè in sede di costruzione dell’algoritmo (V. Canalini, L’algoritmo come “atto amministrativo informatico” e il sindacato del giudice,  nota a C.S. 2270 del 2019, Giorn. dir. amm., 2019, 6, 784).

La dottrina riporta un esito opposto in un caso simile da parte del BGH: <<Nell’ordinamento tedesco, una pronuncia del Bundesgerichtshof ha affrontato la specifica questione dell’incidenza della tutela del segreto sul diritto di accesso alla logica del trattamento automatizzato in relazione a un sistema di scoring sulla affidabilità creditizia . La richiesta di un soggetto interessato ad accedere alle informazioni relative alla logica del sistema di scoring e dunque alle informazioni sui metodi della valutazione dell’affidabilità creditizia, è stata da ultimo respinta dalla Corte federale tedesca. I giudici hanno affermatocome il diritto di accesso alla logica utilizzata dal trattamento automatizzato debba essere interpretato come comprensivo unicamente di dati personali che sono stati rilevanti ai fini del trattamento (input) e della decisione conseguente (output), ma non le formule di scoring, i dati statistici e le informazioni relative ai cluster di riferimento>> (Schneider G., <<Verificabilità>> del trattamento automatizzato dei dati personali e tutela del segreto commerciale nel quadro europeo, in Merc. concorr. regole, 2019, 2, 375). Bisognerebbe però vedere di quale ente si trattava: se fosse un ente sottoposto a disciplina privatistica non essendo una PA, il paragone non sarebbe pertinente. Non pare infatti che la base giuridica del diritto di accesso alle regole del’algoritmo verso la PA possa essere estesa al caso di algoritmo usato da ente privato (nè offrono appigli gli artt. 124, 124 bis, 125 T.U.B. su informazioni precontrattuali e merito creditizio).

Esamina la maggior tutela, emergente dalla giurisprudenza nazionale rispetto a quella offerta dal GDPR Reg. UE 679/2016, Simoncini A., Profili costituzionali della amministrazione algoritmica, Riv. dir. pubbl., 2019, 1169 ss., §§ 3.2-3-3.

Ricorda alcune decisioni TAR 2018-2019 in senso più restrittivo circa l’utilizzabilità degli algoritmi L. Musselli, La decisione amminsitrativa nell’età degli algoritmi, medialaws.eu 2020, p. 8.

Un a. propone di <<pensare all’algoritmo come ad un atto endoprocedimentale, ed al suo utilizzo come ad una fase del procedimento amministrativo destinato poi a concludersi con l’adozione del provvedimento finale>> (Muciaccia N., Algoritmi e procedimento decisionale: alcuni recenti arresti della giustizia amministrativa, www.federalismi.it , 15.04.2020, n. 10/2020, p. 358).

Un recente saggio affronta le questioni in materia: Prosperetti, Accesso al software e al relativo algoritmo nei procedimenti amministrativi e giudiziali. Un’analisi a partire da due pronunce del TAR Lazio, in Dir. informazione e informatica, 2019, 979 ss L’a. ricorda che tra le eccezioni al diritto di autore c’è quella della riproducibilità nei procedimenti amministrativi e giudiziari (art. 67 e 71 quinquies l. aut.).

Tra l’altro , dato che la decisione  è sostanzialmente predeterminata nelle istrizioni date dalla PA alle software house, sulle quali non c’è contraddittorio nè possibilità di intervento dei cives, la partecipazione procedimentale ex legge 241/1990 risulta radicalmente inapplicabile (così G. Avanzini, Decisioni amministrative e algoritmi informatici. Predeterminazione, analisi predittiva e nuove forme di intellegibilità, Editoriale Scientifca, 2019,  134-5 e 138

V. anche l’intervista al giudice Pajno, già presidente del Consiglio di Stato, sulla prima sentenza effettuata da C. Morelli 20.01.2020 su Altalex.

Per un breve saggio introduttivo all’uso degli algoritmi da parte della P.A. in Parona L., Government by algorithm: un contributo allo studio del ricorso allintelligenza artificiale nellesercizio di funzioni amministrative, Giorn. di dir. amm., 2021/1, 10 ss (con indicazioni statunitensi)