GIANLUCA CHECCHINI

Dottore di ricerca

ciclo: XXXIV


supervisore: Prof.ssa Luisa Avitabile

Titolo della tesi: BIG DATA. INIQUITÀ DELLE VALUTAZIONI ALGORITMICHE E PROCEDIMENTO DECISIONALE NELLA PA

Nell’era dei BIG DATA, appare sempre più evidente che un algoritmo condizionerà ogni scelta; sarà un algoritmo a dirci cosa è “giusto” e cosa è “sbagliato” e, addirittura, lo stesso algoritmo interferirà nei rapporti sociali, arrivando ad essere lo strumento (“predittivo”) per eccellenza nelle decisioni non solo private, ma anche e soprattutto pubbliche. La digitalizzazione ha fatto ingresso nella PA a partire dal 2005, e si è via via sviluppata sino ad essere oggi ritenuta lo strumento privilegiato nella gestione dell’attività amministrativa, essendo indiscutibilmente vista con favore per l’agevolazione di procedure a volte complesse e macchinose e il più delle volte ripetitive, nella quali non è certo trascurabile la probabilità di errore umano. L’uso degli algoritmi, permettendo di elaborare con velocità e facilità i dati necessari, in vista dell’emanazione del provvedimento finale, si inserisce in un procedimento di tipo “automatizzato”: è per questa ragione che l’evoluzione tecnologica che ha investito le pubbliche amministrazioni non si è limitata all’uso di tecnologie di tipo informativo o comunicativo, ma si è pian piano spinta oltre, utilizzando gli algoritmi all’interno di procedimenti amministrativi sempre più complessi, sino a sollevare questioni di carattere etico. In particolare, il punto attorno al quale si (pro)muove la questione è prospettare una “compatibilità” dell’utilizzo degli algoritmi con i principi del diritto amministrativo e, soprattutto, valutarne la reale “neutralità decisionale”. Ponendo lo sguardo in un’ottica sostanziale, è evidente che se ad esempio l’istruttoria procedimentale viene sostituita da un’elaborazione robotizzata, l’amministrato, titolare di un interesse legittimo, difficilmente potrà influire sull’azione amministrativa; tuttavia, il cittadino dovrebbe essere messo in condizione di comprendere il funzionamento e la logica che governano l’algoritmo nel caso di lesione dei propri interessi legittimi, ma ciò non sempre si rivela possibile. Alcuni algoritmi risultano, infatti, così complessi da non poter essere conoscibili, in quanto capaci di sviluppare percorsi di auto-apprendimento (“deep learning”) o rivelarsi imprevedibili nei risultati (“machine learning”). E tutto questo avviene in palese violazione dell’obbligo di trasparenza e di motivazione, che dovrebbe essere indefettibilmente alla base del provvedimento finale della Pubblica Amministrazione, la quale dovrebbe consentire di accedere alla comprensione (e, ancor prima, essere in grado di comprenderle essa stessa) delle ragioni giuridiche e dei presupposti di fatto alla base dell’agire decisionale dell’algoritmo. E ancor più “oscure” appaiono le motivazioni (i percorsi logici) che determinano l’algoritmo ad una determinata “scelta”, se soltanto si riflette che tale algoritmo è sin dall’origine tutt’altro che “neutrale”, per il fatto stesso di essere stato creato da un essere umano, con i propri condizionamenti culturali. Un algoritmo – alla base dell’Intelligenza Artificiale (IA) – non può assolutamente essere “obiettivo” in quanto, sin dall’origine, non può che dipendere da chi lo programma, dal proprietario dello stesso e dai dati che gli sono stati caricati, e che deve – sulla base di una logica stabilita sempre dall’uomo e fondata su determinati interessi – “ordinare”. Proprio per questo motivo, nessun algoritmo (o Intelligenza Artificiale) dovrebbe sostituirsi nella valutazione finale (la “decisione”), ad appannaggio esclusivo (o così dovrebbe essere) di un “essere umano”, o, meglio, di un “collettivo di esseri umani”; tanto più che nell’era in cui viviamo, i BIG DATA costituiscono ormai un nuovo ecosistema che si sta evolvendo in maniera incommensurabile, sino ad arrivare ad autorigenerarsi continuamente, assumendo nuove forme, nuovi connotati e, soprattutto, nuove “prospettive decisionali”. In tale contesto interpretativo si sono mosse le pronunce degli ultimi anni del Giudice Amministrativo, che ha sì cercato via via di disciplinare l’utilizzo di procedure robotizzate, al fine di evitare l’elusione dei principi che conformano l’ordinamento ed elaborando un “decalogo”, contenente i criteri di utilizzo dell’algoritmo affinché sia legittimo e conforme ai suddetti principi, ma il tutto sul falso presupposto della “neutralità algoritmica” che, difettando, non potrà che generare “iniquità decisionali” e “incomprensibilità motivazionali”.

Produzione scientifica

11573/1655562 - 2022 - BIG DATA. Iniquità delle valutazioni algoritmiche e procedimento decisionale nella PA
Checchini, Gianluca - 03a Saggio, Trattato Scientifico

11573/619180 - 2014 - I contratti di cloud computing e la responsabilità (contrattuale) del cloud service provider nella gestione dei dati, in particolare, nei rapporti B2B
Checchini, Gianluca - 03a Saggio, Trattato Scientifico

© Università degli Studi di Roma "La Sapienza" - Piazzale Aldo Moro 5, 00185 Roma