Titolo della tesi: Dalla sovranità digitale europea all’ autosovranità individuale: l’algoritmo attraverso il prisma del diritto all’ identità personale
La ricerca prende le mosse dallo studio delle caratteristiche fondamentali che informano il progetto europeo per la sovranità digitale quale condizione strumentale alla tutela dei diritti e delle libertà fondamentali dell’individuo alla base del patrimonio costituzionale comune e, dunque, come condizione di effettività di quello che va sotto il nome di costituzionalismo digitale. In assetti costituzionali, come quelli che caratterizzano il panorama europeo, imperniati sulla centralità dell’individuo e sul compito dello Stato di rimuovere gli ostacoli che impediscono il pieno sviluppo della personalità del singolo, la pervasiva capacità dei sistemi di AI di “datificare” le esistenze individuali, erodendo le possibilità decisionali dell’individuo attraverso un invisibile processo di ridimensionamento dell’opportunità di conoscenza e delle alternative di scelta, ovvero, di subire indebite limitazioni nell’esercizio di diritti che attengono agli attributi ontologici della persona, costituisce, oggi, una delle più importanti sfide alla resilienza e al fondamento degli istituti democratici.
La strategia di realizzazione degli obiettivi costituzionali a cui il progetto europeo per la sovranità digitale vuole essere strumentale, tuttavia, assume forme inedite: nasce infatti come forma reattiva alla “sovranità funzionale” di attori privati, geo-politicamente significativi, quali le piattaforme transnazionali nella loro veste di principali AI-providers. Soggettività “ibride” in grado di assumere prerogative tipicamente pubbliche, quali appunto il bilanciamento e la garanzia di effettività dei diritti fondamentali e il cui potere “infrastrutturale” rappresenta una delle più grandi sfide al concetto di sovranità democratica. Se, come si metterà in luce, la cifra caratterizzante il costituzionalismo digitale è quella di tutelare il nucleo essenziale dei diritti fondamentali nei confronti del “potere privato”, la prima domanda che sorge è come questo obiettivo possa essere raggiunto nel contesto di un sistema transnazionale complesso e “multi-agente”.
Allo scopo di rispondere a tale quesito preliminare, la prima parte del lavoro si focalizza sull’inquadramento del modello piattaforma, quale inedita “forma organizzativa” nata come conseguenza della computazione, per poi analizzarne il processo di progressiva “istituzionalizzazione” nell’ambito del nuovo framework normativo europeo. In particolare, il I Capitolo, dopo aver descritto e concettualizzato il modello sulla scia degli studi critici che vanno sotto il nome di “Platform Studies”, nati dalla spinta propulsiva della scuola di pensiero di Amsterdam, passa in rassegna i principali modelli di Platform Governance ed i relativi trend evolutivi. La disamina è preliminare all’inquadramento del Regulatory Turn con cui l’Europa mira a posizionarsi come “terza via” alternativa alla dicotomia assiale tra il modello liberale, centrato sull’ Industry Self-Regulation, cifra dell’era dell’internet aperto e i modelli sovranisti di stampo stato-centrico, miranti alla ri-territorializzazione delle reti. Se, infatti, le forme di sovranità si distinguono per il tipo di autodeterminazione che esse enfatizzano, nel caso europeo, almeno negli intenti, è il principio di auto-sovranità individuale a fungere da architrave..
Per comprendere, se e in che misura, questo obiettivo possa essere raggiunto, il II Capitolo della tesi si focalizza sull’ output regolatorio della nuova strategia digitale. In particolare, attraverso l’analisi del Digital Services Act (DSA) la cosiddetta “nuova costituzione digitale dell’Europa” si analizzerà come la nuova regolazione affronti: 1) il problema della responsabilità delle piattaforme in quella che nel corso del lavoro sarà inquadrata come “neo-intermediazione” informativa. 2) l’adattamento degli strumenti di regolazione al c.d. “fattore algoritmico” e le relative modalità di implementazione.
Per rispondere ai menzionati quesiti, attraverso un approccio che procede per cerchi concentrici e che vede l’integrazione della prospettiva giuridica e sociologica, la seconda fase della ricerca approssima allo studio ravvicinato di quel sottosistema complesso - “atomo” nella fisiologia nuovo sistema politico multi-agente (SMA) – che definiamo “Sistema Sociale Algoritmico” (SSA), per poi centrare l’analisi sui c.d. sistemi di Raccomandazione Informativa (Recommender Systems-RS).
Nel corso del III Capitolo, verrà quindi proposto un modello euristico generale basato su uno schema tripartito: F.1. Dati, F.2.Codice, F.3 Persone. Il modello permette non soltanto di delineare il quadro sociale, tecnico ed etico necessario a comprendere le più ampie implicazioni delle dinamiche di interazione tra persone, codici e datificazione che questi sottendono, ma fornendo il punto di ingresso per lo studio empirico, apre a nuove intuizioni su come i processi di formazione dell’identità possano essere riplasmati, nell’interazione machine-human.
Avvalendosi di detto schema tripartito quale modello euristico, l’indagine empirica basata su interviste in profondità e descritta nella seconda parte del capitolo, cerca dunque di cogliere, da una più ampia prospettiva, le modalità attraverso cui gli algoritmi, e in particolare i Reccommender Systems (RS), interferiscono sul fascio di diritti fondamentali che se irradiano da quello, che nel corso del lavoro, verrà inquadrato come “prisma dell’identità personale”. Quesito ultimo che fa da sfondo alla ricerca è, infatti, se e in che misura si possa teorizzare, nell’ambito del costituzionalismo digitale europeo, un passaggio dal diritto alla privacy- così come concettualizzato nel GDPR, architrave della regolazione europea del digitale- a un più esteso diritto all’identità personale a tutela dell’auto-sovranità e dell’agency umana nella pervasiva relazione con l’AI.
Dopo aver messo in luce i limiti della concettualizzazione legalistica del diritto alla privacy e alla protezione dei dati, il IV capitolo proporrà un passaggio da una visione statica ed essenzialista dei dati come “bene oggetto” –reificati attraverso l’astrazione dalla materia cui ineriscono- ad una prospettiva dinamica, centrata sulla significatività dell’impatto del trattamento algoritmico dei dati, di qualsiasi natura essi siano, sulla sfera di autonomia del soggetto nella libera disposizione dei diritti, e in ultimo sulla propria costruzione identitaria. Utilizzare il framework dell’identità personale come criterio interpretativo ed assiologico, significa infatti ripensare l’ontologia dei dati, e la sua ricaduta giuridica imperniata sulla supposta distinzione tra dati personali e dati “esterni”. Significa, detto altrimenti, ripensare lo statuto da accordarsi anche a tutti quei dati sottoprodotto dell’interazione uomo-macchina, tecnicamente non personali, il cui trattamento, pur se privo, prima facie, di ricadute verificabili e immediate sulla sfera giuridica del singolo è destinato sul lungo termine a plasmare le opportunità identitarie di individui e gruppi sociali, andando ad impattare a livello sistemico sul nucleo essenziale di diritti a fondamento delle società democratiche.
Attraverso l’integrazione della prospettiva della filosofia morale, l’obiettivo del V Capitolo è quello di mostrare come l’interferenza algoritmica agisca su dimensioni e precondizioni della libertà di scelta e di azione (libertà nei contesti empirici), e così, facendo, sul concetto stesso di soggettività umana, richiedendo pertanto di estendere il dibattito oltre il perimetro di “privacy -protezione dei dati” in cui viene di regola ricondotto. Nel tentativo di ampliare anche le concezioni informazionali o c.d. auto-fondative della privacy, in un quadro evolutivo, avallato dal percorso dottrinale e giurisprudenziale in materia, si proverà quindi a dare contenuto a quelle che possono definirsi le condizioni minime a garanzia di una costruzione che possa dirsi moralmente libera del percorso identitario individuale.
Sulla base di tali premesse, si procederà, in conclusione del Capitolo, alla (ri)lettura del “problema etico della raccomandazione algoritmica” assumendo come livello di astrazione le tre dimensioni in cui articoliamo il prisma dell’identità personale: 1.) dimensione epistemica,2) dimensione socio-relazionale, 3) dimensione morale.
Evidenziando attraverso queste lenti, quelle che sembrano le principali criticità dell’attuale regolazione e delle proposte in atto, e tenuto conto del ridotto numero di studi che affronta il problema come oggetto autonomo di indagine- si descriveranno le nuove possibili traiettorie d’indagine.
Dopo aver collegato, nel corso del VI Capitolo, i risultati alle potenziali implicazioni derivanti dallo sviluppo e l’immissione dei General Purpose Artificial Intelligence Systems (GPAIS), in particolare dei Large Language Models (LLMs), si tracceranno, in conclusione, le premesse ontologico-normative per un percorso in grado di condurre dal principio del consenso informato al trattamento dei dati, corollario del concetto di privacy, ad una nozione più ampia di consenso “trust-based”, quale processo orizzontale ex ante, a garanzia del rispetto di autonomia ed autosovranità degli “human recipients” circa l’an ed il quomodo dell’ammissibilità delle interferenze digitali e dei sistemi di AI in ciò che si vuole a fondamento del concetto di soggettività umana.