MARTA MARGHERITA GRASSO

Dottoressa di ricerca

ciclo: XXXVIII



Titolo della tesi: Infrastrutture di disuguaglianza: un’indagine socio-tecnica sui bias di genere ed etnici nei sistemi di intelligenza artificiale

Il presente progetto di tesi indaga i bias di genere ed etnici dei sistemi algoritmici adottando una prospettiva socio-tecnica che intende riconoscere tali tecnologie come agenti sociali e infrastrutture di disuguaglianza capaci di riprodurre e amplificare disparità storicamente radicate. Inserendosi in un contesto di crescente interesse rivolto alle dinamiche discriminatorie provocate dai processi di dataficazione e automazione, la ricerca si propone di esplorare la dimensione contestuale e situata dei bias algoritmici, rifiutando interpretazioni riduttive che li considerano esclusivamente anomalie tecniche o carenze procedurali (Airoldi, 2022). Al contrario, la tesi parte dal presupposto che tali distorsioni siano intimamente intrecciate ai rapporti di potere che informano la società e alla persistenza di logiche di esclusione e marginalizzazione che confluiscono anche nelle pratiche tecnologiche (Costanza-Chock, 2020; D’Ignazio & Klein, 2020; Noble, 2018). Il lavoro si articola in tre capitoli. Il primo capitolo contestualizza l’analisi dei bias algoritmici nella società delle piattaforme, con riferimento agli studi fondativi che hanno informato la ricerca sociologica in questo campo e specifica attenzione alle prospettive femministe intersezionali e decoloniali. Descrive, in particolare, come questi sistemi, attraverso processi di classificazione e ottimizzazione, influenzino le dinamiche di riconoscimento e accesso alle risorse e alle opportunità. In questo scenario, le tecnologie algoritmiche non si limitano a riflettere il sociale, ma lo costituiscono attivamente, agendo come attanti che plasmano le relazioni simboliche, culturali ed economiche (Crawford, 2021; van Dijck, Poell & de Waal, 2019). Il secondo capitolo presenta una scoping review realizzata secondo il protocollo PRISMA (Page et al. 2021), che ha permesso di mappare la letteratura accademica sui bias di genere ed etnici incorporati dalle tecnologie di ML/IA e di evidenziare la frammentazione concettuale e la predominanza di prospettive specialistiche che tendono a escludere i punti di vista dei soggetti direttamente coinvolti nella progettazione di tali sistemi. La mancanza di definizioni condivise per concetti come bias, equità (fairness) e inclusività ostacola la possibilità di costruire strumenti teorici e operativi capaci di affrontare la complessità dei fenomeni discriminatori (Hall & Ellis, 2023; Kekez et al., 2025). Questa lacuna è ancor più significativa se si considera come tali concetti siano spesso declinati in astratto, senza un adeguato ancoraggio alle esperienze e alle posizioni dei professionisti e dei gruppi storicamente marginalizzati. A partire da questi risultati, il capitolo successivo presenta l’analisi tematica (Braun & Clarke, 2006) dei dati raccolti attraverso 35 interviste a persone sviluppatrici di tecnologie basate sull’IA. Le testimonianze emerse evidenziano anche in questo caso una vaghezza definitoria e una sovrapposizione concettuale delle nozioni di bias, equità e inclusività, nonché una consapevolezza delle discriminazioni algoritmiche generalmente superficiale. In alcuni casi persistono narrazioni di neutralità tecnologica (Airoldi & Gambetta 2018; Natale & Ballatore, 2017). Alla luce di queste analisi, il capitolo conclusivo integra evidenze teoriche ed empiriche per delineare una sintesi definitoria dei tre concetti cardine e proporre un insieme di macro-principi e linee d’indirizzo per la mitigazione delle disuguaglianze algoritmiche articolate lungo cinque livelli interdipendenti – dati, team, modello, utenti, contesto. L’obiettivo è quello di superare la frammentazione corrente e di orientare la progettazione verso l’intersezionalità, la prossimità, la decolonizzazione e la liberazione. L’intero percorso è concepito in una prospettiva longitudinale, attenta ai cicli iterativi di progettazione e valutazione, capace di osservare come definizioni normative e pratiche operative si riconfigurino al mutare delle strutture organizzative e dell’ecosistema tecnologico.

Produzione scientifica

11573/1758419 - 2025 - I controversi suicide games nel racconto del sistema informativo italiano. Effetti di agenda-setting, misinformation e dinamiche di influenza tra media
Panarese, P.; Azzarita, V.; Grasso, M. - 01a Articolo in rivista
rivista: COMUNICAZIONI SOCIALI (Milano : Vita e pensiero) pp. 1-18 - issn: 1827-7969 - wos: (0) - scopus: (0)

11573/1760499 - 2025 - Disuguaglianze in codice. Un’esplorazione della discriminazione algoritmica come violenza contro le donne
Panarese, P.; Azzarita, Vittoria; Grasso, Marta - 01a Articolo in rivista
rivista: SOCIOLOGIA DELLA COMUNICAZIONE (Milano : Franco Angeli) pp. 117-136 - issn: 1972-4926 - wos: (0) - scopus: (0)

11573/1752351 - 2025 - UNFAIR ALGORITHMS. MAPPING THE CURRENT RESEARCH LANDSCAPE ON GENDER BIASES IN ALGORITHMIC SYSTEMS
Panarese, Paola; Azzarita, Vittoria; Grasso, Marta - 04b Atto di convegno in volume
congresso: IX Congreso Internacional Género y Comunicación - GENDERCOM (Cadiz, Spain)
libro: Comunicación y Género en el siglo XXI Debate transdisciplinar en inglés, portugués, español e italiano - (9791370065881)

11573/1742996 - 2025 - Algorithmic bias, fairness, and inclusivity: a multilevel framework for justice-oriented AI
Panarese, Paola; Grasso, Marta Margherita; Solinas, Claudia - 01a Articolo in rivista
rivista: AI & SOCIETY (London: Springer Verlag) pp. 1-23 - issn: 1435-5655 - wos: (0) - scopus: (0)

11573/1691894 - 2023 - Sfide online e fake news. La narrazione mediale dei controversi suicide games
Azzarita, V.; Grasso, M.; Panarese, P. - 02a Capitolo o Articolo
libro: Social media challenge. Processi, attori e rappresentazioni delle sfide virali negli ambienti digitali - (9788835148890)

11573/1684239 - 2023 - Gender games. Gender roles in sport social media challenges: a content analysis
Azzarita, Vittoria; Carbonari, Maddalena; Grasso, Marta Margherita; Miraglia, Cosimo - 01a Articolo in rivista
rivista: ÁMBITOS (Sevilla: Departamento de Periodismo II Universidad de Sevilla) pp. 92-108 - issn: 1139-1979 - wos: (0) - scopus: (0)

11573/1755717 - 2023 - Social media challenge a rischio: una rassegna teorica
Grasso, Marta; Miraglia, Cosimo - 02a Capitolo o Articolo
libro: Social media challenge. Processi, attori e rappresentazioni delle sfide virali negli ambienti digitali - ()

11573/1698256 - 2023 - Narrazioni a reti unificate. La rappresentazione delle Social Media Challenge nei media informativi italiani e su X (Twitter)
Panarese, Paola; Azzarita, Vittoria; Grasso, Marta - 01a Articolo in rivista
rivista: PROBLEMI DELL'INFORMAZIONE (Societa Editrice il Mulino Spa:Strada Maggiore 37, I 40125 Bologna Italy:011 39 051 256011, EMAIL: diffusione@mulino.it, INTERNET: http://www.mulino.it, Fax: 011 39 051 256034) pp. 425-448 - issn: 0390-5195 - wos: (0) - scopus: (0)

11573/1595384 - 2021 - I delitti passionali del giornalismo italiano. L’ordine di genere nel trattamento giornalistico del femminicidio di Elisa Pomarelli
Panarese, Paola; Miraglia, Cosimo; Grasso, Marta - 01a Articolo in rivista
rivista: PROBLEMI DELL'INFORMAZIONE (Societa Editrice il Mulino Spa:Strada Maggiore 37, I 40125 Bologna Italy:011 39 051 256011, EMAIL: diffusione@mulino.it, INTERNET: http://www.mulino.it, Fax: 011 39 051 256034) pp. 413-437 - issn: 0390-5195 - wos: (0) - scopus: (0)

© Università degli Studi di Roma "La Sapienza" - Piazzale Aldo Moro 5, 00185 Roma