Titolo della tesi: Learning Symbolic Planning Models from Images
La costruzione di modelli simbolici per la pianificazione, in particolare nel linguaggio PDDL,
è ancora una sfida nell’Intelligenza Artificiale, poiché richiede progettazione manuale.
Questa tesi esplora come apprendere automaticamente, e senza supervisione, modelli d’azione PDDL da input visivi grezzi, con attenzione all’efficacia della pianificazione e all’interpretabilità semantica.
Il lavoro si basa su Latplan, un sistema che apprende rappresentazioni simboliche da immagini tramite codifica in uno spazio latente. Nella prima parte del lavoro di tesi, viene migliorato Latplan senza apportare modifiche architetturali, usando regolarizzazione fuzzy e ottimizzazione degli iperparametri. Questi metodi migliorano le prestazioni in domini semplici, ma non risolvono i limiti principali di Latplan: scarsa interpretabilità delle azioni e piani generati irrealistici (“allucinati”). Proponiamo quindi R-Latplan, un’estensione architetturale del sistema con etichettatura deterministica delle azioni basata su differenze visive, migliorando le prestazioni anche in presenza di rumore. Tuttavia, la scalabilità resta un problema per l’elevato numero di azioni generate. Perciò, per ridurre lo spazio delle azioni, nel lavoro di tesi si sono investigate diverse tecniche: inizialmente vengono usati Alberi di Decisione per identificare pattern di effetti e precondizioni nelle azioni generate da R-Latplan. Tuttavia questo approccio non consente di produrre modelli di azioni che supportano una pianificazione efficiente. Successivamente, si propone un approccio denominato RC-Latplan, in cui vengono clusterizzate le azioni di basso livello di R-Latplan in gruppi semanticamente equivalenti, ciascuno dei quali è trasformato in una singola azione PDDL.
Un’analisi sperimentale dimostra che RC-Latplan riduce considerevolmente lo spazio delle azioni e preserva la loro interpretabilità. Sebbene RC-Latplan generalmente risulti in modelli di azioni che sono meno performanti dei modelli di R-Latplan, una delle varianti considerate in RC-Latplan genera una rappresentazione del dominio logicamente equivalente a quella di R-Latplan (ma più compatta).
Infine la tesi esplora una ricerca complementare in cui ho contribuito nello studio delle Visual Reward Machines (VRMs), un framework per apprendere automi simbolici da osservazioni visuali, al fine di migliorare l'apprendimento in ambienti con reward sparso.