Abstract: Il Question Answering (QA) mira ad un recupero automatico e veloce dei pattern ricorrenti nei dati. Gli LLM vanno nella stessa direzione, unendo anche la capacità di generazione di una risposta in linguaggio naturale. Alcuni lavori recenti, hanno studiato la sensibilità del LLM-driven QA rispetto al formato dei dati in input, ma, per quanto ne sappiamo, al momento non esiste una valutazione sistematica che sia in grado di quantificare queste differenze. A questo scopo, studieremo l'impatto che il formato di input provoca su un'attività di LLM-driven QA, attraverso i dati di qualità sulla piattaforma KGHeartBeat, pensata per facilitare la valutazione e il confronto tra KG. Verrà presentata una soluzione basata su Ipergrafi e, successivamente, verrà confrontata con 3 baselines (CSV, Unstructured, KG). Il nostro obiettivo è trovare una rappresentazione in grado da far emergere pattern e comportamenti intrinseci in maniera naturale. Data la sua maggiore flessibilità ed espressività, l'Ipergrafo sembra un ottimo candidato. Per questo, come related work, presenteremo una SLR sulla combinazione tra Ipergrafi e tecnologie del Web Semantico, evidenziando i risultati e riscontri principali nella letteratura di ricerca sul tema. Gli esperimenti, con i dati di qualità di KGHeartBeat, dimostrano che gli Ipergrafi possono migliorare significativamente le prestazioni, soprattutto nelle domande più complesse.
"Ontologie per la gestione multi-cloud: analisi dei modelli semantici emergenti, servizi supportati e gap di ricerca" di Maria Cascone
Abstract:
Il panorama del cloud computing è caratterizzato da un’elevata eterogeneità: i principali
provider, pur condividendo concetti infrastrutturali comuni, implementano servizi, modelli
operativi e API tramite soluzioni spesso proprietarie. Questa frammentazione genera
fenomeni di vendor lock-in, ostacola la portabilità delle applicazioni e limita
l’interoperabilità tra piattaforme, rendendo complessa l’adozione di architetture multi-cloud
integrate. Alla base di tale disomogeneità vi è anche l’assenza di standard condivisi,
alimentata da strategie commerciali che tendono a mantenere gli utenti all’interno di
ecosistemi chiusi; al contrario, le organizzazioni richiedono oggi strumenti che facilitino
migrazioni, orchestrazioni e integrazioni trasparenti tra ambienti differenti, senza costi
aggiuntivi o eccessive complessità architetturali.
In questo contesto, le ontologie — potenti strumenti di modellazione semantica — offrono
un’opportunità concreta per superare tali limitazioni. Attraverso la rappresentazione formale
e condivisibile dei concetti, delle relazioni e dei vincoli che caratterizzano servizi e risorse
cloud, le ontologie permettono di superare la rigidità degli schemi dati proprietari e delle
descrizioni strutturate in modo non uniforme. Linguaggi standard come OWL (Web
Ontology Language) e RDF (Resource Description Framework) consentono di definire un
vocabolario rigoroso e interoperabile, capace di descrivere non solo entità infrastrutturali e
componenti software, ma anche la semantica delle loro interazioni.
La formalizzazione semantica supporta, tra l’altro, la modellazione unificata di risorse
computazionali, servizi PaaS e SaaS, configurazioni, dipendenze applicative e politiche di
orchestrazione, indipendentemente dal provider. Un livello concettuale comune permette di
verificare la compatibilità tra servizi, inferire configurazioni equivalenti, identificare
corrispondenze funzionali e suggerire possibili strategie di migrazione. L’impiego di
ragionamento automatico, tassonomie, proprietà e restrizioni abilita inoltre la costruzione di
knowledge graph orientati al cloud, che forniscono una rappresentazione coerente, globale e
aggiornabile dell’infrastruttura. Ciò favorisce attività come la gestione multi-cloud, il
porting applicativo, il monitoraggio semantico e l’automazione dei deployment, oltre a
integrare efficacemente strumenti di orchestrazione, framework DevOps e piattaforme di
gestione dei servizi.
Alla luce di queste premesse, la presente tesi conduce un’analisi sistematica dell’impiego
delle ontologie per la gestione multi-cloud e la portabilità applicativa tramite una Multivocal
Literature Review (MLR). Tale approccio combina letteratura scientifica peer-reviewed con
grey literature — come white paper, blog tecnici, documentazione professionale e repository
open-source — allo scopo di cogliere sia le soluzioni consolidate in ambito accademico sia
le pratiche emergenti nella comunità industriale. Fonti aperte come GitHub, Zenodo e LOD
Cloud sono risultate essenziali per individuare modelli concettuali, strumenti e ontologie
oggi effettivamente utilizzati.
La metodologia adottata si basa sulle best practices delle revisioni sistematiche, integrando i
principi di PRISMA[1] e le linee guida di Kitchenham & Charters[2], ampiamente
riconosciute nel software engineering per la definizione trasparente e strutturata dei
protocolli di ricerca. Questi riferimenti hanno guidato le fasi di definizione delle domande di
ricerca, identificazione delle fonti, selezione, valutazione della qualità e sintesi dei dati.
A tali fondamenta si affianca in modo centrale la guida di Garousi et al., Guidelines for
Including Grey Literature and Conducting Multivocal Reviews[3], utilizzata come
riferimento principale per la gestione della componente multivocale. Essa fornisce
procedure operative per includere in modo rigoroso la grey literature, definendo criteri
specifici per valutarne attendibilità, rilevanza e contributo informativo. L’applicazione di
questa guida ha consentito di integrare in modo sistematico la dimensione industriale —
rappresentata da documentazione tecnica, report professionali e repository open-source —
all’interno della revisione, garantendo un equilibrio metodologicamente solido tra ricerca
accademica e pratiche operative. L’adozione congiunta di PRISMA, Kitchenham & Charters
e Garousi ha assicurato un impianto metodologico robusto, capace di coniugare formalità
scientifica e apertura verso il mondo industriale, caratteristico del dominio del cloud
computing.
La revisione è stata condotta applicando criteri espliciti di inclusione ed esclusione,
procedure di valutazione della qualità delle fonti e un processo di sintesi rigoroso. Due
revisori indipendenti hanno supervisionato le fasi di selezione e analisi per garantire
l’affidabilità e l’oggettività dei risultati. Strumenti come RO-Crate[4] e le raccomandazioni
FORCE11[5] sono stati impiegati per rappresentare e standardizzare in modo
machine-readable gli artefatti digitali considerati, promuovendo trasparenza e piena
riproducibilità della revisione.
Il corpus finale comprende 1253 contributi provenienti da database accademici (Scopus[6],
IEEE Xplore[7], ACM Digital Library[8]) e da fonti aperte. L’analisi ha permesso di
delineare lo stato dell’arte nell’uso delle ontologie per modellare e orchestrare risorse e
servizi cloud, individuando i principali framework semantici (OWL, RDF, SPARQL,
Knowledge Graphs), il livello di maturità delle soluzioni, le tendenze emergenti e le
principali lacune, in particolare relative alla standardizzazione delle API, al coordinamento
tra provider e alla gestione semantica delle dipendenze applicative.
Il contributo del lavoro è prevalentemente di natura analitica e metodologica: la tesi fornisce
una mappatura strutturata delle pratiche esistenti, una valutazione critica delle soluzioni
ontologiche proposte e una base conoscitiva solida per future ricerche sul ruolo delle
tecnologie semantiche nella gestione interoperabile delle piattaforme cloud.