ISISLab

Caricamento Eventi

« Tutti gli Eventi

  • Questo evento è passato.

Presentazione dei lavori di tesi di Antonio Caiazzo, Luca Del Bue e CHOAIB GOUMRI

Novembre 28, 2025 @ 10:30 am - 11:30 pm

  • Speaker1:
    • Antonio Caiazzo
  • Titolo:
    DUBME: una piattaforma web cloud-native per la generazione di contenuti audiovisivi con avatar 3D tramite text-to-speech e lip-sync
  • Abstract:
  • Negli ultimi anni, la generazione automatica di contenuti multimediali basati su avatar 3D ha suscitato un crescente interesse, trovando applicazione in ambiti che spaziano dalla comunicazione digitale alla formazione interattiva. Tuttavia, le soluzioni attualmente disponibili risultano spesso frammentate o vincolate a software specialistici, limitando la possibilità per gli utenti di creare e gestire in modo semplice e centralizzato i propri contenuti audiovisivi personalizzati.

    Questa tesi introduce DUBME, una piattaforma web cloud-native progettata per semplificare la produzione e la gestione di contenuti audiovisivi basati su avatar 3D. La piattaforma consente all’utente di accedere tramite account personale o provider esterni, creare progetti organizzati in cartelle e generare video a partire da un testo, applicando sintesi vocale (Text-to- Speech, TTS) e sincronizzazione labiale (lip-sync) sull’avatar selezionato. Ogni progetto raccoglie titolo, testo, avatar scelto e cartella di destinazione, garantendo un flusso creativo fluido in un ambiente centralizzato e facilmente gestibile.

    Gli sviluppi futuri prevedono l’ampliamento della libreria di avatar, la personalizzazione dello sfondo, la condivisione di cartelle e progetti tra più utenti e il caricamento di avatar personalizzati. Ulteriori evoluzioni includeranno funzionalità di montaggio ed editing video direttamente online, permettendo di combinare più clip generate dagli avatar, inserire transizioni, testi e audio di sottofondo, fino ad arrivare a funzionalità collaborative in tempo reale. Queste estensioni trasformeranno DUBME in un vero ambiente di post-produzione cloud-native capace di abilitare nuovi scenari creativi e applicativi.
  • Speaker2:
    • Luca Del Bue
  • Titolo:
    M²CS: Una libreria per lo storage multi/hybrid-cloud con funzionalità di replica trasparente.
  • Abstract:

Con la crescente diffusione delle architetture cloud-native, emerge la necessità di gestire in modo efficiente e uniforme i dati distribuiti su diversi servizi di storage. M²CS (Multi-Cloud Multi-Storage), una libreria sviluppata in Go, si propone come livello di astrazione tra le applicazioni e i provider di storage, siano essi cloud o on-premise. La tesi illustra la progettazione e l’implementazione di questa libreria, con particolare attenzione alle operazioni CRUD e alla gestione, sia sincrona che asincrona, dei dati in modo trasparente, efficiente (compressione) e sicuro (cifratura) verso servizi eterogenei quali AWS S3, Azure Blob Storage e MinIO. La caratteristica distintiva di M²CS è la capacità di replicare automaticamente i file su più provider, garantendo alta disponibilità, affidabilità e indipendenza dal vendor.

  • Speaker3:
    • CHOAIB GOUMRI
  • Titolo:
    Serious training nell’Industria 4.0 tramite un portale cross-reality sviluppato con il framework CrossWarp
  • Abstract:

Negli ultimi anni l’integrazione tra ambienti virtuali e tecnologie di realtà aumentata e diventata centrale nei contesti industriali. Questa tesi presenta un caso d’uso del framework CrossWarp, pensato per favorire esperienze collaborative ibride e transizioni fluide tra diversi livelli di realtà, applicato alla simulazione di un impianto automatizzato con finalità di formazione e valutazione. Il progetto propone un serious game per l’ispezione qualitativa: oggetti digitali, trasportati da nastri e rulli simulati, interagiscono con un portale digitale che permette di visualizzarne lo stato interno o alternativo. Una volta entrata la box nella scena VR, l’operatore può fermare il nastro, prelevare l’oggetto e spostarlo in AR per la verifica; se conforme rientra nel flusso, altrimenti rimane in AR come difetto. Alla ripartenza, il sistema fornisce feedback quantitativo su quanti oggetti difettosi e non sono stati rilevati e in quanto tempo è stata eseguita tale ispezione. Sviluppata con Unity e Photon Fusion, l’applicazione supporta interazioni multiutente in tempo reale per scenari di training cooperativo. Lo scenario mostra come la Cross Reality, tramite CrossWarp, possa essere uno strumento efficace per simulazione, formazione tecnica e valutazione delle competenze in contesti ibridi, introducendo dinamiche ludiche a supporto dell’apprendimento.

Laboratorio ISISLab, Dipartimento di Informatica, Università di Salerno (Edificio F, Lab. 10, II piano)

Via Giovanni Paolo II, 132, 84084 Fisciano SA
Fisciano, Italy Italy