  BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//ISISLab - ECPv6.3.3//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:ISISLab
X-ORIGINAL-URL:https://www.isislab.it
X-WR-CALDESC:Eventi per ISISLab
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Rome
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20250330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20251026T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Rome:20251107T000000
DTEND;TZID=Europe/Rome:20251107T130000
DTSTAMP:20260502T003114
CREATED:20251105T095930Z
LAST-MODIFIED:20251105T095947Z
UID:50612-1762473600-1762520400@www.isislab.it
SUMMARY:Seminario: "Analisi di segnali vocali per la classificazione di soggetti patologici tramite estrazione di feature acustiche e modelli di Machine Learning con openSMILE" di Roberto Giuseppe Scarpae Marco Renella
DESCRIPTION:Abstract: Il presente lavoro di tirocinio si inserisce nell’ambito dell’analisi automatica del segnale vocale con l’obiettivo di individuare differenze acustiche significative tra soggetti appartenenti a gruppi di controllo e soggetti pazienti.A partire da registrazioni audio grezze\, è stato sviluppato un flusso di elaborazione comprendente la pulizia dei segnali tramite audiocleaner.ai\, l’estrazione delle feature acustiche mediante OpenSMILE (set eGeMAPS) e la definizione di feature personalizzate derivate da parametri di fonazione\, pause e variazioni spettrali.I dataset risultanti sono stati integrati e bilanciati mediante la tecnica SMOTE\, per mitigare lo squilibrio tra le classi prima della fase di addestramento. Il modello di classificazione scelto è un Random Forest Classifier\, selezionato per la sua robustezza\, interpretabilità e capacità di gestire feature eterogenee.Le valutazioni sperimentali\, effettuate tramite balanced accuracy e metriche derivate dal classification report\, hanno evidenziato una capacità del modello di distinguere le due classi con un’accuratezza bilanciata pari al 72%.Il sistema proposto costituisce una base solida per ulteriori sviluppi orientati al miglioramento delle prestazioni predittive e all’identificazione di marcatori vocali potenzialmente utili per il supporto alla diagnosi e al monitoraggio clinico.
URL:https://www.isislab.it/event/seminario-analisi-di-segnali-vocali-per-la-classificazione-di-soggetti-patologici-tramite-estrazione-di-feature-acustiche-e-modelli-di-machine-learning-con-opensmile-di-roberto-giuseppe-scarpae-m/
CATEGORIES:Seminari
ATTACH;FMTTYPE=image/png:https://www.isislab.it/wp-content/uploads/2025/11/Seminar-2025-11-07.png
END:VEVENT
END:VCALENDAR