Nel panorama della ricerca sul patrimonio storico, la segmentazione semantica delle nuvole di punti 3D sta guadagnando sempre più attenzione, poiché permette di riconoscere automaticamente gli elementi architettonici storici. Tuttavia, la segmentazione semantica è particolarmente difficile nell'architettura storica e classica, a causa della complessità delle forme e della limitata ripetibilità di elementi in edifici diversi, che rende difficile definire modelli comuni all'interno della stessa classe architettonica. Inoltre, poiché i modelli di deep learning richiedono una quantità considerevolmente grande di dati annotati per essere addestrati al fine di gestire adeguatamente nuove scene, la mancanza di sufficientemente ampi data set di nuvole di punti annotate pubblicamente disponibili per edifici storici è un problema enorme, tanto da costituire un collo di bottiglia nella ricerca. D’altra parte, la creazione di una massa critica di nuvole di punti etichettate mediante annotazione manuale è molto dispendiosa in termini di tempo e poco pratica. A tal fine, in questo lavoro viene esplorata l'idea di sfruttare i dati sintetici delle nuvole di punti per addestrare modelli di deep learning che eseguono la segmentazione semantica delle nuvole di punti. Per raggiungere questo scopo, viene presentata una versione migliorata della Dynamic Graph CNN (DGCNN) denominata RadDGCNN. Negli esperimenti presentati in questo lavoro, i modelli vengono addestrati su dataset sintetici (disponibili pubblicamente) di due diversi edifici storici: Palazzo Ducale di Urbino e il Palazzo Ferretti ad Ancona. La filiera si imposta sui modelli degli stessi edifici acquisiti tramite Laser Scanner Terrestre. La rete RadDGCNN produce buoni risultati, dimostrando migliori prestazioni di segmentazione sui dataset reali
Apprendimento da dati sintetici di nuvole di punti per la segmentazione semantica di edifici storici
M. Paolanti;
2020-01-01
Abstract
Nel panorama della ricerca sul patrimonio storico, la segmentazione semantica delle nuvole di punti 3D sta guadagnando sempre più attenzione, poiché permette di riconoscere automaticamente gli elementi architettonici storici. Tuttavia, la segmentazione semantica è particolarmente difficile nell'architettura storica e classica, a causa della complessità delle forme e della limitata ripetibilità di elementi in edifici diversi, che rende difficile definire modelli comuni all'interno della stessa classe architettonica. Inoltre, poiché i modelli di deep learning richiedono una quantità considerevolmente grande di dati annotati per essere addestrati al fine di gestire adeguatamente nuove scene, la mancanza di sufficientemente ampi data set di nuvole di punti annotate pubblicamente disponibili per edifici storici è un problema enorme, tanto da costituire un collo di bottiglia nella ricerca. D’altra parte, la creazione di una massa critica di nuvole di punti etichettate mediante annotazione manuale è molto dispendiosa in termini di tempo e poco pratica. A tal fine, in questo lavoro viene esplorata l'idea di sfruttare i dati sintetici delle nuvole di punti per addestrare modelli di deep learning che eseguono la segmentazione semantica delle nuvole di punti. Per raggiungere questo scopo, viene presentata una versione migliorata della Dynamic Graph CNN (DGCNN) denominata RadDGCNN. Negli esperimenti presentati in questo lavoro, i modelli vengono addestrati su dataset sintetici (disponibili pubblicamente) di due diversi edifici storici: Palazzo Ducale di Urbino e il Palazzo Ferretti ad Ancona. La filiera si imposta sui modelli degli stessi edifici acquisiti tramite Laser Scanner Terrestre. La rete RadDGCNN produce buoni risultati, dimostrando migliori prestazioni di segmentazione sui dataset realiFile | Dimensione | Formato | |
---|---|---|---|
Paolanti_Approcci-deep-learning_2020.pdf
accesso aperto
Tipologia:
Versione editoriale (versione pubblicata con il layout dell'editore)
Licenza:
Creative commons
Dimensione
2.3 MB
Formato
Adobe PDF
|
2.3 MB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.