Fraiss, S. M. (2022). Construction and visualization of Gaussian mixture models from point clouds for 3D object representation [Diploma Thesis, Technische Universität Wien]. reposiTUm. https://doi.org/10.34726/hss.2022.82630
E193 - Institut für Visual Computing and Human-Centered Technology
-
Date (published):
2022
-
Number of Pages:
87
-
Keywords:
Gaussian Mixture Models; Gaussian Mixture Fitting; Gaussian Mixture Visualization; Expectation Maximization; Quality of Fit
en
Abstract:
Punktwolken sind eine häufig genutzte Art, dreidimensionale Objekten zu beschreiben. In manchen Anwendungen sind jedoch andere Repräsentationen nützlicher. Gaussian Mixture Models (GMMs) können als solch eine alternative Repräsentation genutzt werden. Ein GMM ist eine konvexe Summe von Normalverteilungen, welche die Dichte einer Punktwolke beschreibt. In dieser Arbeit untersuchen wir sowohl die Visualisierung, als auch die Konstruktion von GMMs. Für die Visualisierung haben wir ein Werkzeug implementiert, welches eine Isoellipsoid- und eine Dichtevisualisierung ermöglicht. Wir beschreiben den mathematischen Hintergrund, die Algorithmen, und die Implementierung dieses Werkzeugs. Für die Konstruktion von GMMs untersuchen wir mehrere Algorithmen, welche bereits zum Konstruieren von GMMs im Kontext von 3D-Daten-Verarbeitung genutzt wurden. Wir präsentieren unsere Implementierungen des Expectation-Maximization(EM)-Algorithmus und des Top-Down HEM Algorithmus. Weiters haben wir die Implementierung von Geometrically regularized Bottom-Up HEM angepasst, um eine fixe Anzahl an Gaussians zu erzeugen. Wir evaluieren diese drei Algorithmen in Bezug auf die Qualität ihrer konstruierten GMMs. In vielen Fällen ist die statistische Likelihood, welche durch den EM Algorithmus maximiert wird, kein zuverlässiger Indikator für die Qualität eines GMMs. Daher nutzen wir stattdessen den Rekonstruktionsfehler einer rekonstruierten Punktwolke basierend auf der Chamfer-Distanz. Weiters definieren wir Metriken zur Messung der Uniformität der rekonstruierten Punktwolken und der Variation der Gaussians des GMMs. Wir demonstrieren, dass EM die besten Resultate bezogen auf diese Metriken erzeugt. Geometrically regularized Bottom-Up HEM ist unterlegen für niedrigere Anzahlen an Gaussians aber kann gute GMMs mit deutlich mehr Gaussians sehr effizient erzeugen.
de
Point clouds are a common representation of three-dimensional shapes in computer graphics and 3D-data processing. However, in some applications, other representations are more useful. Gaussian Mixture Models (GMMs) can be used as such an alternative representation. A GMM is a convex sum of normal distributions, which aims to describe a point cloud's density. In this thesis, we investigate both visualization and construction of GMMs. For visualization, we have implemented a tool that enables both isoellipsoid and density visualization of GMMs. We describe the mathematical backgrounds, the algorithms, and our implementation of this tool. Regarding GMM construction, we investigate several algorithms used in previous papers for constructing GMMs for 3D-data processing tasks. We present our implementations of the expectation-maximization (EM) algorithm and top-down HEM. Additionally, we have adapted the implementation of geometrically regularized bottom-up HEM to produce a fixed number of Gaussians. We evaluate these three algorithms in terms of the quality of their generated GMMs. In many cases, the statistical likelihood, which is maximized by the EM algorithm, is not a reliable indicator for a GMM's quality. Therefore, we instead rely on the reconstruction error of a reconstructed point cloud based on the Chamfer distance. Additionally, we provide metrics for measuring the reconstructed point cloud's uniformity and the GMM's variation of Gaussians. We demonstrate that EM provides the best results in terms of these metrics. Top-down HEM is a fast alternative, and can produce even better results when using fewer input points. The results of geometrically regularized bottom-up HEM are inferior for lower numbers of Gaussians but it can create good GMMs consisting of high numbers of Gaussians very efficiently.