000817902 001__ 817902 000817902 005__ 20230411161421.0 000817902 0247_ $$2HBZ$$aHT020913024 000817902 0247_ $$2Laufende Nummer$$a40259 000817902 0247_ $$2datacite_doi$$a10.18154/RWTH-2021-04188 000817902 037__ $$aRWTH-2021-04188 000817902 041__ $$aEnglish 000817902 082__ $$a004 000817902 1001_ $$0P:(DE-82)IDM02221$$aLim, Isaak$$b0$$urwth 000817902 245__ $$aLearned embeddings for geometric data$$cvorgelegt von Master of Science Informatiker Isaak Lim$$honline 000817902 260__ $$aAachen$$bRWTH Aachen University$$c2021 000817902 300__ $$a1 Online-Ressource : Illustrationen, Diagramme 000817902 3367_ $$02$$2EndNote$$aThesis 000817902 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd 000817902 3367_ $$2BibTeX$$aPHDTHESIS 000817902 3367_ $$2DRIVER$$adoctoralThesis 000817902 3367_ $$2DataCite$$aOutput Types/Dissertation 000817902 3367_ $$2ORCID$$aDISSERTATION 000817902 500__ $$aVeröffentlicht auf dem Publikationsserver der RWTH Aachen University 000817902 502__ $$aDissertation, RWTH Aachen University, 2021$$bDissertation$$cRWTH Aachen University$$d2021$$gFak01$$o2021-01-21 000817902 5203_ $$aDas Lösen anspruchsvoller Aufgaben auf 3D Formen wie Klassifikation, Segmentierung, Vertex-zu-Vertex Zuordnungen oder die Berechnung der wahrgenommenen Stilähnlichkeit zwischen verschiedenen Formen erfordert Methoden, die in der Lage sind die notwendigen Informationen aus geometrischen Daten ziehen und die entsprechenden Eigenschaften zu beschreiben. Solche Funktionen von Hand zu konstruieren ist eine Herausforderung, denn es ist unklar wie und welche Informationen für eine Aufgabe extrahiert werden müssen. Darüber hinaus ist es schwierig zu bestimmen, wie die extrahierten Informationen zu verwenden sind um Antworten auf die Fragen über die Formen zu geben (z.B. zu welcher Kategorie eine Form gehört). Zu diesem Zweck schlagen wir vor Funktionen zu erlernen, die geometrische Daten auf einen Einbettungsraum abbilden. Die Ziele dieser Abbildungen sind komprimierte Kodierungen der eingegebenen geometrischen Daten, welche so optimiert werden können, so dass sie alle notwendigen aufgabenabhängigen Informationen enthalten. Diese Kodierungen können dann direkt verglichen werden (z.B. über die euklidische Distanz) oder durch andere relativ einfache Funktionen, um Antworten auf die gestellten Fragen zugeben. Neuronale Netze können verwendet werden, um solche Abbildungen und Vergleichsfunktionen zu implementieren. Dies hat den Vorteil, dass sie flexibel und mächtig sind. Darüber hinaus kann die Informationsextraktion und der Kodierungsvergleich automatisiert werden indem geeignete Zielfunktionen konstruiert werden, welche zur Optimierung der Parameter der Neuronalen Netze auf geometrischen Datensammlungen mit von Menschen bereitgestellten aufgabenbezogenen Metainformationen benutzt werden. Um das umzusetzen müssen wir zwei Fragen beantworten. Erstens, wie können geometrische Daten, welche oft in irregulärer Form vorliegen, als Eingabe für neuronale Netze so dargestellt werden und wie sollten solche Netze konstruiert sein? Zweitens, wie können wir den, durch die neuronalen Netze erzeugten, Einbettungsraum so gestalten, dass wir in der Lage sind gute Ergebnisse bei Aufgaben, wie den oben genannten, zu erzielen? In dieser Arbeit beantworten wir beiden Fragen. Konkret berechnen wir Kodierungen für geometrischen Datendarstellungen in Form von Bildern, Punktwolken und Dreiecksnetzen, je nach Verfügbarkeit von Datenquellen und den aufgabenspezifischen Anforderungen. Sobald wir geeignete Methoden zur Kodierung der Eingabe Geometrie haben, untersuchen wir dann verschiedene Möglichkeiten, wie der gelernte Einbettungsraum gestaltet werden kann. Dies geschieht durchsorgfältige Konstruktion geeigneter Zielfunktionen, die über Ansätze, wie das Minimieren der Kreuzentropie auf kategorischen Verteilungen, hinausgehen. Wir zeigen, dass diese Ansätze in der Lage sind, sowohl auf diskriminierende als auch auf generativen Aufgaben, gute Ergebnisse zu erzielen.$$lger 000817902 520__ $$aSolving high-level tasks on 3D shapes such as classification, segmentation, vertex-to-vertex maps or computing the perceived style similarity between shapes requires methods that are able to extract the necessary information from geometric data and describe the appropriate properties. Constructing functions that do this by hand is challenging because it is unclear how and which information to extract for a task. Furthermore, it is difficult to determine how to use the extracted information to provide answers to the questions about shapes that are being asked (e.g. what category a shape belongs to). To this end, we propose to learn functions that map geometric data to an embedding space. The outputs of those maps are compressed encodings of the input geometric data that can be optimized to contain all necessary task-dependent information. These encodings can then be compared directly (e.g. via the Euclidean distance) or byother fairly simple functions to provide answers to the questions being asked. Neural networks can be used to implement such maps and comparison functions. This has the benefit that they offer flexibility and expressiveness. Furthermore, information extraction and comparison can be automated by designing appropriate objective functions that are used to optimize the parameters of the neural networks on geometric data collections with task-related meta information provided by humans. We therefore have to answer two questions. Firstly, given the often irregular nature of representations of 3D shapes, how can geometric data be represented asinput to neural networks and how should such networks be constructed? Secondly, how can we design the resulting embedding space provided by neural networks insuch a manner that we are able to achieve good results on high-level tasks on 3Dshapes? In this thesis we provide answers to these two questions. Concretely, depending on the availability of the data sources and the task specific requirements we compute encodings from geometric data representations in the form of images, point clouds and triangle meshes. Once we have a suitable way to encode the input, we explore different ways in which to design the learned embedding spaceby careful construction of appropriate objective functions that extend beyond straight forward cross-entropy minimization based approaches on categorical distributions. We show that these approaches are able to achieve good results inboth discriminative as well as generative tasks.$$leng 000817902 536__ $$0G:(EU-Grant)340884$$a3D Reconstruction and Modeling across Different Levels of Abstraction (340884)$$c340884$$x0 000817902 588__ $$aDataset connected to Lobid/HBZ 000817902 591__ $$aGermany 000817902 653_7 $$acomputer graphics 000817902 653_7 $$ageometric deep learning 000817902 653_7 $$ashape analysis 000817902 7001_ $$0P:(DE-82)IDM00102$$aKobbelt, Leif$$b1$$eThesis advisor$$urwth 000817902 7001_ $$aMitra, Niloy J.$$b2$$eThesis advisor 000817902 8564_ $$uhttps://publications.rwth-aachen.de/record/817902/files/817902.pdf$$yOpenAccess 000817902 8564_ $$uhttps://publications.rwth-aachen.de/record/817902/files/817902_source.zip$$yRestricted 000817902 909CO $$ooai:publications.rwth-aachen.de:817902$$pdnbdelivery$$popenaire$$popen_access$$pdriver$$pVDB$$pec_fundedresources 000817902 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM02221$$aRWTH Aachen$$b0$$kRWTH 000817902 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM00102$$aRWTH Aachen$$b1$$kRWTH 000817902 9141_ $$y2021 000817902 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess 000817902 9201_ $$0I:(DE-82)122310_20140620$$k122310$$lLehrstuhl für Informatik 8 (Computergraphik und Multimedia)$$x0 000817902 9201_ $$0I:(DE-82)120000_20140620$$k120000$$lFachgruppe Informatik$$x1 000817902 961__ $$c2021-05-27T12:52:45.347537$$x2021-04-26T12:45:40.937403$$z2021-05-27T12:52:45.347537 000817902 9801_ $$aFullTexts 000817902 980__ $$aI:(DE-82)120000_20140620 000817902 980__ $$aI:(DE-82)122310_20140620 000817902 980__ $$aUNRESTRICTED 000817902 980__ $$aVDB 000817902 980__ $$aphd