h1

h2

h3

h4

h5
h6
000817902 001__ 817902
000817902 005__ 20230411161421.0
000817902 0247_ $$2HBZ$$aHT020913024
000817902 0247_ $$2Laufende Nummer$$a40259
000817902 0247_ $$2datacite_doi$$a10.18154/RWTH-2021-04188
000817902 037__ $$aRWTH-2021-04188
000817902 041__ $$aEnglish
000817902 082__ $$a004
000817902 1001_ $$0P:(DE-82)IDM02221$$aLim, Isaak$$b0$$urwth
000817902 245__ $$aLearned embeddings for geometric data$$cvorgelegt von Master of Science Informatiker Isaak Lim$$honline
000817902 260__ $$aAachen$$bRWTH Aachen University$$c2021
000817902 300__ $$a1 Online-Ressource : Illustrationen, Diagramme
000817902 3367_ $$02$$2EndNote$$aThesis
000817902 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd
000817902 3367_ $$2BibTeX$$aPHDTHESIS
000817902 3367_ $$2DRIVER$$adoctoralThesis
000817902 3367_ $$2DataCite$$aOutput Types/Dissertation
000817902 3367_ $$2ORCID$$aDISSERTATION
000817902 500__ $$aVeröffentlicht auf dem Publikationsserver der RWTH Aachen University
000817902 502__ $$aDissertation, RWTH Aachen University, 2021$$bDissertation$$cRWTH Aachen University$$d2021$$gFak01$$o2021-01-21
000817902 5203_ $$aDas Lösen anspruchsvoller Aufgaben auf 3D Formen wie Klassifikation, Segmentierung, Vertex-zu-Vertex Zuordnungen oder die Berechnung der wahrgenommenen Stilähnlichkeit zwischen verschiedenen Formen erfordert Methoden, die in der Lage sind die notwendigen Informationen aus geometrischen Daten ziehen und die entsprechenden Eigenschaften zu beschreiben. Solche Funktionen von Hand zu konstruieren ist eine Herausforderung, denn es ist unklar wie und welche Informationen für eine Aufgabe extrahiert werden müssen. Darüber hinaus ist es schwierig zu bestimmen, wie die extrahierten Informationen zu verwenden sind um Antworten auf die Fragen über die Formen zu geben (z.B. zu welcher Kategorie eine Form gehört). Zu diesem Zweck schlagen wir vor Funktionen zu erlernen, die geometrische Daten auf einen Einbettungsraum abbilden. Die Ziele dieser Abbildungen sind komprimierte Kodierungen der eingegebenen geometrischen Daten, welche so optimiert werden können, so dass sie alle notwendigen aufgabenabhängigen Informationen enthalten. Diese Kodierungen können dann direkt verglichen werden (z.B. über die euklidische Distanz) oder durch andere relativ einfache Funktionen, um Antworten auf die gestellten Fragen zugeben. Neuronale Netze können verwendet werden, um solche Abbildungen und Vergleichsfunktionen zu implementieren. Dies hat den Vorteil, dass sie flexibel und mächtig sind. Darüber hinaus kann die Informationsextraktion und der Kodierungsvergleich automatisiert werden indem geeignete Zielfunktionen konstruiert werden, welche zur Optimierung der Parameter der Neuronalen Netze auf geometrischen Datensammlungen mit von Menschen bereitgestellten aufgabenbezogenen Metainformationen benutzt werden. Um das umzusetzen müssen wir zwei Fragen beantworten. Erstens, wie können geometrische Daten, welche oft in irregulärer Form vorliegen, als Eingabe für neuronale Netze so dargestellt werden und wie sollten solche Netze konstruiert sein? Zweitens, wie können wir den, durch die neuronalen Netze erzeugten, Einbettungsraum so gestalten, dass wir in der Lage sind gute Ergebnisse bei Aufgaben, wie den oben genannten, zu erzielen? In dieser Arbeit beantworten wir beiden Fragen. Konkret berechnen wir Kodierungen für geometrischen Datendarstellungen in Form von Bildern, Punktwolken und Dreiecksnetzen, je nach Verfügbarkeit von Datenquellen und den aufgabenspezifischen Anforderungen. Sobald wir geeignete Methoden zur Kodierung der Eingabe Geometrie haben, untersuchen wir dann verschiedene Möglichkeiten, wie der gelernte Einbettungsraum gestaltet werden kann. Dies geschieht durchsorgfältige Konstruktion geeigneter Zielfunktionen, die über Ansätze, wie das Minimieren der Kreuzentropie auf kategorischen Verteilungen, hinausgehen. Wir zeigen, dass diese Ansätze in der Lage sind, sowohl auf diskriminierende als auch auf generativen Aufgaben, gute Ergebnisse zu erzielen.$$lger
000817902 520__ $$aSolving high-level tasks on 3D shapes such as classification, segmentation, vertex-to-vertex maps or computing the perceived style similarity between shapes requires methods that are able to extract the necessary information from geometric data and describe the appropriate properties. Constructing functions that do this by hand is challenging because it is unclear how and which information to extract for a task. Furthermore, it is difficult to determine how to use the extracted information to provide answers to the questions about shapes that are being asked (e.g. what category a shape belongs to). To this end, we propose to learn functions that map geometric data to an embedding space. The outputs of those maps are compressed encodings of the input geometric data that can be optimized to contain all necessary task-dependent information. These encodings can then be compared directly (e.g. via the Euclidean distance) or byother fairly simple functions to provide answers to the questions being asked. Neural networks can be used to implement such maps and comparison functions. This has the benefit that they offer flexibility and expressiveness. Furthermore, information extraction and comparison can be automated by designing appropriate objective functions that are used to optimize the parameters of the neural networks on geometric data collections with task-related meta information provided by humans. We therefore have to answer two questions. Firstly, given the often irregular nature of representations of 3D shapes, how can geometric data be represented asinput to neural networks and how should such networks be constructed? Secondly, how can we design the resulting embedding space provided by neural networks insuch a manner that we are able to achieve good results on high-level tasks on 3Dshapes? In this thesis we provide answers to these two questions. Concretely, depending on the availability of the data sources and the task specific requirements we compute encodings from geometric data representations in the form of images, point clouds and triangle meshes. Once we have a suitable way to encode the input, we explore different ways in which to design the learned embedding spaceby careful construction of appropriate objective functions that extend beyond straight forward cross-entropy minimization based approaches on categorical distributions. We show that these approaches are able to achieve good results inboth discriminative as well as generative tasks.$$leng
000817902 536__ $$0G:(EU-Grant)340884$$a3D Reconstruction and Modeling across Different Levels of Abstraction (340884)$$c340884$$x0
000817902 588__ $$aDataset connected to Lobid/HBZ
000817902 591__ $$aGermany
000817902 653_7 $$acomputer graphics
000817902 653_7 $$ageometric deep learning
000817902 653_7 $$ashape analysis
000817902 7001_ $$0P:(DE-82)IDM00102$$aKobbelt, Leif$$b1$$eThesis advisor$$urwth
000817902 7001_ $$aMitra, Niloy J.$$b2$$eThesis advisor
000817902 8564_ $$uhttps://publications.rwth-aachen.de/record/817902/files/817902.pdf$$yOpenAccess
000817902 8564_ $$uhttps://publications.rwth-aachen.de/record/817902/files/817902_source.zip$$yRestricted
000817902 909CO $$ooai:publications.rwth-aachen.de:817902$$pdnbdelivery$$popenaire$$popen_access$$pdriver$$pVDB$$pec_fundedresources
000817902 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM02221$$aRWTH Aachen$$b0$$kRWTH
000817902 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM00102$$aRWTH Aachen$$b1$$kRWTH
000817902 9141_ $$y2021
000817902 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess
000817902 9201_ $$0I:(DE-82)122310_20140620$$k122310$$lLehrstuhl für Informatik 8 (Computergraphik und Multimedia)$$x0
000817902 9201_ $$0I:(DE-82)120000_20140620$$k120000$$lFachgruppe Informatik$$x1
000817902 961__ $$c2021-05-27T12:52:45.347537$$x2021-04-26T12:45:40.937403$$z2021-05-27T12:52:45.347537
000817902 9801_ $$aFullTexts
000817902 980__ $$aI:(DE-82)120000_20140620
000817902 980__ $$aI:(DE-82)122310_20140620
000817902 980__ $$aUNRESTRICTED
000817902 980__ $$aVDB
000817902 980__ $$aphd