h1

h2

h3

h4

h5
h6


001     969331
005     20241120144106.0
020 _ _ |a 978-3-95806-719-6
024 7 _ |a HT030361465
|2 HBZ
024 7 _ |a 42605
|2 Laufende Nummer
024 7 _ |a 10.18154/RWTH-2023-09115
|2 datacite_doi
024 7 _ |a urn:nbn:de:hbz:5:2-1257933
|2 urn
037 _ _ |a RWTH-2023-09115
041 _ _ |a English
082 _ _ |a 004
100 1 _ |0 P:(DE-588)1038401127
|a Yegenoglu, Alper
|b 0
|u rwth
245 _ _ |a Gradient-free optimization of artificial and biological networks using learning to learn
|c Alper Yeğenoğlu
|h online, print
246 _ 3 |a Gradient-freies Optimieren von künstlichen und biologischen Netzwerken mittels des learning to learn Verfahrens
|y German
260 _ _ |a Jülich
|b Forschungszentrum Jülich GmbH, Zentralbibliothek, Verlag
|c 2023
300 _ _ |a 1 Online-Ressource (136 Seiten) : Illustrationen, Diagramme
336 7 _ |0 2
|2 EndNote
|a Thesis
336 7 _ |0 PUB:(DE-HGF)11
|2 PUB:(DE-HGF)
|a Dissertation / PhD Thesis
|b phd
|m phd
336 7 _ |0 PUB:(DE-HGF)3
|2 PUB:(DE-HGF)
|a Book
|m book
336 7 _ |2 BibTeX
|a PHDTHESIS
336 7 _ |2 DRIVER
|a doctoralThesis
336 7 _ |2 DataCite
|a Output Types/Dissertation
336 7 _ |2 ORCID
|a DISSERTATION
490 0 _ |a Schriften des Forschungszentrums Jülich. IAS series
|v 55
500 _ _ |a Druckausgabe: 2023. - Onlineausgabe: 2023. - Auch veröffentlicht auf dem Publikationsserver der RWTH Aachen University
502 _ _ |a Dissertation, RWTH Aachen University, 2023
|b Dissertation
|c RWTH Aachen University
|d 2023
|g Fak01
|o 2023-06-23
520 3 _ |a Die Intelligenz zu verstehen und wie sie den Menschen ermöglicht zu lernen, Entscheidungen zu treffen und Erinnerungen zu bilden, ist ein langfristiges Bestreben in den Neurowissenschaften. Unser Gehirn besteht aus Netzwerken von Neuronen und anderen Zellen, jedoch ist es nicht klar wie diese Netzwerke trainiert werden können, um bestimmte Aufgaben zu lösen. Im Bereich des maschinellen lernen und künstlicher Intelligenz ist es üblich neuronale Netzwerke mittels Gradientenabstieg und Backpropagation zu trainieren und zu optimieren. Wie diese Optimierungsstrategie auf biologische, gepulste neuronale Netzwerke übertragen werden kann, ist wissenschaftlich noch offen. Wegen der binären Kommunikation zwischen den Neuronen des gepulsten Netzwerkes mittels Spikes, ist eine direkte Anwendung des Gradientenabstieg und Backpropagation ohne Approximationen nicht möglich. In meiner Arbeit präsentiere ich gradientfreie Optimierungstechniken, welche auf künstliche und biologische Netzwerke direkt anwendbar sind. Ich benutze Metaheuristiken, wie zum Beispiel Genetische Algorithmen oder Ensemble Kalman Filter (EnKF), um die Netzwerkparameter zu optimieren und die Netzwerke zu trainieren bestimmte Aufgaben zu lösen. Die Optimierung wird in das Konzept des Meta-Lernens bzw. learning to learn eingebettet. Das learning to learn Konzept besteht aus einem zwei Schleifen Optimierungsprozess. In der ersten, inneren Schleife wird ein Algorithmus oder ein Netzwerk auf einer Aufgabe aus einer Familie von Aufgaben trainiert. In der zweiten, äußeren Schleife werden die Parameter und Hyper-Parameter des Netzwerkes optimiert. Als Erstes optimiere ich mit dem EnKF ein Convolutional Neural Network und erreiche eine hohe Erfolgsrate bei der Klassifizierung von Zahlen. Danach, wende ich die gleiche Optimierungsstrategie innerhalb der L2L Bibliothek auf ein gepulstes Reservoir Netzwerk an. L2L, eine Implementierung des learning to learn Konzepts, ermöglicht es mir auf eine einfache Weise mehrere Netzwerkinstanzen parallel auf Hochleistungsrechnern auszuführen. Um zu verstehen wie sich das Lernen des Netzwerkes entwickelt, analysiere ich die Netzwerkgewichte über mehrere Generationen und untersuche eine Kovarianzmatrix des EnKF im Hauptkomponentenraum. Die Analyse zeigt nicht nur das Konvergenzverhalten der Optimierung, sondern auch wie zum Beispiel Sampling Techniken die Optimierung beeinflussen. Danach bette ich den EnKF in die innere Schleife des L2L ein und passe die Hyper-Parameter des Optimierers mit einem genetischem Algorithmus (GA) an. Im Kontrast zur manuellen Parametereinstellung findet der GA eine alternative Konfiguration. Zum Schluss präsentiere ich eine simulierte Ameisenkolonie, die nach Futter sucht und vom einem gepulstem Netzwerk gesteuert wird. Während des Netzwerktrainings entwickelt sich eine Selbstkoordination und Selbstorganization innerhalb der Kolonie. Ich verwende verschiedene Analysemethoden, um das Ameisenverhalten besser zu verstehen. Mit meiner Arbeit zeige ich wie Optimierung und Meta-Lernen auf einfache Weise in verschiedenen Wissenschaftsbereichen benutzt werden können und wie gradientfreie Optimierung auf biologische und künstliche Netzwerke angewendet werden kann.
|l ger
520 _ _ |a Understanding intelligence and how it allows humans to learn, to make decision and form memories, is a long-lasting quest in neuroscience. Our brain is formed by networks of neurons and other cells, however, it is not clear how those networks are trained to learn to solve specific tasks. In machine learning and artificial intelligence it is common to train and optimize neural networks with gradient descent and backpropagation. How to transfer this optimization strategy to biological, spiking networks (SNNs) is still a matter of research. Due to the binary communication scheme between neurons of an SNN via spikes, a direct application of gradient descent and backpropagation is not possible without further approximations. In my work, I present gradient-free optimization techniques that are directly applicable to artificial and biological neural networks. I utilize metaheuristics, such as genetic algorithms and the ensemble Kalman Filter, to optimize network parameters and train networks to learn to solve specific tasks. The optimization is embedded into the concept of meta-learning and learning to learn respectively. The learning to learn concept consists of a two loop optimization procedure. In the first, inner loop the algorithm or network is trained on a family of tasks, and in the second, outer loop the hyper-parameters and parameters of the network are optimized. First, I apply the EnKF on a convolution neural network, resulting in high accuracy when classifying digits. Then, I employ the same optimization procedure on a spiking reservoir network within the L2L framework. The L2L framework, an implementation of the learning to learn concept, allows me to easily deploy and execute multiple instances of the network in parallel on high performance computing systems. In order to understand how the network learning evolves, I analyze the connection weights over multiple generations and investigate a covariance matrix of the EnKF in the principle component space. The analysis not only shows the convergence behaviour of the optimization process, but also how sampling techniques influence the optimization procedure. Next, I embed the EnKF into the L2L inner loop and adapt the hyper-parameters of the optimizer using a genetic algorithm (GA). In contrast to the manual parameter setting, the GA suggests an alternative configuration. Finally, I present an ant colony simulation foraging for food while being steered by SNNs. While training the network, self-coordination and self-organization in the colony emerges. I employ various analysis methods to better understand the ants’ behaviour. With my work I leverage optimization for different scientific domains utilizing meta-learning and illustrate how gradient-free optimization can be applied on biological and artificial networks.
|l eng
536 _ _ |0 G:(EU-Grant)945539
|a HBP SGA3 - Human Brain Project Specific Grant Agreement 3 (945539)
|c 945539
|f H2020-SGA-FETFLAG-HBP-2019
|x 0
536 _ _ |0 G:(DE-Juel1)Helmholtz-SLNS
|a SLNS - SimLab Neuroscience (Helmholtz-SLNS)
|c Helmholtz-SLNS
|x 1
536 _ _ |0 G:(DE-Juel1)JL SMHB-2021-2027
|a JL SMHB - Joint Lab Supercomputing and Modeling for the Human Brain (JL SMHB-2021-2027)
|c JL SMHB-2021-2027
|x 2
536 _ _ |0 G:(DE-Juel1)HDS-LEE-20190612
|a HDS LEE - Helmholtz School for Data Science in Life, Earth and Energy (HDS LEE) (HDS-LEE-20190612)
|c HDS-LEE-20190612
|x 3
536 _ _ |0 G:(DE-Juel1)CSD-SSD-20190612
|a CSD-SSD - Center for Simulation and Data Science (CSD) - School for Simulation and Data Science (SSD) (CSD-SSD-20190612)
|c CSD-SSD-20190612
|x 4
536 _ _ |0 G:(DE-HGF)PHD-PROGRAM-20170404
|a Doktorandenprogramm (PHD-PROGRAM-20170404)
|c PHD-PROGRAM-20170404
|x 5
588 _ _ |a Dataset connected to Lobid/HBZ
591 _ _ |a Germany
653 _ 7 |a artificial intelligence
653 _ 7 |a computational neuroscience
653 _ 7 |a gradient-free
653 _ 7 |a learning-to-learn
653 _ 7 |a machine learning
653 _ 7 |a meta-learning
653 _ 7 |a neural network
653 _ 7 |a optimization
653 _ 7 |a spiking
653 _ 7 |a swarm intelligence
700 1 _ |0 P:(DE-82)IDM04233
|a Morrison, Abigail Joanna Rhodes
|b 1
|e Thesis advisor
|u rwth
700 1 _ |0 P:(DE-82)IDM00024
|a Herty, Michael
|b 2
|e Thesis advisor
|u rwth
856 4 _ |u https://publications.rwth-aachen.de/record/969331/files/969331.pdf
|y OpenAccess
856 4 _ |u https://publications.rwth-aachen.de/record/969331/files/969331_source.zip
|y Restricted
909 C O |o oai:publications.rwth-aachen.de:969331
|p urn
|p openaire
|p open_access
|p ec_fundedresources
|p driver
|p dnbdelivery
|p VDB
910 1 _ |0 I:(DE-588b)36225-6
|6 P:(DE-588)1038401127
|a RWTH Aachen
|b 0
|k RWTH
910 1 _ |0 I:(DE-588b)36225-6
|6 P:(DE-82)IDM04233
|a RWTH Aachen
|b 1
|k RWTH
910 1 _ |0 I:(DE-588b)36225-6
|6 P:(DE-82)IDM00024
|a RWTH Aachen
|b 2
|k RWTH
914 1 _ |y 2023
915 _ _ |a OpenAccess
|0 StatID:(DE-HGF)0510
|2 StatID
915 _ _ |a Creative Commons Attribution CC BY 4.0
|0 LIC:(DE-HGF)CCBY4
|2 HGFVOC
920 1 _ |0 I:(DE-82)124920_20200227
|k 124920
|l Lehr- und Forschungsgebiet Neural Computation (FZ Jülich)
|x 0
920 1 _ |0 I:(DE-82)120000_20140620
|k 120000
|l Fachgruppe Informatik
|x 1
920 1 _ |0 I:(DE-82)080031_20200305
|k 080031
|l JARA-CSD (Center for Simulation and Data Science)
|x 2
980 _ _ |a I:(DE-82)080031_20200305
980 _ _ |a I:(DE-82)120000_20140620
980 _ _ |a I:(DE-82)124920_20200227
980 _ _ |a UNRESTRICTED
980 _ _ |a VDB
980 _ _ |a book
980 _ _ |a phd
980 1 _ |a FullTexts


LibraryCollectionCLSMajorCLSMinorLanguageAuthor
Marc 21