000955632 001__ 955632 000955632 005__ 20251021144617.0 000955632 020__ $$a978-3-95806-693-9 000955632 0247_ $$2HBZ$$aHT030005838 000955632 0247_ $$2Laufende Nummer$$a42193 000955632 0247_ $$2datacite_doi$$a10.18154/RWTH-2023-03627 000955632 037__ $$aRWTH-2023-03627 000955632 041__ $$aEnglish 000955632 082__ $$a620 000955632 1001_ $$0P:(DE-588)1288247958$$aBouhadjar, Younes$$b0$$urwth 000955632 245__ $$aA brain inspired sequence learning algorithm and foundations of a memristive hardware implementation$$cYounes Bouhadjar$$honline, print 000955632 260__ $$aJülich$$bForschungszentrum Jülich GmbH, Zentralbibliothek, Verlag$$c2023 000955632 300__ $$a1 Online-Ressource : Illustrationen, Diagramme 000955632 3367_ $$02$$2EndNote$$aThesis 000955632 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd 000955632 3367_ $$0PUB:(DE-HGF)3$$2PUB:(DE-HGF)$$aBook$$mbook 000955632 3367_ $$2BibTeX$$aPHDTHESIS 000955632 3367_ $$2DRIVER$$adoctoralThesis 000955632 3367_ $$2DataCite$$aOutput Types/Dissertation 000955632 3367_ $$2ORCID$$aDISSERTATION 000955632 4900_ $$aSchriften des Forschungszentrums Jülich. Reihe Information$$v95 000955632 500__ $$aDruckausgabe: 2023. - Onlineausgabe: 2023. - Auch veröffentlicht auf dem Publikationsserver der RWTH Aachen University 000955632 502__ $$aDissertation, RWTH Aachen University, 2023$$bDissertation$$cRWTH Aachen University$$d2023$$gFak05$$o2023-02-13 000955632 5203_ $$aDas Gehirn nutzt komplexe biologische Mechanismen und Prinzipien, um eine Vielzahl von Aufgaben zu lösen. Diese Prinzipien verleihen den Systemen selbstlernende Fähigkeiten, sowie eine hohe Energieffizienz und Speicherkapazität. Ein zentrales Konzept, bei der Informationsverarbeitung im Gehirn, ist die Sequenzvorhersage und -wiedergabe. Diese Form der Berechnung ist essenziell für fast alle täglichen Aufgaben wie Sinneswahrnehmung, Bewegungsausführung und Sprache. Zu verstehen wie das Gehirn eine solche Berechnung durchführt, treibt die Neurowissenschaft voran und ebnet den Weg für neue technologische, vom Gehirn inspirierte Anwendungen. Im ersten Teil dieser Arbeit schlagen wir ein Modell zum Sequenzenlernen vor, das erklärt, wie biologische Netzwerke lernen können, nachfolgende Elemente vorherzusagen, nicht erwartete Ereignisse zu signalisieren und Sequenzen als Reaktion auf ein Hinweis-Signal abzurufen. Das Modell berücksichtigt anatomische und elektrophysiologische Eigenschaften kortikaler neuronaler Netzwerke und lernt komplexe Sequenzen auf unüberwachte Weise mittels bekannter biologischer Plastizität und homöostatischer Kontrollmechanismen. Während des Lernens organisiert es sich selbst in eine Konfiguration, die sich durch einen hohen Grad an Spärlichkeit in der Konnektivität und Aktivität auszeichnet, was sowohl eine hohe Speicherkapazität und Energieeffizienz zur Folge hat. Im zweiten Teil erweitern wir das Modell so, dass es einen probabilistischen sequentiellen Gedächtnisabruf als Reaktion auf mehrdeutige Hinweise ermöglicht. In Abwesenheit von Rauschen ruft das Modell deterministisch die im Training am häufigsten gezeigte Sequenz ab. Wir untersuchen, wie verschiedene Formen von Rauschen zu einem explorativeren Verhalten führen. Wir zeigen, dass sich unkorreliertes Rauschen bei populationsbasierter Kodierung wegmittelt, was zu einer nicht-explorativen Dynamik führt. Dieses Problem wird durch lokal kohärentes Rauschen in Form einer zufälligen Stimuluskopplung an intrinsische, raum-zeitliche Oszillationen behoben. Unsere Ergebnisse zeigen, dass das Netzwerk, je nach Amplitude und Frequenz der Oszillation, gelernte Sequenzen gemäss verschiedener Strategien abrufen kann: entweder wird immer die häufigste Sequenz wiedergegeben, oder Sequenzen werden entsprechend ihrer Auftrittswahrscheinlichkeit beim Training abgespielt. Die Studie trägt zum Verständnis der neuronalen Mechanismen bei, die verschiedenen Entscheidungsstrategien zugrunde liegen, und unterstreicht die Rolle kohärenter Netzwerkaktivität bei sequenziellem Gedächtnisabruf. Schließlich untersuchen wir die Realisierbarkeit der Implementierung des Sequenzverarbeitungsmodells auf einer speziellen Hardware, welche Eigenschaften des Gehirns imitiert. Hier konzentrieren wir uns auf eine Art von Hardware, bei der die Synapsen durch memristive Bauteile emuliert werden. Als ersten Schritt in diese Richtung ersetzen wir die Synapsen-Dynamik des ursprünglichen Modells durch eine Dynamik, die das phänomenologische Verhalten von memristiven Elementen beschreibt, und demonstrieren Robustheit der Vorhersagen bei Variation verschiedener Hardware-Eigenschaften. In dieser Arbeit beschreiben wir außerdem, wie das Sequenzlernmodell auf algorithmischer Ebene angepasst werden kann, um eine Implementierung in eine vollelektronische Schaltung basierend auf einem memristiven Crossbar-Array zu ermöglichen. Insgesamt wirft diese Arbeit Licht auf die prinzipiellen Mechanismen, dem Lernen, der Vohersage und dem Abruf von Sequenzen in biologischen Netzwerken zugrunde liegen, und demonstriert die Realisierbarkeit der Implementierung dieser Art von Berechnung auf neuromorpher Hardware.$$lger 000955632 520__ $$aThe brain uses intricate biological mechanisms and principles to solve a variety of tasks. These principles endow systems with self-learning capabilities, efficient energy usage, and high storage capacity. A core concept that lies at the heart of brain computation is sequence prediction and replay. This form of computation is essential for almost all our daily tasks such as movement generation, perception, and language. Understanding how the brain performs such a computation advances neuroscience and paves the way for new technological brain-inspired applications. In the first part of this thesis, we propose a sequence learning model that explains how biological networks learn to predict upcoming elements, signal non-anticipated events, and recall sequences in response to a cue signal. The model accounts for anatomical and electrophysiological properties of cortical neuronal circuits, and learns complex sequences in an unsupervised manner by means of known biological plasticity and homeostatic control mechanisms. After learning, it self-organizes into a configuration characterized by a high degree of sparsity in connectivity and activity allowing for both high storage capacity and efficient energy usage. In the second part, we extend the sequence learning model such that it permits probabilistic sequential memory recall in response to ambiguous cues. In the absence of noise, the model deterministically recalls the sequence shown most frequently during training. We investigate how different forms of noise give rise to more exploratory behavior. We show that uncorrelated noise averages out in population based encoding leading to non exploratory dynamics. Locally coherent noise in the form of random stimulus locking to spatiotemporal oscillations addresses this issue. Our results show that depending on the amplitude and frequency of oscillation, the network can recall learned sequences according to different strategies: either always replay the most frequent sequence, or replay sequences according to their occurrence probability during training. The study contributes to an understanding of the neuronal mechanisms underlying different decision strategies in the face of ambiguity, and highlights the role of coherent network activity during sequential memory recall. Finally, we investigate the feasibility of implementing the sequence learning model on dedicated hardware mimicking brain properties. Here, we focus on a type of hardware where synapses are emulated by memristive devices. As a first step in this direction, we replace the synapse dynamics of the original model with dynamics describing the phenomenological behavior of memristive elements, and demonstrate resilience with respect to different device characteristics. In this thesis, we further describe how the sequence learning model can be adapted at the algorithmic level to foster an implementation in a full electronic circuit centered around a memristive crossbar array. Overall, this thesis sheds light on the key mechanisms underlying sequence learning, prediction, and replay in biological networks and demonstrates the feasibility of implementing this type of computation on neuromorphic hardware.$$leng 000955632 536__ $$0G:(DE-HGF)SO-092$$aACA - Advanced Computing Architectures (SO-092)$$cSO-092$$x0 000955632 536__ $$0G:(EU-Grant)785907$$aHBP SGA2 - Human Brain Project Specific Grant Agreement 2 (785907)$$c785907$$fH2020-SGA-FETFLAG-HBP-2017$$x1 000955632 536__ $$0G:(EU-Grant)945539$$aHBP SGA3 - Human Brain Project Specific Grant Agreement 3 (945539)$$c945539$$fH2020-SGA-FETFLAG-HBP-2019$$x2 000955632 536__ $$0G:(GEPRIS)491111487$$aDFG project 491111487 - Open-Access-Publikationskosten / 2022 - 2024 / Forschungszentrum Jülich (OAPKFZJ) (491111487)$$c491111487$$x3 000955632 536__ $$0G:(DE-HGF)IVF-20140101$$aIVF - Impuls- und Vernetzungsfonds (IVF-20140101)$$cIVF-20140101$$x4 000955632 591__ $$aGermany 000955632 653_7 $$amemristive devices 000955632 653_7 $$aneural networks 000955632 653_7 $$aneuromorphic hardware 000955632 653_7 $$aplasticity 000955632 653_7 $$asequence learning 000955632 653_7 $$aspiking neurons 000955632 7001_ $$0P:(DE-82)IDM01464$$aWaser, Rainer$$b1$$eThesis advisor$$urwth 000955632 7001_ $$0P:(DE-82)000218$$aDiesmann, Markus$$b2$$eThesis advisor$$urwth 000955632 8564_ $$uhttps://publications.rwth-aachen.de/record/955632/files/955632.pdf$$yOpenAccess 000955632 8564_ $$uhttps://publications.rwth-aachen.de/record/955632/files/955632_source.zip$$yRestricted 000955632 909CO $$ooai:publications.rwth-aachen.de:955632$$pVDB$$pdnbdelivery$$pdriver$$pec_fundedresources$$popen_access$$popenaire 000955632 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-588)1288247958$$aRWTH Aachen$$b0$$kRWTH 000955632 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM01464$$aRWTH Aachen$$b1$$kRWTH 000955632 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)000218$$aRWTH Aachen$$b2$$kRWTH 000955632 9141_ $$y2023 000955632 915__ $$0LIC:(DE-HGF)CCBY4$$2HGFVOC$$aCreative Commons Attribution CC BY 4.0 000955632 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess 000955632 9201_ $$0I:(DE-82)611610_20140620$$k611610$$lLehrstuhl für Werkstoffe der Elektrotechnik II und Institut für Werkstoffe der Elektrotechnik$$x0 000955632 9201_ $$0I:(DE-82)520000_20140620$$k520000$$lFachgruppe für Materialwissenschaft und Werkstofftechnik$$x1 000955632 961__ $$c2023-05-24T13:27:58.723164$$x2023-04-05T07:37:50.611881$$z2023-05-24T13:27:58.723164 000955632 9801_ $$aFullTexts 000955632 980__ $$aI:(DE-82)520000_20140620 000955632 980__ $$aI:(DE-82)611610_20140620 000955632 980__ $$aUNRESTRICTED 000955632 980__ $$aVDB 000955632 980__ $$abook 000955632 980__ $$aphd