001015696 001__ 1015696 001015696 005__ 20250929082539.0 001015696 0247_ $$2HBZ$$aHT031235262 001015696 0247_ $$2Laufende Nummer$$a44554 001015696 0247_ $$2datacite_doi$$a10.18154/RWTH-2025-06535 001015696 037__ $$aRWTH-2025-06535 001015696 041__ $$aEnglish 001015696 082__ $$a530 001015696 1001_ $$0P:(DE-588)1373731818$$aAwal, Awal$$b0$$urwth 001015696 245__ $$aMachine learning methods for injection optimization at the cooler synchrotron COSY$$cvorgelegt von Awal Awal, M.Sc. aus Katar$$honline 001015696 260__ $$aAachen$$bRWTH Aachen University$$c2025 001015696 300__ $$a1 Online-Ressource : Illustrationen 001015696 3367_ $$02$$2EndNote$$aThesis 001015696 3367_ $$0PUB:(DE-HGF)11$$2PUB:(DE-HGF)$$aDissertation / PhD Thesis$$bphd$$mphd 001015696 3367_ $$2BibTeX$$aPHDTHESIS 001015696 3367_ $$2DRIVER$$adoctoralThesis 001015696 3367_ $$2DataCite$$aOutput Types/Dissertation 001015696 3367_ $$2ORCID$$aDISSERTATION 001015696 500__ $$aVeröffentlicht auf dem Publikationsserver der RWTH Aachen University 001015696 502__ $$aDissertation, RWTH Aachen University, 2025$$bDissertation$$cRWTH Aachen University$$d2025$$gFak01$$o2025-06-17 001015696 5203_ $$aTeilchenbeschleuniger sind Schlüsselinstrumente der modernen Physik und haben viele Fortschritte in der Teilchenphysik, Materialwissenschaft und medizinischen Behandlungen ermöglicht. Die Optimierung ihrer betrieblichen Aspekte, insbesondere des Injektionsprozesses, bleibt jedoch eine komplexe und herausfordernde Aufgabe. Diese Dissertation untersucht die Anwendung von Methoden des maschinellen Lernens, speziell Bayessche Optimierung und Reinforcement Learning (RL), zur Verbesserung der Optimierung der Injektionsstrahlführung (IBL) an der Cooler Synchrotron (COSY) Anlage. Bayessche Optimierung wird in einem geplanten Aufbau eingesetzt, um die Optimierung der Live-IBL mit Unterstützung eines Simulationsmodells zu automatisieren und die Optimierung zu beschleunigen. In den Live-Experimentalläufen gelang es der Bayesschen Optimierung, Strahlintensität und -stabilität innerhalb relativ kurzer Zeit zu verbessern. Die experimentelle Studie zeigt, dass die Aufschlüsselung hochdimensionaler Optimierungsprobleme in kleinere Teilprobleme die Konvergenz und Ergebnisse verbessert. Die Fähigkeit der Methode, schnell an verschiedene Optimierungsziele angepasst zu werden, macht sie zu einem robusten Werkzeug für verschiedene Betriebsszenarien bei COSY. Reinforcement Learning wird als Rahmenwerk zur Optimierung des Injektionsprozesses eingeführt, bei dem der RL-Agent ausschließlich in einer simulierten Umgebung mit Domain Randomization trainiert wird. Der RL-Agent, der darauf trainiert wurde, den transversalen Raum des Strahls am Injektionspunkt zu optimieren, überträgt erfolgreich seine erlernte Strategie auf den Live-Betrieb, indem er die Leistung eines menschlichen Bedieners erreicht, aber die Aufgaben in weniger Zeit abschließt. Eine empirische Studie der verschiedenen Architekturkomponenten bewertete die Bedeutung von Domain Randomization, Beobachtungsrauschen, Historie und dichten Schichten für die Leistung des Agenten. Sowohl Bayessche Optimierung als auch RL haben einzigartige Stärken und potenzielle Anwendungen im Betrieb von Teilchenbeschleunigern. Bayessche Optimierung eignet sich für Szenarien, die Flexibilität und schnelle Anpassungen erfordern, während RL schnelle und konsistente Optimierung durch gezielte Exploration bietet. Die Erkenntnisse bieten einen Rahmen für die Anwendung dieser Methoden auf andere Beschleunigeranlagen, wie die FAIR-Beschleunigeranlage in Darmstadt.$$lger 001015696 520__ $$aParticle accelerators are key tools in modern physics and have enabled many advancements in particle physics, material science, and medical treatments. However, optimizing their operational aspects, particularly the injection process, remains a complex and challenging task. This thesis investigates the application of machine learning methods, specifically Bayesian optimization and reinforcement learning (RL), to enhance the optimization of the Injection Beam Line (IBL) at the Cooler Synchrotron (COSY) facility. Bayesian optimization is employed in a planned setup to automate the optimization of the live IBL with the assistance of a simulation model to speed up the optimization. In the live experimental runs, Bayesian optimization managed to improve beam intensity and stability within a relatively short time. The experimental study shows that breaking down high-dimensional optimization problems into smaller sub-problems enhances convergence and results. The method's ability to be quickly adjusted to different optimization targets makes it a robust tool for various operation scenarios at COSY. Reinforcement learning is introduced as a framework for optimizing the injection process in which the RL agent is trained exclusively in a simulated environment with domain randomization. The RL agent, trained to optimize the beam's transverse space at the injection point, successfully transfers its learned policy to live operations by matching the performance to that of a human operator but completes the tasks in less time. An empirical study of the different architecture components evaluated the importance of domain randomization, observation noise, history, and dense layers in the agent's performance. Both Bayesian optimization and RL have unique strengths and potential applications in particle accelerator operations. Bayesian optimization is suited for scenarios requiring flexibility and quick adjustments, while RL offers fast and consistent optimization through targeted exploration. The findings provide a framework for applying these methods to other accelerator facilities, such as the FAIR accelerator facility in Darmstadt.$$leng 001015696 588__ $$aDataset connected to Lobid/HBZ 001015696 591__ $$aGermany 001015696 653_7 $$aBayesian optimization 001015696 653_7 $$aCOSY 001015696 653_7 $$ainjection optimization 001015696 653_7 $$amachine learning 001015696 653_7 $$areinforcement learning 001015696 7001_ $$0P:(DE-82)IDM01239$$aPretz, Jörg$$b1$$eThesis advisor$$urwth 001015696 7001_ $$0P:(DE-82)IDM05307$$aErdmann, Johannes$$b2$$eThesis advisor$$urwth 001015696 8564_ $$uhttps://publications.rwth-aachen.de/record/1015696/files/1015696.pdf$$yOpenAccess 001015696 8564_ $$uhttps://publications.rwth-aachen.de/record/1015696/files/1015696_source.zip$$yRestricted 001015696 909CO $$ooai:publications.rwth-aachen.de:1015696$$popenaire$$popen_access$$pVDB$$pdriver$$pdnbdelivery 001015696 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-588)1373731818$$aRWTH Aachen$$b0$$kRWTH 001015696 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM01239$$aRWTH Aachen$$b1$$kRWTH 001015696 9101_ $$0I:(DE-588b)36225-6$$6P:(DE-82)IDM05307$$aRWTH Aachen$$b2$$kRWTH 001015696 9141_ $$y2025 001015696 915__ $$0StatID:(DE-HGF)0510$$2StatID$$aOpenAccess 001015696 9201_ $$0I:(DE-82)133510_20140620$$k133510$$lLehrstuhl für Experimentalphysik III B$$x0 001015696 9201_ $$0I:(DE-82)130000_20140620$$k130000$$lFachgruppe Physik$$x1 001015696 961__ $$c2025-09-10T15:38:26.990246$$x2025-07-31T23:36:26.175552$$z2025-09-10T15:38:26.990246 001015696 9801_ $$aFullTexts 001015696 980__ $$aI:(DE-82)130000_20140620 001015696 980__ $$aI:(DE-82)133510_20140620 001015696 980__ $$aUNRESTRICTED 001015696 980__ $$aVDB 001015696 980__ $$aphd