h1

h2

h3

h4

h5
h6
http://join2-wiki.gsi.de/foswiki/pub/Main/Artwork/join2_logo100x88.png

The data stream of the high-pressure die-casting process



VerantwortlichkeitsangabeMaximilian Markus Rudack

ImpressumAachen : Gießerei-Institut der RWTH Aachen 2025

Umfang1 Online-Ressource : Illustrationen

ISBN978-3-944601-30-4

ReiheErgebnisse aus Forschung und Entwicklung / Gießerei-Institut der RWTH Aachen ; 41


Dissertation, Rheinisch-Westfälische Technische Hochschule Aachen, 2025

Veröffentlicht auf dem Publikationsserver der RWTH Aachen University


Genehmigende Fakultät
Fak05

Hauptberichter/Gutachter
;

Tag der mündlichen Prüfung/Habilitation
2025-05-26

Online
DOI: 10.18154/RWTH-2025-05623
URL: https://publications.rwth-aachen.de/record/1013587/files/1013587.pdf

Einrichtungen

  1. Lehrstuhl für Gießereiwesen und Gießerei-Institut (526110)
  2. Fachgruppe für Materialwissenschaft und Werkstofftechnik (520000)

Projekte

  1. DFG project G:(GEPRIS)390621612 - EXC 2023: Internet of Production (IoP) (390621612) (390621612)

Inhaltliche Beschreibung (Schlagwörter)
Druckguss (frei) ; Industrie 4.0 (frei) ; Kavitätssensoren (frei) ; cavity sensors (frei) ; high-pressure die casting (frei) ; hpdc (frei) ; industry 4.0 (frei) ; internet of production (frei) ; virtual sensors (frei) ; virtuelle Sensoren (frei)

Thematische Einordnung (Klassifikation)
DDC: 620

Kurzfassung
Das Druckgießverfahren (HPDC) ist ein diskontinuierliches, werkzeuggebundenes Urformverfahren. Als eine Schlüsseltechnologie in der Großserienfertigung der Automobilindustrie wird es zum Gießen von endkonturnahen Bauteilen aus Nichteisenlegierungen eingesetzt. Aufgrund eines hohen Automatisierungsgrades ist HPDC eine datenreiche Gießtechnologie, die für eine Integration in Industrie 4.0-Infrastrukturen prädestiniert ist. Hochauflösende und metadatenreiche HPDC-Datensätze sind die Voraussetzung für einen umfassenden Einsatz von Big-Data-Analysen in der Gießerei-Industrie. Zunehmend komplexere numerische Modelle sowie Algorithmen des maschinellen Lernens sind auf die Bereitstellung geeigneter Rohdaten angewiesen, um Metriken zu berechnen, die die Qualität und Stabilität des HPDC-Prozesses beschreiben. Heutzutage sind HPDC-Prozessdaten jedoch regelmäßig schlecht zugänglich in lokalen Speichersilos gespeichert, können auf proprietären Datenformaten basieren und bieten oft keine angemessene Datengranularität. Die Vision des Internets der Produktion beinhaltet vernetzte Infrastrukturen wie das Worldwide Lab mit untereinander verbundenen Produktionsstätten und Forschungslabors. Der Status quo ist mit dem bisherigen Ansatz inkompatibel. Die mit hoher Datengranularität, erweiterter Datenkontextualisierung und dem Erfordernis nach echtzeitnahen Zugriffen durch Services auf Prozessdaten assoziierten Hindernisse, die der Realisierung des HPDC-Datenstroms von der Druckgießzelle über die Edge des Netzwerks zur Cloud im Wege stehen, werden herausgearbeitet, um innerhalb einer prototypischen Infrastruktur Lösungen zur Überwindung dieser zu evaluieren. Die experimentellen Elemente der Studie beinhalten die Datenerfassung an einer Druckgießzelle, die Informationsintegration über ein intervallbasiertes Streaming-Modell zur Realisierung eventbasierter und prozesszentrischer Datensatzstrukturen und die Datenpersistenz in einer Cloud-Umgebung für eine nachgelagerte Datennutzung. Die Speicherung großer Mengen an HPDC-Prozessdaten macht es erforderlich, durch eine angemessene Datenkontextualisierung das Risiko zu verringern, Datensätze mit begrenzter Nutzenbarkeit für die nachgelagerte Datenverarbeitung zu bilden. Die zeitliche Strukturierung, Kontextannotation und Zuweisung von Konfigurationszuständen für die extrahierten Prozessdaten erfolgt auf der Edge, um die Verwendung von Schema-on-Read Speichern wie Data Lakes zu erleichtern. Die Testumgebung der Druckgießzelle und ihrer Netzwerkinfrastruktur dient als empirische Grundlage für die Ableitung und Validierung der funktionalen Merkmale, die der Datenstrom des Druckgießprozesses enthalten muss, um die Ableitung eins digitalen Schattens als Datenabstraktionsschicht für den Druckgießprozess realisieren zu können. Spezifische Untersuchungen der aufgezeichneten Prozessdaten umfassen konventionelle Methoden der Prozessdatenkorrelationsanalyse und eine Untersuchung der Grenzen der Anwendbarkeit eines neuronalen Netzes zur virtuellen Replikation der Messsignale physischer Kavitätssensorik.

The High-Pressure Die-Casting (HPDC) process is a discontinuous permanent mold based primary shaping process. As a key technology for the high-volume production in the automotive industry, it serves the purpose of casting near-netshape components made from non-ferrous alloys. Due to its high degree of automation, HPDC is a data-rich casting technology that is predestined for integration into Industry 4.0 infrastructures. High-resolution and metadata-enriched HPDC datasets are a prerequisite for the comprehensive use of big data analytics in the foundry industry. Increasingly complex numerical models and machine learning algorithms rely on the provision of suitable raw data to calculate metrics that describe the quality and stability of the HPDC process. Today, however, HPDC process data are in local storage silos, which are typically difficult to access, may be based on proprietary data formats, and often do not provide adequate data granularity. The vision of the Internet of Production includes networked infrastructures such as the Worldwide Lab with interconnected production facilities and research laboratories. The status quo is incompatible with such an approach. The obstacles associated with high data granularity, extended data contextualization, and near real-time access for services to the process data, which stand in the way of realizing the HPDC data stream from the HPDC cell via the edge of the network to the cloud, are highlighted. Solutions to overcome these obstacles are evaluated within a prototypical physical infrastructure. The experimental elements of the study include data acquisition from an HPDC cell, information integration via an interval-based streaming model to realize process-centric event-based data structures, and data persistence in a cloud environment for downstream data use. The temporal structuring, context annotation and assignment of configuration states for the extracted process data are executed on the edge to facilitate the use of schema-on-read data sinks such as data lakes, where the storage of large amounts of HPDC process data requires data contextualization to reduce the risk of storing datasets with limited downstream utility. The test environment of the HPDC cell and the network infrastructure serve as an empirical basis to derive and validate the functional characteristics that the data stream of the HPDC process must include in order to enable the derivation of the digital shadow as a data abstraction layer for the HPDC process. Specific investigations of the recorded process data include conventional methods of process data correlation analysis as well as an investigation regarding the limits of applicability of a neural network to virtually replicate the signals of physical cavity sensors.

OpenAccess:
Download fulltext PDF
(additional files)

Dokumenttyp
Dissertation / PhD Thesis/Book

Format
online, print

Sprache
English

Externe Identnummern
HBZ: HT031228948

Interne Identnummern
RWTH-2025-05623
Datensatz-ID: 1013587

Beteiligte Länder
Germany

 GO


Creative Commons Attribution-NoDerivs CC BY-ND 3.0 ; OpenAccess

QR Code for this record

The record appears in these collections:
Document types > Theses > Ph.D. Theses
Document types > Books > Books
Faculty of Georesources and Materials Engineering (Fac.5) > Division of Materials Science and Engineering
Publication server / Open Access
Public records
Publications database
526110
520000

 Record created 2025-06-24, last modified 2025-10-09


OpenAccess:
Download fulltext PDF
(additional files)
Rate this document:

Rate this document:
1
2
3
 
(Not yet reviewed)