Please use this identifier to cite or link to this item:
http://dx.doi.org/10.25673/114034
Title: | Data-driven system reduction and identification from input-output time-domain data with the Loewner framework |
Author(s): | Karachalios, Dimitrios S. |
Referee(s): | Gosea, Ion Victor Benner, Peter |
Granting Institution: | Otto-von-Guericke-Universität Magdeburg, Fakultät für Mathematik |
Issue Date: | 2023 |
Extent: | xxvi, 209 Seiten |
Type: | Hochschulschrift |
Type: | PhDThesis |
Exam Date: | 2023 |
Language: | English |
URN: | urn:nbn:de:gbv:ma9:1-1981185920-1159906 |
Subjects: | Angewandte Mathematik Numerische Mathematik Mathematische Statistik Data-driven system Loewner framework |
Abstract: | Consistent description of the physical world uses mathematics under the assumption
of computability. The development of mathematics equipped the natural sciences with
computational models capable of accurately describing each phenomenon at its scale
of action while allowing the model’s generalization without losing consistency with the
observed local behavior. Accuracy in this content may have different meanings. The
central concept of accuracy concerns the difference observed between experiment and
theory. The experiment constitutes nature’s response in which the answer may be subject
to many different sources of disturbance (noise), inevitably leading to biases. Datadriven
engineering science is the field that connects state-of-the-art theoretical methods
with experimental results that guarantee reliable conclusions. Consequently, data-driven
science aims to combine these two pillars (experiment and theory) consistently; in simple
terms, the measurement must explain the theory and vice versa.
The idea of mimicking the human brain architecture (neurons) to a finite computational
machinery for learning, predicting, and decision-making sparked the concept of artificial
intelligence through a model-free computational environment fed with data (finite data
and memory). Usually, these developments are referred to as machine learning techniques
and aim to integrate data-driven engineering science after solving the model discovery
problem (recent ultimate goal). Due to computing power and memory development,
generating, storing, and processing data has become more accessible. Thus, modern
high-performance computer environments reintroduced the idea of machine learning by
allowing access to learning processes in vast databases for today’s regimes. Consequently,
with only a simple analysis, extracting difficult conclusions for decision-making has become
possible and accurate (pattern recognition). Therefore, direct decision-making from
data is advantageous but needs to mature enough to stand independently and replace
data-driven engineering science when considering some guarantees on the outcome for
safe predictions. It is a significantly different regime to decide on cinematic preferences
or to understand an inaccurate translation relative to the precariousness that a plane
can fly or a patient can breathe autonomously on mechanical ventilation. Failure in the
above applications has an entirely different impact, and awareness should be raised.
Having posed some of the fundamental problems that science faces in this modern technological
environment, this thesis aims to combine the advantages of the above research
directions and contribute to solutions for the robust modeling of engineering processes respecting
the mathematical formalism of the known physical laws for imposing reliability The main research directions apply to identifying dynamical systems that describe evolutionary
phenomena with a mathematical formulation and computationally the efficient
model order reduction of the discovered models under a finite assumed precision (known a
priori). By including methods to reduce the order of the model under-recognition (from
measurements), we arrive at applicable computational models where that adequately
predict the behavior of the actual physical model (usually partially unknown), offering
the possibility for simulation, design, control, and forecasting in the context of a reliable
digital twin.
The main inspiration for this study comes from the assumption that, for experiments,
every unbiased and undisturbed measurement is considered the absolute truth. We
construct models using interpolation methods -"interpolating the truth"- such as the
Loewner framework for identifying/inferring/building models based on these measurements
as nature’s proper response under some observable process of a potentially hidden
perfect model. In addition, when the correct mathematical formalism of the model under
construction has also been assumed, or the method allows its integration into the generally
accepted class (embedding in a specific non-linear class), we can discover the physical
law governing the phenomenon. The main result is the production of data-driven surrogate
dynamical models whose mathematical formalism has matured and can connect
with further theoretical properties for efficient simulation, design, and control, offering
robustness and verification for accurate extrapolation. Die konsistente Beschreibung der physikalischen Welt mithilfe der Mathematik erfolgt unter Annahme der Berechenbarkeit. Die theoretische Weiterentwicklung der Mathematik stattete die Naturwissenschaften mit Rechenmodellen aus, die in der Lage sind, jedes Phänomen in seinem Wirkungsbereich präzise zu beschreiben und gleichzeitig eine Generalisierbarkeit des Modells zu ermöglichen, ohne die Übereinstimmung mit dem beobachteten lokalen Verhalten zu verlieren. Genauigkeit kann in diesem Zusammenhang verschiedene Bedeutungen haben. Der zentrale Begriff der Genauigkeit bezieht sich auf den Unterschied zwischen Experiment und Theorie. Das Experiment stellt die Reaktion der Natur dar, welche vielen verschiedenen Störgrößen (Rauschen) ausgesetzt sein kann, was unweigerlich zu Verzerrungen führt. Datengestützte Ingenieurwissenschaft verbindet modernste theoretische Methoden mit experimentellen Ergebnissen, die zuverlässige Schlussfolgerungen garantieren. Folglich zielt die datengesteuerte Wissenschaft darauf ab, diese beiden Säulen (Experiment und Theorie) kohärent miteinander zu verbinden; einfach ausgedrückt, die Messung muss die Theorie erklären und umgekehrt. Die Idee, die Architektur des menschlichen Gehirns (Neuronen) mit einer endlichen Rechenmaschine für das Lernen, die Vorhersage und die Entscheidungsfindung zu imitieren, hat das Konzept der künstlichen Intelligenz durch eine modellfreie Rechenumgebung (endliche Datenmenge und Speicher) hervorgebracht. In der Regel werden diese Entwicklungen als maschinelles Lernen bezeichnet und zielen darauf ab, die datengesteuerte Ingenieurwissenschaft nach der Lösung des Modellfindungsproblems zu integrieren (jüngstes Endziel). Dank des Fortschreitens von Rechenleistung und Speicherkapazität ist die Erzeugung, Speicherung und Verarbeitung von Daten leichter zugänglich geworden. So haben moderne Hochleistungsrechenumgebungen die Idee des maschinellen Lernens wieder eingeführt, indem sie den Zugang von Lernprozessen zu riesigen Datenbanken für die heutigen Systeme ermöglichen. Folglich ist es möglich geworden, mit einer einfachen Analyse komplizierte Schlussfolgerungen für die Entscheidungsfindung zu ziehen (Mustererkennung). Daher ist die direkte Entscheidungsfindung auf der Grundlage von Daten vorteilhaft, muss aber noch so weit ausreifen, dass sie unabhängig ist und die datengesteuerte Ingenieurwissenschaft unter der Berücksichtigung von Garantien für sichere Vorhersagen ersetzen kann. Es hat eine ganz andere Dimension, über filmische Vorlieben zu entscheiden oder eine ungenaue Übersetzung zu verstehen, als ein Flugzeug zu fliegen oder einen Patienten künstlich zu beatmen. Ein Bewusstsein sollte vorhanden sein, dass ein Versagen bei den genannten Anwendungen ganz andere Auswirkungen nach sich zieht. Nachdem einige der grundlegenden Probleme, die die Wissenschaft im modernen technologischen Umfeld konfrontieren, erwähnt wurden, zielt diese Doktorarbeit darauf ab, die Vorteile der oben genannten Forschungsrichtungen zu kombinieren und dazu beizutragen, Lösungen für die robuste Modellierung von technischen Prozessen unter Beachtung des mathematischen Formalismus der bekannten physikalischen Gesetze zum Zwecke der Zuverlässigkeit zu gewährleisten. Die Forschungsschwerpunkte beziehen sich auf die Identifizierung dynamischer Systeme, welche evolutionäre Phänomene mit einer mathematischen Formulierung beschreiben sowie auf die rechnentechnisch effiziente Reduzierung der Modellordnung entdeckter Modelle unter einer endlichen angenommenen Genauigkeit (a priori bekannt). Durch die Einbeziehung von Methoden zur Verringerung der Ordnung des (aus Messungen) nicht erkannten Modells gelangen wir zu anwendbaren Rechenmodellen, die das Verhalten des tatsächlichen (in der Regel teilweise unbekannten) physikalischen Modells adäquat vorhersagen und damit die Möglichkeit zur Simulation, zum Entwurf, zur Steuerung und zur Vorhersage im Rahmen eines zuverlässigen digitalen Zwillings bieten. Die Hauptinspiration für diese Studie geht von der Annahme aus, dass bei Experimenten jede unvoreingenommene und ungestörte Messung als absolute Wahrheit angesehen wird. Wir konstruieren Modelle mit Hilfe von Interpolationsmethoden - "Interpolation der Wahrheit" - wie z. B. dem Loewner-Rahmenwerk, um auf der Grundlage dieser Messungen die richtige Reaktion der Natur auf einen beobachtbaren Prozess eines potenziell verborgenen perfekten Modells zu ermitteln/zu bestimmen/zu konstruieren. Wenn außerdem der korrekte mathematische Formalismus des zu konstruierenden Modells angenommen wurde oder die Methode seine Integration in die allgemein akzeptierte Klasse (Einbettung in eine spezifische nichtlineare Klasse) ermöglicht, können wir das physikalische Gesetz entdecken, das das Phänomen erklärt. Das Hauptergebnis ist die Erstellung von datengesteuerten dynamischen Ersatzmodellen, deren mathematischer Formalismus ausgereift ist und mit weiteren theoretischen Eigenschaften für eine effiziente Simulation, Konstruktion und Steuerung verbunden werden kann, wobei Robustheit und Verifizierung für eine genaue Extrapolation geboten werden. |
URI: | https://opendata.uni-halle.de//handle/1981185920/115990 http://dx.doi.org/10.25673/114034 |
Open Access: | Open access publication |
License: | (CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0 |
Appears in Collections: | Fakultät für Mathematik |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Karachalios_Dimitrios S._Dissertation_2023.pdf | Dissertation | 12.72 MB | Adobe PDF | View/Open |