Please use this identifier to cite or link to this item:
http://dx.doi.org/10.25673/101396
Title: | A posteriori error estimation and adaptivity for model order reduction of large-scale systems |
Author(s): | Chellappa, Sridhar |
Referee(s): | Feng, Lihong Benner, Peter |
Granting Institution: | Otto-von-Guericke-Universität Magdeburg, Fakultät für Mathematik |
Issue Date: | 2022 |
Extent: | xxvi, 201 Seiten |
Type: | Hochschulschrift |
Type: | PhDThesis |
Exam Date: | 2022 |
Language: | English |
URN: | urn:nbn:de:gbv:ma9:1-1981185920-1033525 |
Subjects: | Numerische Mathematik |
Abstract: | In this thesis, we study a posteriori error estimation and adaptivity with the goal of
automatic model order reduction of large-scale systems. We propose efficient offline
adaptive techniques that are aimed at (a) bringing down the significant offline cost
often associated with generating reduced-order models and (b) minimizing the user
interference in obtaining efficient reduced-order models. We consider adaptivity in two
aspects: adaptive basis enrichment and adaptive training set sampling. The adaptive
techniques we propose are enabled by efficient and sharp a posteriori error estimators.
The error estimators not only guide the offline generation of reduced-order models, but
also provide error certification for their online use. Starting with the class of parametric
linear steady, time-harmonic, and dynamical systems, we introduce an inf-sup-constantfree
error estimator targeted towards systems with small or vanishing inf-sup constant.
This is especially true for many systems arising in electromagnetics. We incorporate
the error estimator within a greedy algorithm to adaptively enrich the projection basis.
We iteratively compute a data-driven surrogate model of the error estimator in order
to enable the adaptive sampling of the training set. Following this, the adaptive techniques
are then extended to the class of (parametric) nonlinear dynamical systems. We
introduce an improved a posteriori error estimator for the output variable and employ
it within a greedy algorithm to obtain a compact reduced-order model. Our improved
error estimator is able to additively decompose the error contribution arising from the
approximation of the state vector and the nonlinear vector via hyperreduction. Making
use of this, we adaptively and simultaneously add/remove basis vectors to/from the
two projection matrices. To address the curse of dimensionality often associated with
parametric problems, we introduce two separate strategies to adaptively sample the
training set. The first is a bottom-up sampling where a data-driven surrogate of the improved
error estimator is utilised to iteratively add/remove parameter samples to/from
a coarse training set. The second is a top-down approach in which we start from a fine
training set and iteratively identify the most important samples to be retained. As a
final contribution, the combined adaptive basis enrichment and adaptive training set
sampling approach is extended to coupled systems. Throughout the thesis, we validate
our theoretical results and algorithms by performing numerical experiments on several
large-scale examples chosen to represent a wide range of applications. In dieser Arbeit untersuchen wir a posteriori-Fehlerabschätzung und Adaptivität mit dem Ziel der automatisierten Modellordnungsreduktion von Systemen mit großer Zustandsraumdimension. Wir stellen effiziente offline-adaptive Verfahren vor, die darauf abzielen, (a) die beträchtlichen offline-Rechenkosten zu senken, die oft mit der Erzeugung von Modellen reduzierter Ordnung verbunden sind, und (b) den Einfluss des Benutzers bei der Generierung effizienter Modelle reduzierter Ordnung zu minimieren. Wir betrachten zwei Aspekte des Konzepts der Adaptivität genauer: die adaptive Basisanreicherung und die adaptive Auswahl der Trainingsmengen. Die von uns vorgeschlagenen adaptiven Verfahren werden durch effiziente und genaue a posteriori-Fehlerschätzer ermöglicht. Die Fehlerschätzer werden nicht nur für die offline-Generierung von Modellen reduzierter Ordnung benötigt, sondern liefern auch eine Fehlerzertifizierung für deren Nutzung in der online-Phase. Ausgehend von der Klasse parametrischer linearer, stetiger, zeitharmonischer und dynamischer Systeme führen wir einen inf-sup-Konstantenfreien Fehlerschätzer ein, der auf Systeme mit einer sehr kleinen oder verschwindenden inf-sup-Konstante ausgerichtet ist. Dies gilt insbesondere für viele Systeme aus der Elektromagnetik. Wir integrieren den Fehlerschätzer in einen Greedy-Algorithmus zur adaptiven Anreicherung der Projektionsbasis. Wir berechnen iterativ ein datengetriebenes Ersatzmodell des Fehlerschätzers, um die adaptive Auswahl der Trainingsmenge zu ermöglichen. Im Anschluss daran werden die adaptiven Verfahren auf die Klasse der (parametrischen) nichtlinearen, dynamischen Systeme erweitert. Wir führen einen verbesserten a posteriori-Fehlerschätzer für die Ausgangsvariable ein und verwenden ihn in einem Greedy-Algorithmus, um ein (kompaktes) Modell reduzierter Ordnung zu erhalten. Unser verbesserter Fehlerschätzer ist in der Lage die Beiträge, die sich aus der Approximation des Zustandsvektors und des nichtlinearen Vektors ergeben, mithilfe von Hyperreduktion additiv zu zerlegen. Auf dieser Grundlage fügen wir adaptiv und simultan Basisvektoren zu den beiden Projektionsmatrizen hinzu bzw. entfernen sie. Um den “Fluch der Dimensionalität” zu umgehen, der oft mit parametrischen Problemen verbunden ist, führen wir zwei separate Strategien zur adaptiven Auswahl der Trainingsmenge ein. Bei der ersten handelt es sich um ein Bottom-up-Sampling, bei dem eine datengesteuerte Approximation des verbesserten Fehlerschätzers verwendet wird, um iterativ Parameterproben zu einer groben Trainingsmenge hinzuzufügen oder daraus zu entfernen. Der zweite ist ein Top-Down-Sampling-Ansatz, bei dem wir von einer feinen Trainingsmenge ausgehen und iterativ die wichtigsten Proben identifizieren, die beibehalten werden sollen. Als letzter Beitrag wird der kombinierte Ansatz der adaptiven Basisanreicherung und der adaptiven Trainingsmengenauswahl auf gekoppelte Systeme erweitert. Während der gesamten Arbeit validieren wir unsere theoretischen Ergebnisse und Algorithmen durch numerische Experimente an mehreren groß angelegten Beispielen, die ein breites Spektrum von Anwendungen repräsentieren. |
URI: | https://opendata.uni-halle.de//handle/1981185920/103352 http://dx.doi.org/10.25673/101396 |
Open Access: | Open access publication |
License: | (CC BY-SA 4.0) Creative Commons Attribution ShareAlike 4.0 |
Appears in Collections: | Fakultät für Mathematik |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
Chellappa_Sridhar_Dissertation_2022.pdf | Dissertation | 3.96 MB | Adobe PDF | View/Open |