Quantifizierung von Unsicherheiten

Vor allem durch die Verbesserungen im TCAD (Computer Aided Design) und in der Fabrikation werden Produkte zunehmend am Operationslimit entwickelt. Die Berücksichtigung von Unsicherheiten wird daher immer bedeutender. Man unterscheidet hier zwischen aleatorischer und epistemischer Unsicherheit. Aleatorische Unsicherheit kann durch bekannte Verteilungsfunktionen charakterisiert werden, während epistemische Unsicherheit durch mangelndes Wissen, z.B., bezüglich der zugrundeliegenden Wahrscheinlichkeiten oder Modelle entsteht (Definition nach [Jakeman_2010aa,Hoffman_1994aa]).

Um (aleatorische) Unsicherheiten modellieren und berechnen zu können, haben sich neben der klassischen Monte-Carlo Methode auch Konzepte der Unsicherheitsquantifizierung (UQ) mittels Spektralverfahren wie des generalisierten polynomialen Chaos (gPC) etabliert. Dabei werden relativ wenige Simulationen des gekoppelten Systems durchgeführt, wodurch Effizienzgewinne erwartet werden, siehe [Le-Maitre_2012aa, Pulch_2010aa, Xiu_2010aa].

Auch mit Genauigkeitssteuerung reduzierte Modelle können als Ersatz in numerisch aufwändigen Verfahren verwendet werde, etwa in gPC, Optimierung oder Quantilsschätzung. Allerdings ist das Verhalten solcher Algorithmen für hochdimensionale Probleme noch unzureichend und geeignete Erweiterungen noch nicht ausreichend studiert. Stochastische Unsicherheitsanalysen von (gekoppelten) elektromagnetischen Systemen sind noch ein sehr junges Gebiet. Aktuelle ingenieurstechnische Arbeiten, z.B. [Schops_2012ae,Ramarotafika_2012ab,Bartel_2013ab], betreffen Unsicherheiten in nichtlinearen Materialcharakteristiken und einige erste Arbeiten untersuchen unsichere Geometrien an Hand von einfachen Modellen, [Mac_2012aa]. Allgemeine mathematische Verfahren für komplexe Modelle sind noch nicht untersucht.

Eine wichtige Ergänzung zur Quantifizierung von Unsicherheiten mittels Monte-Carlo-Methoden und gPC ist eine Worst-Case Analyse. Zur präzisen Charakterisierung von Messunsicherheiten sind mitunter eine große Anzahl von Messungen notwendig, die aufgrund von Kosten- und Zeitbeschränkungen nicht immer durchgeführt werden können. Um Ausfälle von Bauteilen und Maschinen sicher zu vermeiden bietet sich in diesem Fall eine Worst-Case-Analyse an, die kein Wissen über Verteilungsfunktionen voraussetzt (epistemisch). Das UQ-Problem wird als Optimierungsproblem reformuliert und eine statistische Beschreibung der Eingangsunsicherheiten überflüssig. Insbesondere der in [Babuska_2005aa] eingeführte Einsatz von effizienten Störungsansätzen mit Fehlerkontrolle ist hier interessant. Die Anwendung beschränkt sich bisher allerdings meist auf lineare und statische Probleme mit Unsicherheiten in den Materialparametern.

Die Berücksichtigung von Unsicherheiten in der Industrie geht bis in die 70er Jahre zurück, z.B. wurden Worst-Case-Szenarien in der Optimierung von elektrischen Schaltungen betrachtet [Schjaer-Jacobsen_1979aa]. In Anwendungen mit räumlich-verteilten elektromagnetischen Feldern beschränkt sich das bisher meist auf lineare und statische Probleme mit Unsicherheiten in den Materialparametern.