Importanzen geben den Einfluss eines jeden Basis-Ereignisses auf eine System-Kenngröße an. In der Literatur finden sich eine ganze Reihe von Importanzen, welche oft unterschiedlich definiert sind, und fast immer ohne Nennung der
System-Kenngröße, für die sie definiert wurden. So wird auch bezüglich der Importanzen oft nur von „Ausfallwahrscheinlichkeiten“ gesprochen.
Importanzen für die System-Ausfallrate \(h_\mathrm {sys}\) (in [IEC 61508] PFH genannt) sucht man in der Literatur praktisch vergeblich. Das ist insofern nachvollziebar, als dass Importanzen fast immer im Zusammenhang
mit Fehlerbäumen definiert werden, und die Berechnung der System-Ausfallrate mit Fehlerbäumen ebenfalls nur selten (z. B. in [NUREG]) behandelt wird. Einige Importanzen lassen sich direkt auf die Ausfallrate
übertragen, einige sinngemäß, und einige Importanzen können für die Ausfallrate gar nicht sinnvoll definiert werden.
Wenngleich Importanzen meist für die Verwendung mit Fehlerbäumen definiert wurden, lassen sich doch einige auch auf andere Modelle, wie etwa Markov-Modelle anwenden.
D.1 Allgemeine Hinweise
In den Abschnitten 5 bis 7 wurde dargestellt, dass oft eine transiente
(zeitabhängige) Berechnung nötig ist, um korrekte Werte zu erhalten. Bei Importanzen kann man hierauf oft verzichten, da zum Einen viele Importanzen per Definition schon relative Größen darstellen, sich
Ungenauigkeiten in Zähler und Nenner also aufheben, und zum Anderen der Zweck der Importanzen nur der ist, Basis-Ereignisse oder Minimalschnitte zu priorisieren, wofür es ebenfalls nur auf Verhältnisse oder
Größenordnungen und nicht auf bestimmte Zahlenwerte ankommt.
Um die Formeln kurz und einprägsam zu halten, wird im Folgenden auf die Erwähnung der Abhängigkeit von der Systemlebenszeit \(T\) oder der Mittelwertbildung verzichtet: Statt \(F(T)\) wird kurz \(F\)
geschrieben, statt \(\overline {Q}(T)\) wird kurz \(Q\) geschrieben, und statt \(\overline {h}(T)\) wird kurz \(h\).
D.2 Partielle Ableitung (PD) und Birnbaum-Importanz (BI)
Unmittelbar naheliegend als Maß für die Wichtigkeit einzelner Basis-Ereignisse ist die partielle Ableitung (partial derivative, PD) des System-Werts \(Q\), \(F\) oder \(h\).
Die partiellen Ableitungen der System-Nichtverfügbarkeit \(Q\) und der System-Zuverlässigkeit \(F\) werden auch Birnbaum-Importanz genannt. 26
26 Es ist keine Quelle bekannt, die eine partielle Ableitung der System-Ausfallrate als „Birnbaum-Importanz“ bezeichnet.
D.2.1 Partielle Ableitung für die System-Nichtverfügbarkeit
Die Ableitung der System-Nichtverfügbarkeit \(Q_\mathrm {Sys}\) nach der Nichtverfügbarkeit jedes Basis-Ereignisses \(Q_x\) ist gegeben durch:
Bei Verwendung von BDDs kann die partielle Ableitung \(\frac {\partial Q_\mathrm {Sys}}{\partial Q_x}\) leicht exakt ermittelt werden. Verschiebt man jedes Basis-Ereignis der Reihe nach an die Spitze des BDDs, wie in
Abbildung 42 dargestellt, ergibt sich
Abbildung 42: Zur Berechnung der partiellen Ableitung mit BDDs
Dabei ist \(\mathrm {BDD}_0\) der Low-Zweig für Basis-Ereignis \(x\) also die System-Nichtverfügbarkeit im Fall, dass Basis-Ereignis \(x\) nicht ausgefallen ist, und \(\mathrm {BDD}_1\) der High-Zweig also die
System-Nichtverfügbarkeit im Fall, dass Basis-Ereignis \(x\) ausgefallen ist. Damit kann man also auch schreiben
Dabei meint \(Q_\mathrm {Sys}(Q_x:=1)\) die System-Nichtverfügbarkeit, die sich ergibt, wenn man die Nichtverfügbarkeit von Basis-Ereignis \(x\) zu 1 setzt, und die Nichtverfügbarkeit aller anderen
Basis-Ereignisse auf ihren ursprünglichen Werten belässt.
Da \(\mathrm {BDD}_{x,0}\) die Wahrscheinlichkeit angibt, mit der das System nicht verfügbar ist, auch wenn Komponente \(x\) in Ordnung ist, und \(\mathrm {BDD}_{x,1}\) die Wahrscheinlichkeit, dass das System dann nicht
verfügbar ist, wenn auch noch Komponente \(x\) ausfällt, ist die Differenz die Wahrscheinlichkeit, dass das System sich in einem Zustand befindet, in dem Komponente \(x\) kritisch ist, also
der Ausfall von Komponente \(x\) zum Systemausfall führen würde.
D.2.2 Partielle Ableitung für die System-Unzuverlässigkeit
Auch für die System-Unzuverlässigkeit kann die partielle Ableitung angegeben werden:
Dabei bezeichnet \(\mathbf {F}\) den Vektor der Unzuverlässigkeiten aller Basis-Ereignisse zu einem bestimmten Zeitpunkt (in der Regel zum System-Lebensende).
Beispiel D.1 Der Fehlerbaum eines Systems sei BE1 UND BE2. Damit gilt:
Die Ableitung nach \(F_\mathrm {BE1}(T)\) ist \(F_\mathrm {BE2}(T)\) und umgekehrt.
Wie in Abschnitt 7 erläutert, kann ein Fehlerbaum zur Berechnung der System-Unzuverlässigkeit auch Bedingungen enthalten, also
Basis-Ereignisse, die durch ihre Nichtverfügbarkeit \(Q\) beschrieben sind. Für diese Basis-Ereignisse kann man ersatzweise die partielle Ableitung \(\mathrm {I^{PD}_{F,x}} = \frac {\partial F_\mathrm
{Sys}}{\partial Q_x}\) bilden, allerdings gelten die oben genannten Formeln nicht oder nur noch näherungsweise.
D.2.3 Partielle Ableitung für die System-Ausfallrate
Für die System-Ausfallrate \(h\) macht eine partielle Ableitung nur nach der Eintrittsrate \(h_x\) eines Basis-Ereignisses \(\frac {\partial h_\mathrm {Sys}}{\partial h_x}\) wenig Sinn, da die System-Ausfallrate \(h\)
gemäß Formel (66) auch von der Nichtverfügbarkeit jedes Basis-Ereignisses abhängt:
Man könnte natürlich zwei Ableitungen \(\mathrm {I^{PD}_{h_h,x}} = \frac {\partial h_\mathrm {Sys}}{\partial h_x}\) und \(\mathrm {I^{PD}_{h_Q,x}} = \frac {\partial h_\mathrm
{Sys}}{\partial Q_x}\) bilden. Allerdings hängt \(Q_x\) bei den meisten Basis-Ereignissen wiederum von der Ausfallrate desselben ab:
Für regelmäßig getestete und reparierte Komponenten etwa gilt für die mittlere Nichtverfügbarkeit \(\overline {Q} \approx \lambda \cdot (T_\mathrm {Test}/2+\mathrm {MRT}) = h
\cdot (T_\mathrm {Test}/2+\mathrm {MRT})\).
Sinnvoller ist es daher, die Importanz \(\mathrm {I^{PD}_{h,x}}\) als Ableitung nach der (mittleren) Ausfallrate des Basis-Ereignisses \(\lambda _i\) zu definieren:
Wenn Basis-Ereignis \(x\) in \(\mathrm {MCS}_i\) nicht enthalten ist, ist diese Ableitung null. Andernfalls ist der Summand mit \(j=x\) gleich \(\prod \limits _{k=1,k\neq j}^{m} Q_{k}\) (wobei die Nichtverfügbarkeiten
dieses Produkts alle von Basis-Ereignis \(x\) unabhängig sind), und alle Summanden mit \(j\neq x\) sind gleich \(h_j \frac {\partial Q_x}{\partial \lambda _x} \prod \limits _{k=1,k\neq j,k\neq x}^{m}
Q_{k}\).
Beispiel D.2 Ein System bestehe aus zwei unterschiedlichen Komponenten mit konstanten Ausfallraten \(\lambda _1\) und \(\lambda _2\), welche in
unterschiedlichen Intervallen \(T_\mathrm {Test,i}\) regelmäßig getestet und ggf. umgehend repariert werden. Das System falle dann gefährlich aus, wenn eine der Komponenten ausgefallen ist, und in diesem Zustand noch
die zweite Komponente ausfällt. Der Fehlerbaum ist damit BE1 UND BE2. Es gibt also nur einen Minimalschnitt, nämlich {BE1, BE2}. Damit gilt:
Aufgrund der oben erwähnten Eigenschaft, dass die partiellen Ableitungen der Nichtverfügbarkeit bzw. Unzuverlässigkeit gleich der Wahrscheinlichkeit sind, dass sich das System in einem Zustand befindet, von dem aus
es bei Eintritt von Ereignis \(x\) in einen Ausfallzustand gelangt, ist die partiellen Ableitung nach \(Q_x\) bzw. \(F_x\) gleich der Summe der (mittleren) Aufenthaltswahrscheinlichkeiten aller \(m_x\) Zustände, von denen aus eine Kante
des Basis-Ereignisses \(x\) zu einem Ausfallzustand führt:
Das Risiko-Reduzierung-Potenzial (engl. Risk Reduction, RR) gibt an, wie sehr \(\overline {Q}\), \(F(T)\) oder \(\overline {h}\) reduziert würden, wenn Basis-Ereignis \(\mathrm {BE}_x\)
nie eintreten würde, also Komponente \(x\) nicht ausfallen könnte.
Das Verbesserungs-Potential kann man unmittelbar auch auf die System-Ausfallrate anwenden, da aufgrund der Definition unerheblich ist, durch welche Größe die Qualität eines Basis-Ereignisses definiert ist – oder durch welche
Kombination von Größen. Allerdings muss man dann sinnvollerweise gleichzeitig \(h_x=0\) und \(Q_x=0\) setzen:
Der Risiko-Reduzierungs-Wert (engl. Risk-Reduction-Worth, RRW) gibt an, wie sehr \(\overline {Q}\), \(F(T)\) oder \(\overline {h}\) relativ reduziert würden, wenn Komponente \(x\) nicht ausfallen würde:
Die Risk-Reduction-Worth kann offensichtlich beliebig große Werte annehmen. Je größer, desto wirksamer ist die Verbesserung von Komponente \(x\). Ein Wert von \(\approx 0\) hingegen bedeutet, dass die Komponente \(x\) praktisch
keinen Einfluss hat. Achtung: Der Summand -1 wird häufig weggelassen.
D.5 Fussell-Vesely-Importanz (FV)
Dividiert man das Risiko-Reduzierungs-Potenzial durch die ursprüngliche System-Größe, so ergibt sich die Fussell-Vesely-Importanz:
Die Fussell-Vesely-Importanz lässt sich sehr leicht auf Basis von Minimalschnitten berechnen: \(Q_\mathrm {Sys}(Q_x:=0)\) ist der Anteil der System-Nichtverfügbarkeit, der von den Minimalschnitten geliefert wird, die
Basis-Ereignis \(x\) nicht enthalten. \(Q_\mathrm {Sys}(\mathbf {Q}) - Q_\mathrm {Sys}(Q_x:=0)\) ist folglich der Anteil der System-Nichtverfügbarkeit, der von den Minimalschnitten
geliefert wird, die Basis-Ereignis \(x\) enthalten. Damit gilt näherungsweise (für kleine \(Q_\mathrm {MCS}\)):
Entsprechendes gilt für \(I^\mathrm {FV}_{F,x}\) und \(I^\mathrm {FV}_{h,x}\). Die Fussell-Vesely-Importanz ist somit die Wahrscheinlichkeit, dass mindestens ein Minimalschnitt, der Komponente \(x\) enthält, zum
Systemausfall geführt hat, wenn das System ausgefallen ist.
Alternativ kann man auch die Formel von Esary-Proschan (54)
Für die System-Ausfallrate \(h\) lässt sich keine RA angeben, da die Ausfallrate einer Komponente (bzw. allgemein: Die Eintrittsrate eines Ereignisses) nicht dimensionslos ist und daher auch keinen oberen Grenzwert
\(h_\mathrm {max}\) kennt, und es somit auch keinen oberen Grenzwert \(h_\mathrm {Sys}(h_{\mathrm {max},x})\) gibt.
D.7 Risk-Achievement-Worth (RAW)
Setzt man die RA ins Verhältnis zur ursprünglichen Systemgröße, so erhält man den Faktor, um den sich das Risiko vergrößeren würde, wenn die Komponente \(x\) immer ausgefallen
wäre (engl. Risk-Achievement-Worth, RAW):
Wie für die RA ist auch die RAW für Ausfallraten nicht anwendbar, da im Allgemeinen kein Grenzwert existiert.
D.8 Kritikalitäts-Importanz (CRI)
Die Kritikalitäts-Importanz (engl. Criticality Importance, CRI) ist definiert als das Verhältnis der relativen Änderung der Systemgröße zur relativen Änderung der Komponentengröße:
Sie kann auf die Ausfallrate erweitert werden, indem man wie bei der partiellen Ableitung die Komponentengrößen \(h_x\) und \(Q_x\) als Funktion der Ausfallrate der Komponente beschreibt:
Sie ist die Wahrscheinlichkeit, dass Komponente \(x\) zum Ausfall geführt hat, wenn das System ausgefallen ist. Sie gibt damit einen Hinweis, wo man zuerst nach dem Fehler suchen sollte, wenn das System ausgefallen ist. Oder anders
gesagt: Je größer die Kritikalitätsimportanz, umso stärkere Auswirkung hat eine relative Verbesserung der Komponente. Sie wird daher manchmal auch Upgrading Importance
genannt.
D.9 Importanzen für generische Basis-Ereignisse
Interessant ist auch die Frage, wie sehr sich die System-Eigenschaft \(Q_\mathrm {Sys}\), \(F_\mathrm {Sys}\) bzw. \(h_\mathrm {Sys}\) ändert, wenn man eine Komponente verändert, die mehrfach verwendet wird. Es
wird also nicht die Importanz eines einzelnen Ereignisses betrachtet, sondern die Importanz aller Ereignisse, die sich auf dasselbe generische Basis-Ereignis (GBE) beziehen, einschließlich möglicherweise vorhandener
Common-Cause-Faktoren \(\beta \). Dies ist im folgenden Abschnitt für Beispiel 3 enthalten.
Insbesondere die Importanzen \(\mathrm {I^{PD}}\) und \(\mathrm {I^{CRI}}\) sind bezüglich der generischen Basis-Ereignisse wichtig, denn sie geben an, wie sehr sich die Systemgröße absolut bzw. relativ
ändert, wenn sich die Basisgröße ändert – etwa weil sie nicht genau bekannt ist.
Für Fehlerbäume berechnet sich die partielle Ableitung nach dem generischen Basisereignis xgen für die System-Nichtverfügbarkeit mit der Näherungsformel (53) zu
Dabei meint \(a\) die Anzahl der Basis-Ereignisse im Minimalschnitt \(i\), die sich auf dasselbe generische Basis-Ereignis xgen beziehen. Der Ausdruck \(j\neq \mathrm {xgen}\) meint, dass alle Basis-Ereignisse, die auf das generische
Basis-Ereignis xgen verweisen, ignoriert werden sollen, unabhängig von ihrem Index im Minimalschnitt.
Die partielle Ableitung für die System-Ausfallrate berechnet sich basierend auf Minimalschnitten zu
D.10 Beispielhafte Importanzen für die System-Nichtverfügbarkeit
Für einige einfache Architekturen sind die Importanzen bezüglich \(Q_\mathrm {sys}\) in der folgenden Tabelle erwähnt. In Beispiel 3 werden zwei gleichartige Ereignisse A.1 und A.2 UND-verknüpft.
Somit sind hier auch die in Abschnitt D.9 eingeführten Importanzen bezüglich des zugrundeliegenden generischen Basis-Ereignisses (A) interessant. Diese werden hier
mit \(I_\mathrm {Q,genA}\) bezeichnet, wohingegen \(I_\mathrm {Q,A}\) jeweils die Importanz des Einzelereignisses A.1 oder A.2 bezeichnet. Ein Common-Cause-Faktor zwischen A.1 und A.2 wurde nicht angenommen (\(\beta _A = 0\)).
Hinweis: Bei den Berechnungen wurden immer die Mittelwerte \(\overline {Q_x}\) verwendet, also etwa \(\overline {Q_\mathrm {A.1}} \cdot \overline {Q_\mathrm {A.2}}\) anstatt \(1/T \cdot \int _0^T Q_\mathrm
{A.1}(t) \cdot Q_\mathrm {A.2}(t) \; dt\). Außerdem wurde die Näherungsformel (41) für die
Nichtverfügbarkeiten der Einzelereignisse verwendet.
D.11 Beispielhafte Importanzen für die System-Ausfallrate
Für einige einfache Architekturen sind die Importanzen bezüglich \(h_\mathrm {sys}\) in der folgenden Tabelle erwähnt. In Beispiel 3 werden zwei gleichartige Ereignisse A.1 und A.2 UND-verknüpft.
Somit sind hier auch die in Abschnitt D.9 eingeführte Importanzen bezüglich des zugrundeliegenden generischen Basis-Ereignisses interessant. Diese werden hier mit
\(I_\mathrm {h,genA}\) bezeichnet, wohingegen \(I_\mathrm {h,A}\) jeweils die Importanz des Einzelereignisses A.1 oder A.2 bezeichnet.