Die Frage, wie zuverlässig ein aus "Teilen" zusammengesetztes "System"
funktio- niert, ist ebenso alt wie die Konstruktion und Benutzung von
Hilfsmitteln durch den Menschen. Das Problem "Zuverlässigkeit" wächst in
seiner Bedeutung mit der Komplexität jener Systeme (z. B.
Kommunikationsnetzwerke, betriebliche Organisationen), und diese
beeinflußt die anzustellenden betriebswirtschaftlichen Betrachtungen.
Seit langem bemüht man sich, besagte Zuverlässigkeit rechnerisch zu
erfassen, etwa in Gestalt der mittleren (ungestörten) Funktionsdauer u.
a. m. Dabei gilt in aller Regel ein Vorgang erst dann als "verstanden"
und damit als beherrsch bar, wenn er - formelmäßig von einem "Modell"
abgeleitet - in seiner Funktionsweise analytisch "durchschaut" und auf
andere bereits verstandene Phänomene zurückgeführt werden kann. In
diesem Sinne werden hinsichtlich Zuverlässigkeit an derartigen Modellen
formelmäßig analysierende Lösungen erarbeitet. Nun sind jedoch
analytische Modelle - ihrer Formulierbarkeit und Rechenbarkeit wegen -
hinsichtlich Vor- aussetzungen und abbild barer Komplexität (Abstraktion
von der Realität) apriori erheblichen Beschränkungen unterworfen. So
beruhen insbesondere die analytischen Modelle zur Zuverlässigkeit von
Systemen letztlich sämtlich (mehr oder weniger in Markov- und
Erneuerungsprozessen versteckt) auf der bekannten Theorie der
Warteschlangen mit ihren einschneidenden statistischen Vorausset-
zungen. Damit aber betreffen die gewonnenen Ergebnisse häufig nur das
"Grund- sätzliche", d. h. sie sind im konkreten Einzelfall nur bedingt
brauchbar. Weiter ist das Wechselspiel der gegenseitigen Beeinflussung
der Teile eines störanfälligen Systems (z. B. Überbeanspruchung einer
Komponente bei Ausfall einer anderen) mit analytischen Modellen
praktisch nicht zu erfassen. Schließlich taugen letztere in der Regel
nur für stationäre Systemzustände. Neben den analytischen Modellen
stehen die Simulationsmodelle.