Der Vorfall ereignete sich angeblich 1949 auf der Edwards Air Force Base
in Muroc, Californien. Colonel Stapp machte Bruchversuche auf dem freien
Platz. Mit von der Partie war ein gewisser Captain Ed Murphy, ein Entwicklungsingenieur
vom Wright Field Aircraft Labor. Als ein Arbeiter beim Verdrahten eines
Gerätes einen Fehler machte, meinte Ed Murphy lakonisch: "Wenn
es eine Möglichkeit gibt, etwas falsch zu machen, dann wird er es
tun." So entstand der Begriff "Murphys Gesetz". Es handelt
sich um eine Sammlung nicht todernst gemeinter Regeln, die jedoch alle
ein Körnchen Wahrheit enthalten.
Das erste und bekanntste Gesetz nach Murphy lautet: "Alles, was
schiefgehen kann, geht irgendwann einmal schief." Das zweite ist
nicht minder erfreulich: "Wenn etwas schiefgeht, wird stets Schadensmaximierung
angestrebt." Man sollte sich mitunter in Erinnerung rufen, daß
kein technisches System wirklich hundertprozentig sicher ist. Absolut
fehlerfreie Systeme sind Phantome.
Die Frage lautet, wie sicher wir sein können, Risiken zuzustimmen,
nur weil die Projekte "wissenschaftlich" begründet sind.
Das Beiwort "wissenschaftlich" verspricht insgeheim eine hohe
Sicherheit, doch dieses Versprechen kann selten, meist jedoch nie eingelöst
werden. Alle großen Unfälle (Seveso, Bhopal, Tschnobyl usw.)
zeigen ein gemeinsames Merkmal. Sie sind durch mehr oder weniger banale
menschliche Fehler ausgelöst wurden. Insoferne hatte Murphy recht.
Was schiefgehen kann, geht irgendwann schief.
Die Behauptung, nicht die Systeme hätten versagt, sondern der Mensch,
enthält einen schwerwiegenden Denkfehler. Die Technik ist nämlich
deshalb fehlbar, weil sie menschliches Fehlverhalten nicht kennt, ja gar
nicht kennen kann. Ingenieure müßten beim Planen von technischen
Projekten exakt vorhersehen können, welche Fehler Menschen in welcher
Situation machen. Die menschlichen Fehlleistungen müßten von
Anfang an in Steurungsprogrammen eine Berücksichtigung finden. Moderne
Computerprogramme fragen beispielsweise: "Wollen Sie die Datei wirklich
löschen?" Absolute Sicherheit bedeutete aber, ausnahmslos die
gesamte Menge der absehbaren Irrtümer als Bestandteil eines technischen
Entwurfes zu berücksichtigen.
In den Steuerungszentren von Kernkraftwerken hat man die Programme in
Richtung Fehlerrobustheit weiterentwickelt. Diese Robustheit ist jedoch
nicht mit Fehlerlosigkeit oder gar uneingeschränkter Sicherheit gleichzusetzen.
Man kann es den allzu technik- und fortschrittsfreudigen Zeitgenossen
nicht oft genug sagen: Fortschrittlichkeit darf nie kritiklos sein. Skepsis
hat nichts mit mangelnder Dynamik zu tun. Dynamik ist ein Begriff, der
auch auf Lemminge trifft, wenn sie zur Küste rennen.
|
|