Welt der Naturwissenschaften und Politik
|
MURPHYs GESETZ (1) |
Der Vorfall ereignete sich angeblich 1949 auf der Edwards Air Force Base in Muroc, Californien. Colonel Stapp machte Bruchversuche auf dem freien Platz. Mit von der Partie war ein gewisser Captain Ed Murphy, ein Entwicklungsingenieur vom Wright Field Aircraft Labor. Als ein Arbeiter beim Verdrahten eines Gerätes einen Fehler machte, meinte Ed Murphy lakonisch: "Wenn es eine Möglichkeit gibt, etwas falsch zu machen, dann wird er es tun." So entstand der Begriff "Murphys Gesetz". Es handelt sich um eine Sammlung nicht todernst gemeinter Regeln, die jedoch alle ein Körnchen Wahrheit enthalten. Das erste und bekanntste Gesetz nach Murphy lautet: "Alles, was schiefgehen kann, geht irgendwann einmal schief." Das zweite ist nicht minder erfreulich: "Wenn etwas schiefgeht, wird stets Schadensmaximierung angestrebt." Man sollte sich mitunter in Erinnerung rufen, daß kein technisches System wirklich hundertprozentig sicher ist. Absolut fehlerfreie Systeme sind Phantome. Die Frage lautet, wie sicher wir sein können, Risiken zuzustimmen, nur weil die Projekte "wissenschaftlich" begründet sind. Das Beiwort "wissenschaftlich" verspricht insgeheim eine hohe Sicherheit, doch dieses Versprechen kann selten, meist jedoch nie eingelöst werden. Alle großen Unfälle (Seveso, Bhopal, Tschnobyl usw.) zeigen ein gemeinsames Merkmal. Sie sind durch mehr oder weniger banale menschliche Fehler ausgelöst wurden. Insoferne hatte Murphy recht. Was schiefgehen kann, geht irgendwann schief. Die Behauptung, nicht die Systeme hätten versagt, sondern der Mensch, enthält einen schwerwiegenden Denkfehler. Die Technik ist nämlich deshalb fehlbar, weil sie menschliches Fehlverhalten nicht kennt, ja gar nicht kennen kann. Ingenieure müßten beim Planen von technischen Projekten exakt vorhersehen können, welche Fehler Menschen in welcher Situation machen. Die menschlichen Fehlleistungen müßten von Anfang an in Steurungsprogrammen eine Berücksichtigung finden. Moderne Computerprogramme fragen beispielsweise: "Wollen Sie die Datei wirklich löschen?" Absolute Sicherheit bedeutete aber, ausnahmslos die gesamte Menge der absehbaren Irrtümer als Bestandteil eines technischen Entwurfes zu berücksichtigen. In den Steuerungszentren von Kernkraftwerken hat man die Programme in Richtung Fehlerrobustheit weiterentwickelt. Diese Robustheit ist jedoch nicht mit Fehlerlosigkeit oder gar uneingeschränkter Sicherheit gleichzusetzen. Man kann es den allzu technik- und fortschrittsfreudigen Zeitgenossen nicht oft genug sagen: Fortschrittlichkeit darf nie kritiklos sein. Skepsis hat nichts mit mangelnder Dynamik zu tun. Dynamik ist ein Begriff, der auch auf Lemminge trifft, wenn sie zur Küste rennen. |
Untauglich!
|
© 1998 Rudolf Öller, Bregenz |
Helden der Wissenschaft: |
|
Rudolf Oeller:Typhon DistrictThriller über eine Gruppe von Wissenschaftlern, die Gott gründlich ins Handwerk pfuscht und dabei zugrunde geht.
|