Welche sind die besonderen Risikoquellen in komplexen Projekten und Systemen? Kann man sie identifizieren und rechtzeitig vorbeugen oder mindestens reduzieren?
Wir haben in früheren Artikel den Begriff „Komplexität“ definiert und dort gesehen, dass ein Merkmal der Komplexität die Unvorhersehbarkeit ist. Wie soll man das Unvorhersehbare dank Risikomanagement überhaupt erfassen und bewältigen, ist es möglich?
Nichtwissen und Komplexität
Als Denkmodell möchte ich das „Cynefin Framework“ von Kurtz und Snowden kurz vorstellen. Dieses Model schlägt eine Typologie von Problemen und Situationen vor.
Das Cynefin-Framework hat fünf Domänen. Die ersten vier davon sind:
Einfach, in der die Beziehung zwischen Ursache und Wirkung für alle offensichtlich ist. Die Herangehensweise ist hier Sense - Categorise - Respond, und wir können bewährte Praktiken (best practice) anwenden.
Kompliziert, in der die Beziehung zwischen Ursache und Wirkung, Analyse oder eine andere Form der Prüfung und/oder die Anwendung von Fachwissen erfordert. Hier geht man mittels Sense - Analyze - Respond heran, und man kann gute Praktiken (good practice) anwenden.
Komplex, in der die Beziehung zwischen Ursache und Wirkung nur im Nachhinein wahrgenommen werden kann, aber nicht im Voraus. Hier gilt der Ansatz Probe - Sense - Respond, und wir können emergente Praktiken (emergent practice) feststellen.
Chaotisch, in der es keine Beziehung zwischen Ursache und Wirkung auf Systemebene gibt. Hier ist der Ansatz Act - Sense - Respond, und wir können innovative Praktiken entdecken.
Die fünfte Domäne ist Disorder, der Zustand des Nicht-Wissens, welche Art von Kausalität besteht. In diesem Zustand gehen die Leute in ihre eigene Komfort-Zone zurück, wenn sie eine Entscheidung fällen. In vollem Umfang genutzt, hat Cynefin Sub-Domänen, und die Grenze zwischen "simple" und "chaotic" wird als katastrophal gesehen: Selbstzufriedenheit führt zum Scheitern.
Unsere Planungskultur
Wir leben seit 40-60 Jahren in einer ausgeprägten Sicherheit- und Planungskultur (ich empfehle dazu den letzten Artikel von Peter Addor): wir sind es gewohnt, so erzogen und ausgebildet worden, mit komplizierten Problemen umzugehen. Dank Analyse können solche Probleme und ihre Dynamik bzw. Entwicklung verstanden werden, somit sind sie voraussehbar, und planbar. Hier kann das gewöhnliche Risiko-management angewandt werden: Risiken werden identifiziert, Schadensausmass und Eintrittswahrscheinlichkeit werden geschätzt, die Risiken danach priorisiert und Massnahmen zur Risikoreduktion entschieden und umgesetzt. In solchen Projekten ist es grundsätzlich eine Fehler, kein Risikomanagement bzw. das Risikomanagement ungenügend systematisch durchzuführen.
Komplexe sowie chaotische Systeme beinhalten dafür Unsicherheiten, bzw. Nichtwissen, welche auch mit unendlichem Aufwand nicht reduzierbar sind (s. dazu Machen wir es doch „einfach“). D.h. egal wie viel Kenntnis man über das System hat, es wird immer unvollständig sein – man weiss sogar nicht was und wie viel unbekannt ist (die sogenannten „unk unks“, „unknown unknows“). Es wäre eine Fehler in solchen Projekten zu glauben, dass das Risikomanagement genügt, um mit der Unsicherheit umzugehen.
Nichtwissen ist unbequem...
Leider ist es eine Haltung, die in der Bevölkerung und in den Medien verbreitet ist:
weshalb konnte Fukushima nicht vorausgesehen werden, es ist doch nur Technik?
weshalb ist es so schwer, das Bundesbudget richtiger zu schätzen, es sind doch nur Zahlen?
Tatsache ist: solche Situationen sind uns sehr unwohl, wir fühlen uns überfordert und inkompetent – und können und wollen es nicht akzeptieren – vor allem nicht von unseren Politiker und Entscheidungsträger.
Von welcher Unsicherheit reden wir?
Brian Wynne hat eine Typologie der Unsicherheit entwickelt, wo vier Arten von unvollständigem Wissen beschrieben sind :
Risiko : das System und sein Verhalten sind gut bekannt; Entwicklungen sind dank strukturierter Analyse der Mechanismen und Wahrscheinlichkeiten identifizierbar und quantifizierbar.
Unsicherheit: die wichtigsten Parameter eines Systems sind bekannt, ihre Wahrscheinlichkeit jedoch nicht; Unsicherheiten können identifiziert und geschätzt werden, und somit in eine Analyse integriert werden.
Nichtwissen: per Definition kann Nichtwissen nicht identifiziert werden; man weiss nicht, was man nicht weiss ("unk unks"). Nichtwissen ist nicht erkennbar, somit nicht analysierbar und ausserhalb vom Handlungsfeld.
Unbestimmtheit: Unbestimmtheit ergibt sich aus Unkenntnis der Ursache-Wirkung Beziehungen zwischen den Entscheidungen, die zu treffen sind, und den erwarteten Ergebnisse. Weiter spielen zusätzliche Umfeldparameter mit, die das System in unbekannter Weise mitbestimmen.
Welche sind die Konsequenzen der Unsicherheit auf Planung und Steuerung? Wie wird dann entschieden? Ist Krisenmanagement nur die Lösung zum gescheiterten Risikomanagement? In einem nächsten Artikel zu lesen...
Referenzen:
[1] Kurtz C.F, Snowden D.J., The new dynamics of strategy: Sense-making in a complex and complicated world", IBM Systems Journal, Volume: 42 Issue:3, 2003, 462 – 483
[2]De Meyer, A., Loch, C.H. & Pich, M.T., 2002. Managing Project Uncertainty: From Variation to Chaos. MIT Sloan Management Review, p.60-67.
[3]Wynne, B., 1992. Uncertainty and environmental learning. Reconceiving science and policy in the preventive paradigm. Global Environmental Change, 2(2), p.111-127.
Comments