
Ben Bosshardt und Philippe Ammann
Schon im Titel dieser scheinbar einfachen Frage liegen mehrere Anhaltspunkte, sodass die Beantwortung eine differenzierte Betrachtung erfordert. Was ist eine Fehlleistung? Wie und durch wen wird diese definiert? Wann wird beurteilt?
Sollen wir Fehlleistungen rückblickend anders beurteilen?
Das Wort rückblickend setzt Kenntnis vom Ausgang eines Ereignisses voraus, doch was war der Kenntnisstand der beteiligten Akteure zum Zeitpunkt ihrer Entscheidungen?
Nachrichten sind geprägt von Fehlleistungen mit schwerwiegendem oder fatalem Ausgang. Geschädigte, Versicherungen und schlussendlich das Justizsystem fragen sich, wen die Schuld trifft. Experten versuchen dabei die wahrscheinlichste Ursache zu eruieren. Dabei identifizieren sie oft den Menschen selbst als fehlerhaftes Glied in einer unglücklichen Ereigniskette. Regelverletzungen, Abweichungen von vorgeschriebenen Methoden und schlussendlich Fahrlässigkeit werden als Faktoren aufgeführt. Die fehlerhafte Person wird bestraft, aus der Firma entfernt oder in eine tiefere Charge versetzt. Die Gerechtigkeit ist so oberflächlich wieder hergestellt – doch ist sie das auch aus Sicht der Geschädigten?
Ebenso bedeutend ist die Frage, was hat die Unternehmung oder das System gelernt? Hilft strafen, oder braucht es eine andere Betrachtung bei Fehlern?
Wenn wir die Qualität geleisteter Arbeit beurteilen, liegt der Fokus der Betrachtung beim Resultat. Ein Trümmerhaufen von Flugzeugteilen am Ende der Landebahn, ein schwerverletzter Arbeiter auf einer Baustelle, Tote bei einem Polizeieinsatz, ein verstorbener Patient im Operationssaal oder ein Milliardenverlust einer Bank zeugen von einem unerwünschten, schlechten Resultat. Kann also einfach angenommen und geurteilt werden, dass schlecht gearbeitet worden ist?
Unserer Ansicht nach greift diese Ansicht zu kurz. Es setzt nur eine Geschichte und nur einen Ablauf voraus, dessen Ausgang wir klar vor Augen sehen. Es ist die Illusion der alleinigen Wahrheit, in der alle Aktionen kausal zum tragischen Schicksal führten. Der Erfolg oder Misserfolg einer Aktion lässt sich aber erst rückblickend beurteilen. Komplexe Systeme und Arbeitsabläufe, wie sie in Spitälern, bei der Flugsicherung oder bei einem Polizeieinsatz vorkommen, sind von zu vielen Faktoren beeinflusst, um die Ursachenforschung auf eine einzelne Komponente zu reduzieren. «Es ist ja gut herausgekommen!», «Das Risiko hat sich doch gelohnt» – Auch schlecht geleistete Arbeit führt oft trotzdem zum Erfolg, jedoch beurteilen wir diese anders, als wenn sie zum Misserfolg geführt hätte – weil wir das Resultat kennen!
Genau gleich kann qualitativ hochstehende Arbeit, durch ungünstige Umstände, in einer Misere enden. Wäre nur eine Komponente anders gewesen, so wäre die Fehlerkette unterbrochen worden und das Unglück nicht geschehen. Der Erfolg wirft in der Regel keine Fragen auf und wir gehen von einem funktionierenden System aus. Dadurch bleibt eine potenzielle Schwachstelle oder ein zu grosses Eingehen von Risiken lange unentdeckt!
Die Kenntnis über den Ausgang einer Aktion verleitet uns, bestimmten Entscheidungen einen zu hohen Stellenwert einzuräumen. Sie verzerren den Fokus und beeinflussen die Wahrnehmung, da wir das Resultat bereits kennen.
Hoch optimierte komplexe Systeme operieren nahe an ihrer Leistungsgrenze. Dabei unterliegen sie dem Zielkonflikt zwischen Produktivität und Sicherheit.
Reserven und Sicherungssysteme, mit welchen auftretende Probleme aufgefangen werden können, fallen oft der Produktivität zum Opfer. In diesem Grenzbereich sind Ursache und Wirkung nicht mehr linear. Kleine Aktionen können potenziell massive Folgen zeigen und das System über den «Point of No Return» belasten, d.h. eine Situation unrettbar verschlechtern. Ein Beispiel könnte der Aktienmarkt sein. Viel einfacher jedoch:
Im Supermarkt – kennen Sie diese Situation?
Sie sind beim Wocheneinkauf und sehen einer Person zu, wie diese Ihren Einkauf in die mitgebrachten Tragtaschen legt. Es wird eng, sehr eng… Sie überlegen sich, ob es nicht doch klüger wäre, zusätzliche Tragtaschen zu kaufen. Doch dank grossem Geschick und der richtigen Technik passt dann alles in die Taschen – 60 Rappen für zwei Taschen gespart. Nun ja, sie sind sehr schwer, hart an der Belastungsgrenze. Beim Umladen vom Einkaufswagen ins Auto beobachten Sie noch, wie es passiert – eine Tragtasche reisst auf, die Einkäufe verteilen sich auf dem Boden hinter dem Auto…
Hand aufs Herz: wie urteilen Sie? Hat die Person risikobewusst, überoptimiert, fahrlässig oder gar dumm gehandelt – und wo liegt die Grenze? Rückblickend ist es einfach zu sagen, das war doch zu erwarten. Doch wie oft «ist es gut gekommen»?
Und: wie urteilen Sie, wenn SIE die Person wären, der dieses Missgeschick passiert ist?
Richtig und falsch liegen oft sehr nahe beieinander. Im Sport, in Unternehmen – überall dort, wo Spitzenleistungen unter Zeitdruck und Wettbewerb erbracht werden.
Wenn wir von Fehlern lernen wollen, ist es zwingend, dass wir uns von der rückblickenden Betrachtung («Hindsight Bias») lösen. Niemand geht zur Arbeit, um in eine Tragödie verwickelt zu sein. Und niemand spart bewusst 60 Rappen für Tragtaschen, verliert gleichzeitig jedoch 60 Franken, weil seine Premium-Produkte auf dem Boden zerschellen.
Wir müssen uns immer fragen: warum wurden die Entscheidungen so und nicht anders gefällt?
Führte dies unmittelbar und kausal zum Unglück, oder hätte es auch anders ausgehen können? Welche Informationen sind dem Entscheider bekannt gewesen und in die Entscheidfindung eingeflossen? Aber auch: sind Vorschriften missachtet worden – und falls ja – warum? War das Anreizsystem zu attraktiv, (zu) hohe Risiken akzeptiert?
Menschliches Versagen ist sehr oft nur Symptom eines fehlerhaften Systems – nicht die Ursache. Wenn wir den Menschen als fehlerhaftes Glied bestrafen, laufen wir Gefahr nichts zu lernen. Denn dabei berücksichtigen wir wichtige Faktoren zu wenig: Hätten andere in der gleichen Situation gleich entschieden? Bestanden Gruppendruck, ungeschriebene Gesetze, oder wurde eine risikoreiche Firmenkultur befolgt?
Gerade die Gewissheit, einen Schaden in Zukunft verhindern zu können, stellt einen zentralen Teil der Vergangenheitsbewältigung für Opfer dar. Unser (Justiz-)system reflektiert jedoch nur einen Teil der Schadenswiedergutmachung, indem Fehler bestraft werden. Meist verbunden mit harschen Worten von Vorgesetzten, Versetzung, Degradierung oder Entlassung. Strafe ausgesprochen, Person weg, das Problem somit gelöst, das befleckte Image des Unternehmens reingewaschen. Natürlich benötigt es disziplinarische Konsequenzen bei vorsätzlich oder grob fahrlässig begangenen Fehlern. Doch das reicht nicht! Damit wird bloss eine Angstkultur zementiert, welche auf das Vermeiden von Fehlern optimiert, nicht auf Agilität, Motivation und kreative Leistung der Mitarbeitenden.
Firmenintern müssen Anreizsysteme, Prozesse und Sicherheitsbarrieren überdacht werden – ansonsten wiederholen sich die gleichen, teils Milliarden teuren Fehler immer wieder. Finanzinstitute zeigen das in einer unheimlichen, fast unglaublichen Regelmässigkeit.
Würden Airlines mit der gleichen Risikokultur fliegen, hätten sie zahlreiche Abstürze und wären in Kürze weg vom Markt. Deshalb haben sie eine «Just Culture» eingeführt, in welcher aus Fehlern gelernt werden kann. Diese straffrei gemeldet werden können – ja müssen! Die Betrachtung geht dabei weg von der Person und hin zum Prozess der Fehlerkette.
Just Culture: Was sind die Voraussetzungen für die faire Beurteilung von Fehlleistungen und dem Erarbeiten von «Lessons learned»?
- Ein transparenter Prozess mit klar geregelten Verantwortlichkeiten.
- Eine unabhängige Stelle, denn direkte Vorgesetzte befinden sich möglicherweise in einem Interessenskonflikt und unterliegen oft Vorurteilen.
- Experten im Team, welche die Prozesse aus eigener Arbeit genau kennen.
- Externe Experten, welche die Prozesse unabhängig hinterfragen können.
- Eine Rekursinstanz bei jeglichen Disziplinarmassnahmen.
Wir müssen akzeptieren, dass Menschen Fehler machen! Und als Leader die richtigen Fragen stellen, um aus diesen zu lernen und ein System, ein Unternehmen oder auch uns selbst zu verbessern. Ein wichtiger Aspekt, um als Organisation agiler zu werden.
Es gibt immer mehr als nur eine Wahrheit und es liegt an uns zu entscheiden, welche Geschichten wir uns anhören. Einfach nur rückblickend die Entscheidung – basierend auf dem Resultat – als richtig oder falsch zu beurteilen, greift viel zu kurz. Gegen unsere intuitive Reaktion auf Fehlleistungen anderer gilt es aktiv vorzugehen.
Durch ehrliches Feedback und Dialog lernt ein komplexes System das Risiko zu reduzieren, fehlerfrei wird es aber nie sein. Streben wir eine angstfreie Organisationskultur an, um aus Fehlern zu lernen. Beurteilen wir nicht einfach das Resultat, sondern den Weg und die Beweggründe für die getroffenen Entscheidungen. Fragen wir nach mehr nach dem «warum» an Stelle von «wer». Damit fällt es uns, vor allem rückblickend (!), einfacher aus den Fehlern zu lernen.
Diese Kultur in einem Unternehmen zu formen und zu pflegen ist Ihre Chefsache!
https://www.linkedin.com/pulse/ist-eine-fehlleistung-wie-wann-und-durch-wen-wird-dies-beurteilt-/