Der Menschliche Faktor
Irren ist menschlich: In der Medizin wird geschätzt, dass 70 –80 % aller Fehler auf menschliche Ursachen – den Faktor Mensch – zurückzuführen sind. In beiden in nächsten Absatz aufgeführten Fällen finden sich Merkmale typischer menschlicher Fehlentscheidungen. Retrospektiv wären beide Diagnosen durch den Einsatz geeigneter Untersuchungen und vorhandener apparativer Diagnostik leicht zu erkennen gewesen. Doch was sind die Ursachen für solch gravierende Fehlentscheidungen? Die Luftfahrt hat seit den späten 1970er Jahren erkannt, dass die meisten Flugunglücke nicht durch technisches Versagen entstehen, sondern durch menschliche Fehlurteile, respektive fehlerhafte Handlungen. Dennoch wird auch heute noch den Medizinstudierenden und Pflegeschülern fast ausschließlich medizinisches Fachwissen vermittelt. Kompetenzen, um die eigene Fehleranfälligkeit und Risiken für Fehlurteile frühzeitig zu erkennen, sowie richtige Entscheidungen in komplexen Situationen, mit nur wenigen Informationen, zu treffen, werden kaum vermittelt.
1. Fallbeispiel
Verspätete Therapie: Ein 54-jähriger alkoholisierter Patient suchte am Donnerstagabend die Notfallambulanz wegen Nackenbeschwerden und Unwohlsein auf. Als weitere Beschwerden gab er ein Kribbeln im rechten Daumen an. Es fand sich eine Prellmarke an der Stirn und eine etwas eingeschränkte Beweglichkeit der Halswirbelsäule. Er roch stark nach Alkohol, sein Blutalkoholspiegel betrug 1,5 Promille. Der Patient wurde stationär auf die internistische Station aufgenommen. Im Laufe des Wochenendes entwickelte der Patient zunehmend Lähmungen beider Arme. Durch einen hinzugerufenen Neurologen und Unfallchirurgen wurde eine instabile Halswirbelfraktur auf Höhe C6/7 festgestellt. Noch am selbigen Tag wurde die HWS des Patienten osteosynthetisch stabilisiert. Es blieben permanente Lähmungserscheinungen beider Arme.
2. Fallbeispiel
Tödliche Fehldiagnose: Ein 5-jähriges Kind mit Migrationshintergrund verstirbt zuhause, nachdem die Eltern am Abend zuvor die Notaufnahme mit dem Kind aufgesucht hatten. Die Eltern gaben an, dass es mehrmals erbrochen und Bauchschmerzen habe. Es wurde mit Schmerzzäpfchen versorgt und wieder nach Hause entlassen. Als Todesursache wird eine nicht erkannte Blinddarmperforation vermutet, die von der Notaufnahme-Ärztin eines mittelgroßen Krankenhauses nicht erkannt wurde. Nun ermittelt die Staatsanwaltschaft wegen fahrlässiger Tötung. Die Assistenzärztin wurde freigestellt.
Ökonomischer Druck und Ressourcenknappheit
Hauptursachen für Fehler und Regelverstöße liegen in der Verdichtung der Arbeitsprozesse und Zeitknappheit, oftmals ungeregelten Schnittstellen und unklaren Zuständigkeiten zwischen den verschiedenen Fachprofessionen. Überfüllte Notaufnahmen, 10 und mehr Bereitschaftsdienste im Monat, der Mangel an qualifizierten Personal aufgrund Krankheit und Fluktuation verschärfen diese Problematik. Fehlen wichtige diagnostische Ressourcen wie ein 24-Stunden verfügbares CT oder wird der Zugriff auf Patientendaten durch ein umständliches Krankenhaus-Informationssystem erschwert, werden Befunde primär nicht erhoben oder übersehen.
Entscheidungen treffen in Unsicherheit
Über allem medizinischen Handeln schwebt stets das Damoklesschwert der Unsicherheit. Anders als in der Luftfahrt fehlen dem Arzt häufig eindeutige Indikatoren und Parameter, die ihm zweifelsfrei die diagnostische Sicherheit geben, was die Ursache der Patientenbeschwerden betrifft. Differentialdiagnostisches Vorhergehen ist stets angebracht, jedoch ressourcenintensiv und aufgrund fachlicher Subspezialisierung oft nicht umzusetzen. So werden aus verständlichen Gründen der Ökonomie Entscheidungen vertagt bzw. Untersuchungen unterlassen. Ressourcenknappheit (personelle, apparative, zeitliche) und ökonomische Zwänge verleiten den Arzt zur Anwendung von Erfahrungswissen bzw. Heuristiken. Heuristiken suggerieren oft eine Scheinsicherheit, die in manchen Fällen in Folge von Fehlentscheidungen zu tragischen Konsequenzen führen.
Kognition, Automatismen & Heuristiken
Urteilsheuristiken und kognitive Verzerrungen
Die Erkenntnisse aus der Psychologie haben uns zu verstehen gegeben, dass unser Denken nicht frei von Fehlurteilen ist. Daniel Kahnemann, US-amerikanischer Psychologe und Wirtschafts-Nobelpreisträger erforschte über Jahrzehnte menschliche Urteilsheuristiken und kognitive Verzerrungen. Gerd Gigarenzer, deutscher Psychologe und Direktor der Abteilung „Adaptives Verhalten und Kognition“ am Harding-Zentrum für Risikokompetenz des Max-Planck-Instituts für Bildungsforschung in Berlin, sowie viele weitere Psychologen haben die menschliche Urteilsfindung untersucht.
Grob vereinfacht beschrieben besteht gemäß Kahnemann unsere Denkfunktion aus zwei Denkmustern. Dem System 1 oder dem schnellen Denken, welches assoziativ, effizient und effektiv ist. Es sucht nach Mustern, Kohärenzen, verarbeitet Eindrücke schnell und macht Vorschläge. Es überzeugt zudem das System 2, welches i.d.R. diese Vorschläge annimmt. Das System 1 begibt sich häufig auf die Suche nach Ähnlichkeiten mit Stereotypien und tut sich schwer mit der Verarbeitung von statistischen Fakten. Dementsprechend ist das schnelle Denken sehr anfällig für systemische Fehler und im ständigen Konflikt zwischen Intuition und Logik. Das System 2 oder das langsame Denken baut auf logischem Denken auf. Es funktioniert langsam und ist oftmals anstrengend. Es erfordert Gedankenkonstruktionen und die Kombination von Informationen. System 2 benötigt viel Selbstkontrolle und Selbstreflexion und übernimmt bei erkennbaren, drohenden Fehlern das Kommando, indem es das System 1 überstimmt. Es ist schlichtweg das Gegenmittel für Fehlentscheidungen des System 1.
Heuristik–Fallen
Es liegt auf der Hand, dass Situationen mit hohem Handlungsdruck das Erzwingen schneller Lösungen durch Investition in einfache Lösungen begünstigt. Die langwierige unbequeme Suche nach nahezu sicheren Antworten und nach spezifischen, weil seltenen Lösungen, wird in Bevorzugung einer bequemen Antwort und „Routine-Lösung“ (Heuristik) aufgegeben. Die Antwort ist dann einfach, schnell aber möglicherweise falsch.
Verhaltensforscher haben eine Vielzahl möglicher heuristischen Verzerrungen und Ursachen für Fehlentscheidungen identifiziert. Einige Wichtige seien hier stichpunktartig aufgelistet.
Verfügbarkeitsheuristik
Nach dem Hammer – Nagel – Prinzip werden Diagnosen bevorzugt innerhalb des eigenen Beurteilungsrahmens gestellt. Der Rückenschmerz kommt für den Orthopäden von der Wirbelsäule, für den Internisten ist er ein Zeichen des Herzinfarkts und für den Gefäßchirurgen das pulsierende Aortenaneurysma. So bleibt jeder Arzt in seinem eigenen fachlichen Denkrahmen verhaftet, andere Möglichkeiten, außerhalb des eigenen Erfahrungsrahmens werden nicht berücksichtigt.
Affektheuristik
Emotionen wie Furcht, Zuneigung und Abneigung können Anlass für Fehlentscheidungen sein. Gut gelaunt und entspannt wird vermutlich dem anstrengenden Untersuchungsvorgang des Patienten eine intensivere Aufmerksamkeit geschenkt, als wenn man übermüdet, hungrig oder nach einem Streit mit einem Kollegen „ausgepowert“ sein Tagesprogramm abspult. In der Luftfahrt spricht man von folgenden 5 gefährlichen Grundhaltungen, die die Fehleranfälligkeit und Tendenz zu Regelverstößen deutlich erhöhen.
Es sind: Fehlende Reflexions- und Kritikfähigkeit, Impulsivität, Gefühl der Unverwundbarkeit, Macho-Gehabe und Resignation
Ankerheuristik
Dieser Priming – Effekt durch suggestive „plausible Hinweise“ führt dazu, dass der Arzt sich unwillkürlich nur auf einem bestimmten, eingeschränkten Bereich begrenzt (sich an einen Anker halten). So können z. B. aufgrund der Fehleinschätzung eines Notarztes bei der Einweisungsdiagnose wichtige Differentialdiagnosen erst gar nicht weiter verfolgt werden. So wurden z. B. die massiven Blutdruckschwankungen bei einem teils somnolenten Patienten vom Notarzt als Herzrhythmusstörung interpretiert und in der Klinik als solche weiter behandelt und das lebensbedrohliche dissezierte Aortenaneuryma lange Zeit übersehen.
Selbstüberschätzung (Selfconfidence) und Confirmation Bias
In diesem Fall werden den eigenen Entscheidungen und Handlungen meistens zu hohe Erfolgschancen zugeschrieben, während den Meinungen Anderer weniger Gültigkeit zugesprochen wird. Durch dieses übermäßige Vertrauen in die Richtigkeit der eigenen Entscheidungen können autoritätsbasierte Entscheidungen zu „strong but wrong decisions“ führen. Argumente für die eigene Entscheidung werden bevorzugt, Gegenargumente unter den Tisch gekehrt. Die Risiken der eigener Entscheidungen werden dabei ebenso unterschätzt bzw. ausgeblendet, die Risikobewertung fremder Entscheidungen fällt dagegen in der Regel hoch aus.
Konsistenzbestreben
Einem ähnlichen Mechanismus folgt das natürliche Bestreben konsistent mit einmal getroffenen (eigenen) Entscheidungen zu handeln. Kognitive Dissonanz wird möglichst vermieden und es besteht die Tendenz Informationen zu ignorieren, die nicht zum bisherigen Vorgehen („disconfirming evidence“) passen.
Framing
Die Art und Weise wie Informationen präsentiert werden, der Bezugsrahmen, hat großen Einfluss darauf wie diese Informationen interpretiert werden. Ähnlich der Ankerheuristik und dem Kontrastprinzip können dadurch neue Fakten und Informationen durch Setzen in einen fixen Kontext (Bezugsrahmen) verharmlost oder überbewertet werden.
Fehleranfälligkeit des menschlichen Gedächtnisses
Zu den Heuristiken kommt noch die Tatsache, dass das menschliche Gehirn fehlende Informationen und Erinnerungslücken ergänzt, ohne dass uns dies bewusst wird. In einer Studie konnte gezeigt werden, dass rund 70% der Befragten falsche Zeugenaussagen bei einer Täteridentifizierung machten. Fehlende Informationen und Erinnerungslücken werden schlichtweg mit falschen Erinnerungen gemäß eigener Plausibilitätsüberlegungen aufgefüllt. Das Gehirn greift hierfür besonders auf eigene Annahmen, Erfahrungen und unbewusste Vorurteile zurück. In ihrem kürzlich erschienen Buch „The Memory Illusion“ konnte die Psychologin und Kriminologin Julia Shaw aufzeigen, dass es durch eine manipulative Gesprächsführung möglich ist, einzelne Erinnerungen umzuformen und gänzlich in ihr Gegenteil umzuprogrammieren.
Das Shell Modell
In Erkenntnis und Akzeptanz der menschlichen „Schwächen“ im Sinne eines „errare humanum est“ wurde in den letzten Jahrzehnten das Shell – Modell entwickelt. Das SHELL-Modell zeigt den Menschen (Liveware Individuum) als zentralen Akteur in Interaktion mit dem Arbeitsumfeld, bestehend aus den Komponenten S (Software, z. B. Richtlinien, Verfahren), H (Hardware, z. B. Instrumente, Werkzeuge), E (Enviroment, z. B. finanzielle Bedingungen) und L (Liveware Team), den anderen beteiligten Individuen. Aus der Güte der Passung zwischen L, dem zentralen Akteur mit seinen psychischen und physischen Eigenschaften (wie z. B. Sensorik, Motorik, Informationsverarbeitung, Bedürfnisse, Befindlichkeit, Körpermaße) und den anderen Systemkomponenten resultiert letztlich die Effizienz der Arbeitsleistung.
Systemfaktoren und individuelle Faktoren
Die Herausforderung an das Krankenhausmanagement besteht deshalb gerade darin, das Arbeitsumfeld so zu gestalten, dass der Mensch darin sicher und möglichst fehlerfrei arbeiten kann. Bei der Anschaffung der Arbeitsmaterialien (Hardware) ist auf die Nutzerfreundlichkeit zu achten. Medizingeräte müssen verlässlich funktionieren und leicht zu bedienen sein. Das Arbeitsumfeld (Liveware Team) sollte stressfrei gestaltet sein, die Dienstpläne so konzipiert sein, dass ein ausgewogener Qualifikation-Mix aus erfahrenen und unerfahrenen Mitarbeitern gewährleistet ist, sowie alle notwendigen Kompetenzen vor Ort sind oder schnell hinzugerufen werden können. Die Prozesse (Software) müssen klar definiert, effizient und jedem klar vermittelt sein. Die Mitarbeiter müssen vor Überlastungen geschützt werden, das Arbeitsumfeld motivierend gestaltet sein und eine kontinuierliche fachliche und persönliche Weiterentwicklung ermöglichen. Langfristig ist auf die Etablierung einer hochwertigen Sicherheits- und Vertrauenskultur abzuzielen, die das Ergebnis ethisch korrekter Einstellungen und Verhaltensweisen ist.
Systematisierung der Entscheidungsprozesse
Fordec
Ein besonders hilfreiches Verfahren für gute Entscheidungsprozesse kommt aus der Luftfahrt. Idealer Weise sollten sich alle Mitarbeiter damit vertraut machen. Das FORDEC- Verfahren hilft dabei, Entscheidungsprozesse, insbesondere in zeitkritischen Situationen, systematisch abzuarbeiten und besteht aus 5 Schritten.
- F FACTS – Sammeln der Fakten
- O OPTIONS – Prüfen der Optionen
- R RISKS AND BENEFITS – Abwägen der Risiken und Vorteile
- D DECISION – Zu einer Entscheidung kommen
- E EXECUTION – Ausführen der Entscheidung
- C CROSS-CHECK – Kontrolle, ob die Entscheidung zum erwünschten Ziel geführt hat
und ggf. Korrektur der Entscheidung
Choosing Wisely Initiative
Die Stiftung des American Board of Internal Medicine (ABIM) verfolgt seit 2012 mit der mittlerweile weltweiten Aktion „choosing wisely“ (www.choosingwisely.org) einen kritisch hinterfragenden Ansatz auf der Suche nach der Ratio (Logik) medizinischer Entscheidungen. Nach den beiden Leitsätzen „weniger ist mehr“ und „Dinge, die wir ohne Grund tun“ werden die Mediziner aufgefordert, zu reflektieren, welche Entscheidungen wirklich auf medizinischer Evidenz und welche auf unreflektiertem, schnell verfügbarem „Routinewissen“ (Heuristiken) basieren, um dadurch unnötige Untersuchungen und Therapien zu vermeiden.
Fazit:
Da wir nie vollkommen sicher sein können, wo genau die (medizinische) Wahrheit liegt, tun wir gut daran, Sicherheitsmechanismen in unsere Prozesse einzubauen, die unsere Fehleranfälligkeit reduzieren und unsere Diagnosegenauigkeit sowie Therapie optimieren. Entscheidend ist es zu akzeptieren, welch bedeutende Rolle der Faktor Mensch dabei spielt. Nur durch den Einbau von Sicherheitsredundanzen, z. B. durch das regelhafte Einholen von Zweitmeinungen und durch die Methodik einer partizipativen Entscheidungsfindung, wie sie z. B. im Rahmen onkologischer Fallkonferenzen seit Jahren erfolgreich praktiziert wird, können wir sicherer und somit besser werden. Ein klinisches Risikomanagement berücksichtigt solche „soft skills“ und ermöglicht deren Integration in den praktischen Klinikalltag.
9 Grundsätze für bessere Entscheidungen
- Bleibe stets selbstkritisch und reflektiere deine Entscheidungen und dein Handeln
- Unterstütze eine effektive interprofessionelle und interdisziplinäre Teamarbeit
- Etabliere lebenslanges Lernen in der Arbeit
- Stelle sicher, dass Technologie dein Arbeiten unterstützt bzw. verbessert und nicht unsicherer macht
- Sprich über deine Fehler und lerne daraus
- Installiere ein Risikomanagement-System und analysiere die Systemschwächen der Organisation
- Schaffe Anreize für ein ethisch basiertes Arbeiten und belohne die Ehrlichen
- Stelle adäquate Ressourcen und ausreichend kompetentes Personal zur Verfügung, um die Arbeit qualitativ hochwertig und sicher verrichten zu können
Gerne unterstützen wir Sie bei Fragen zur Optimierung des Human Faktors Ihrer Mitarbeiterinnen und Mitarbeiter. Kontaktieren Sie uns unter Email: ae@euteneier-consulting.de
Wir bieten in regelmäßigen Abständen (Inhouse)-Ausbildungen und (Inhouse)-Seminare zur Verbesserung des Human Faktors. Schauen Sie auf unsere Webpage unter der Rubrik Akademie