Krisenmanagement für Einrichtungen der Patientenversorgung

Krisenmanagement ist Risikomanagement

Vorsicht vor einfachen Lösungen

Für jedes komplexe Problem gibt es eine Lösung, die einfach ist, elegant und falsch.  (Journalist und Satiriker H.L. Mencken: “Prejudices: Second Series”, 1921)

Komplexe Systeme und Entscheidungssituationen in Unsicherheit

Karl Weick, James Reason und viele weitere Risikoforscher warnen eindringlich vor der Vereinfachung komplexer Fragestellungen. Der deutsche Psychologe Dietrich Dörner, emeritierter Hochschullehrer an der Otto-Friedrich-Universität Bamberg erforschte, wie Emotionen sowie Absichten, aber auch die Art der Organisation für Entscheidungsfindungen, die getroffenen Entscheidung von Menschen beeinflussen. Dietrich Dörner nimmt hierzu in seinem Standardwerk „Die Logik des Mißlingens – Strategisches Denken in komplexen Situationen“ ausführlich Stellung. Nach Dörner entwickeln komplexe Systeme eine Eigendynamik. Hinzu kommt, dass die Akteure keine vollständigen Kenntnisse aller Systemeigenschaften haben und falsche Annahmen darüber machen. Gerade die interdependenten Wechselwirkungen vieler Faktoren erschweren die Vorhersagemöglichkeit des Verhaltens komplexer Systeme. Komplexe adaptive Systeme zeigen nicht-lineare oder paradoxe Verläufe. Sie verändern sich mit der Zeit dynamisch, teils exponentiell, teils sprunghaft und sind stets mit großer Unsicherheit behaftet.

Mit diesem Wissen wird es leichter verständlich, wie schwierig es, in Krisenzeiten unter Stress und Zeitnot richtige Entscheidungen zu treffen. Häufig sind es Entscheidungen, deren Konsequenzen bzw. Auswirkungen erst zeitversetzt zu erkennen sind. So besteht die größte Herausforderung darin, mit einer begrenzten Anzahl an Informationen, also einem unvollständigen Lagebild, möglichst gut an die richtige Entscheidung heran zu kommen, stets im Wissen, dass diese Entscheidung stets im sich wandelnden Umfeld neu überprüft werden muss.

Entscheidungen treffen in vernetzten Systemen

Komplexe Systeme sind eingebettet in weitere komplexe Systeme, die sich gegenseitig beeinflussen, z. B. Krankenhäuser stehen in Wechselwirkung mit dem politisch-öffentlichen Bereich des Gesundheitswesens und dem Staat. Es ist deshalb geboten, sich bei einer Krise aufgrund Unkenntnis aller Informationen eine Strategie des „sich Herantasten an das komplexe Problem“ zu eigen zu machen. Ähnlich wie bei der Versorgung von schwerkranken Sepsispatienten, bei denen behutsam Heilversuche gestartet werden, basieren Krisen-Entscheidungen zum einen auf bereits bewährte Evidenz, zum anderen auf ein intuitives Erfahrungswissen von Experten und Krisenmanager. Aktionismus und fehlverstandenes Heldentum sind hier äußerst schlechte Ratgeber.

Nach der Krise ist vor der Krise

Krisen sind unvermeidbar und können jederzeit eintreten. Ist eine Krise überstanden, steht die nächste schon vor der Tür. Diese Tatsache darf jedoch nicht zu Fatalismus und Phlegma führen, sondern vielmehr zu der Einsicht, dass ein zeitgemäßes kompetentes Krisenmanagement ein wichtiger Bestandteil des Managements einer Gesundheitseinrichtung sein muss.
Mit hoher Professionalität und der ihr gebührenden Entschlossenheit sollte die Aufgabe beherzt angegangen werden. Notwendig ist, ein gut aufgestelltes Team aus Experten und ein kompetenter Krisenmanager*in. Alle notwendigen Entscheidungen sollten auf Augenhöhe und nach vorhandener Kompetenz getroffen werden und nicht nach hierarchischem Rang.

Einteilung von Krisen

  • Auslöser/Ursache: Interne oder externe Auslöser oder Kombination aus beiden, natürliche Krisen (z. B. Naturkatastrophen), menschengemachte Krisen (z. B. Konflikte, wirtschaftliche Krisen)
  • Bedrohungsstärke/Ausmaß: Große Krise wie Pandemien, Kriege, Klimaextreme, Energieengpässe, kleinere Krisen bezogen auf die Region, die Einrichtung sowie nach Schadensausmaß potenziell bestandsgefährdend, Auswirkungen auf Menschen, Sachwerte, Umwelt
  • Zeitvorlauf/Reaktionszeit: Kein Vorlauf, ultrakurz (Minuten bis Stunden), Tage und Wochen, chronische Krise
  • Abwehr der Krise: Mit eigenen Bordmittel oder nur unter Inanspruchnahme zusätzlicher externer Hilfe

Die Zuweisung der Aufgaben des Krisenmanagements folgt einem klassischen Phasenmodell:

  • Präventives Krisenmanagement mit Etablierung vorbeugender Maßnahmen für potenzielle Krisen
  • Antizipativ-reaktives Krisenmanagement mit frühzeitiger Erkennung latenter Bedrohungsszenarien und Initiierung erster Abwehrmaßnahmen
  • Akutes Krisenmanagement mit der Bewältigung stattfindender Krisen

Vier Kardinalfehler des reaktiven Krisenmanagements

  1. Die Krise als solche nicht zu erkennen bzw. zu negieren. Häufig wird das Potenzial der Bedrohung unterschätzt. So werden aus „managebare“ Krisen unkontrollierte Flächenbrände. Es geht wertvolle Zeit verloren, um wichtige Kompetenzen zur Bewältigung der Krise zu rekrutieren. Analog einem Schwellbrand, der unangenehm riecht, das wahre Bedrohungspotenzial jedoch nicht erkannt wird, bis die Flammen lichterloh brennen.
  2. Die Krise kleinzureden und nicht mit der entsprechenden Ernsthaftigkeit oder dem notwendigen Einsatz von Mitteln zu reagieren. Analog einem Hausbrand, den man vermeintlich nur mit dem eigenen Feuerlöscher zu löschen versucht und das Beste hofft, jedoch die Feuerwehr nicht ruft. Häufig werden unzureichende Ressourcen zur Verfügung gestellt, vermeintlich um Geld zu sparen, was häufig das Gegenteil bewirkt. Die eigene Kompetenz wird überschätzt, respektive die Kompetenzen der anderen unterschätzt.
  3. Die Krise fachlich nicht adäquat zu managen, sondern sowohl fachliche wie kommunikative Fehlentscheidungen zu treffen. Hinzu kommt fehlende Flexibilität und Kreativität im Finden von Abwehrstrategien bzw. Lösungen. Man meint, alles selbst entscheiden zu können oder zu müssen. Hierarchie zählt mehr als Erfahrung und Kompetenz. Es werden fachlich Unerfahrene oder Mitarbeiter*innen mit fehlendem Spezialwissen, z. B. für Cyberattacken, Stromausfälle, Wasserschäden, Austritt von Gefahrenstoffe, terroristischen Gefahren, Naturgefahren, u.v.m., eingesetzt. Es überwiegt Aktionismus anstatt planvolles, rationales Handeln.
  4. Die Krise nicht adäquat zu kommunizieren. So können fachlich gut gemanagte Krisen zu sekundären Schäden führen, selbst wenn alles vermeintlich richtig gemacht wurde. Die Innendarstellung des Krisenmanagements gegenüber den Mitarbeitern und Führungskräften ebenso wie die Außendarstellung (public relation) gegenüber den Stakeholdern und der Bevölkerung wird mangelhaft durchgeführt oder vernachlässigt. Dies kann zu einem Reputationsschaden führen, der in weiterer Konsequenz zu einem wirtschaftlichen Schaden führt. In diesem Kontext fällt auch die fehlende Aufarbeitung des Krisenmanagements und fehlende Kommunikation der Lektionen aus der stattgefundenen Krise.

Präventives Krisenmanagement als klassische Risikomanagementaufgabe

Die Geschäftsführung ist verantwortlich für die Einrichtung eines kompetenten präventiven Krisenmanagements. Be prepared for the unexpected. Diesen Widerspruch gilt es auszuhalten und mit der Ambiguität zu leben. Zynisch wäre es, aufgrund dieser Ambiguität nichts zu unternehmen und lediglich auf das Beste zu hoffen.
Krisenmanagement ist Teamarbeit, Kommunikation und Vernetzung. Krisenmanagement ist Business Continuity Management. Ein Krankenhaus kann es sich nicht erlauben, nicht betriebsbereit zu sein. Aufgrund dessen müssen Betriebsausfälle so kurz und der Schaden so gering wie möglich gehalten werden.

Präventives Krisenmanagement ist Teil des Risikomanagements, da potenzielle Krisen große Risiken für den Betrieb, die Mitarbeiter*innen und Patient*innen darstellen. Jedes Risiko ergibt sich aus der Wechselwirkung zwischen der Gefahrenlage und Verwundbarkeit gegenüber dieser Gefahr. Die Verwundbarkeit oder fehlende Resilienz ist wiederum das Ergebnis aus der Funktionsanfälligkeit der Prozesse in einem Krankenhaus. Hierzu zählen sowohl die primär klinischen Prozesse der Patientenversorgung, ebenso wie die technischen und logistischen Prozesse zur Aufrechterhaltung der Betriebsfähigkeit.

Angesichts der Tatsache, dass naturgemäß nicht alle möglichen Krisen vorhersehbar sind, ist es sinnvoll, exemplarische Risiken als repräsentative Krisenbeispiele mithilfe von Szenarien und Simulationen zu identifizieren und anhand von Risikoanalysen deren Bedrohungspotenzial zu bewerten sowie präventive Gegenmaßnahmen zu etablieren.

Themenfelder für Szenarien und Simulationen

  • Sicherstellung der Patientensicherheit
  • Technische Sicherheit (Safety)
  • IT-Sicherheit (Cybersecurity)
  • Schutz vor physischen Attacken (Security).

Daraus ergeben sich Präventionsmaßnahmen auf technischer, organisatorischer und personeller Ebene.
Der Krankenhausalarm und – Einsatzplan (KAEP, Link zum Bundesamt für Bevölkerungsschutz und Katastrophenhilfe) ist der wohl wichtigste Baustein des Krisenmanagements und fasst viele Aspekte des Krisenmanagements zusammen. Im KAEP werden der oder die verschiedenen Krisenmanager bzw. Teamleiter, der situationsspezifische Krisenstab, die Räumlichkeiten des Krisenstabs, die verschiedenen Kommunikationsformen, Schwellenwerte, Zeitvorgaben, Ressourcen und Sofortmaßnahmen der Erstbetroffenen festgelegt. Zudem sollten auch Handlungsoptionen und Spielräume für Flexibilität benannt werden.
Wer in den Krisenstab gehört, hängt von der Expertise und der Rolle im Betrieb ab. Krisenkompetenz ist mehr als nur fachliches Wissen. Gute Krisenmanager*innen verfügen über starke Führungsqualitäten unter Stress und hohes menschliches Einfühlungsvermögen, komplexe bzw. diffuse Lagebilder können rasch analysiert werden um früh in aktives Handeln zu kommen. Sie erkennen schnell Überlastungssituationen der Versorgungskapazität ebenso wie potenzielle Einschränkungen der Versorgungsmöglichkeiten und reagieren schnell und zielgerichtet. So müssen z. B. rechtzeitig Intensivstationen evakuiert, zusätzliche Mitarbeiter aus dem „dienstfrei“ rekrutiert, externe Kräfte hinzugezogen oder erste Statements für die Presse abgegeben werden. Der oder die Krisenmanager*innen benötigten dafür die entsprechenden Entscheidungsbefugnisse.

Kernaufgaben und Verantwortlichkeiten des Krisenmanagers

  • Aufbau und Steuerung einer Arbeitsgruppe und verschiedener situationsbedingter Krisenreaktionsteams
  • Design, Durchführung und Auswertung von Risikoanalysen anhand differenzierter Szenarioanalysen und Simulationen sowie Auswertung und Aufarbeitung stattgefundener Krisen in steter Zusammenarbeit mit dem Krisenteam
  • Erarbeitung von Strategien zur Risikominimierung und Krisenprävention
  • Planung und Umsetzung von Maßnahmen zur Beseitigung von Schwachstellen oder Störungen der Kernprozesse eines Krankenhauses und Etablierung von Redundanzsystemen zur Aufrechterhaltung einer Notfallversorgung
  • Aufbau eines Netzwerkes mit externen Hilfskräften und wichtigen Stakeholdern
  • Repräsentanz des Krankenhauses nach außen in Angelegenheiten der Alarm- und Einsatzplanung
  • Regelmäßiges Reporting zum Status des Krisenmanagements an die Geschäftsführung zur Information, Genehmigung und Inkraftsetzung von Maßnahmen sowie Ressourcenallokation
  • Anpassung an neue Gegebenheiten und an den jeweiligen Stand der Wissenschaft und Technik
  • Kontinuierliche Evaluation des Krisenmanagements

Fazit

Auch wenn die Kosten für ein effektives Krisenmanagement sowie Risikomanagement primär viele Geschäftsführungen abschrecken, zeigt die Erfahrung, dass ein effektives Krisenmanagement ebenso wie ein gutes Risikomanagement sich langfristig lohnen. Als nützlicher Nebeneffekt werden die Prozesse, insbesondere die klinischen Kernprozesse einer gründlichen Evaluation auf Resilienz bzw. Patientensicherheit überprüft, was die Abläufe in der Regel transparenter und kosteneffizienter gestaltet. Insofern sollte ein modernes und effektives Krisenmanagement stets eingebettet sein in ein ganzheitliches Managementsystem.

Richtige Entscheidungen treffen – Der Faktor Mensch in der Patientenversorgung

Richtige Entscheidungen treffen - Der Faktor Mensch in der Patientenversorgung

Der Menschliche Faktor

Irren ist menschlich: In der Medizin wird geschätzt, dass 70 –80 % aller Fehler auf menschliche Ursachen – den Faktor Mensch – zurückzuführen sind. In beiden in nächsten Absatz aufgeführten Fällen finden sich Merkmale typischer menschlicher Fehlentscheidungen. Retrospektiv wären beide Diagnosen durch den Einsatz geeigneter Untersuchungen und vorhandener apparativer Diagnostik leicht zu erkennen gewesen. Doch was sind die Ursachen für solch gravierende Fehlentscheidungen? Die Luftfahrt hat seit den späten 1970er Jahren erkannt, dass die meisten Flugunglücke nicht durch technisches Versagen entstehen, sondern durch menschliche Fehlurteile, respektive fehlerhafte Handlungen. Dennoch wird auch heute noch den Medizinstudierenden und Pflegeschülern fast ausschließlich medizinisches Fachwissen vermittelt. Kompetenzen, um die eigene Fehleranfälligkeit und Risiken für Fehlurteile frühzeitig zu erkennen, sowie richtige Entscheidungen in komplexen Situationen, mit nur wenigen Informationen, zu treffen, werden kaum vermittelt.

1. Fallbeispiel
Verspätete Therapie: Ein 54-jähriger alkoholisierter Patient suchte am Donnerstagabend die Notfallambulanz wegen Nackenbeschwerden und Unwohlsein auf. Als weitere Beschwerden gab er ein Kribbeln im rechten Daumen an. Es fand sich eine Prellmarke an der Stirn und eine etwas eingeschränkte Beweglichkeit der Halswirbelsäule. Er roch stark nach Alkohol, sein Blutalkoholspiegel betrug 1,5 Promille. Der Patient wurde stationär auf die internistische Station aufgenommen. Im Laufe des Wochenendes entwickelte der Patient zunehmend Lähmungen beider Arme. Durch einen hinzugerufenen Neurologen und Unfallchirurgen wurde eine instabile Halswirbelfraktur auf Höhe C6/7 festgestellt. Noch am selbigen Tag wurde die HWS des Patienten osteosynthetisch stabilisiert. Es blieben permanente Lähmungserscheinungen beider Arme.

2. Fallbeispiel
Tödliche Fehldiagnose: Ein 5-jähriges Kind mit Migrationshintergrund verstirbt zuhause, nachdem die Eltern am Abend zuvor die Notaufnahme mit dem Kind aufgesucht hatten. Die Eltern gaben an, dass es mehrmals erbrochen und Bauchschmerzen habe. Es wurde mit Schmerzzäpfchen versorgt und wieder nach Hause entlassen. Als Todesursache wird eine nicht erkannte Blinddarmperforation vermutet, die von der Notaufnahme-Ärztin eines mittelgroßen Krankenhauses nicht erkannt wurde. Nun ermittelt die Staatsanwaltschaft wegen fahrlässiger Tötung. Die Assistenzärztin wurde freigestellt.

Ökonomischer Druck und Ressourcenknappheit

Hauptursachen für Fehler und Regelverstöße liegen in der Verdichtung der Arbeitsprozesse und Zeitknappheit, oftmals ungeregelten Schnittstellen und unklaren Zuständigkeiten zwischen den verschiedenen Fachprofessionen. Überfüllte Notaufnahmen, 10 und mehr Bereitschaftsdienste im Monat, der Mangel an qualifizierten Personal aufgrund Krankheit und Fluktuation verschärfen diese Problematik. Fehlen wichtige diagnostische Ressourcen wie ein 24-Stunden verfügbares CT oder wird der Zugriff auf Patientendaten durch ein umständliches Krankenhaus-Informationssystem erschwert, werden Befunde primär nicht erhoben oder übersehen.

Entscheidungen treffen in Unsicherheit

Über allem medizinischen Handeln schwebt stets das Damoklesschwert der Unsicherheit. Anders als in der Luftfahrt fehlen dem Arzt häufig eindeutige Indikatoren und Parameter, die ihm zweifelsfrei die diagnostische Sicherheit geben, was die Ursache der Patientenbeschwerden betrifft. Differentialdiagnostisches Vorhergehen ist stets angebracht, jedoch ressourcenintensiv und aufgrund fachlicher Subspezialisierung oft nicht umzusetzen. So werden aus verständlichen Gründen der Ökonomie Entscheidungen vertagt bzw. Untersuchungen unterlassen. Ressourcenknappheit (personelle, apparative, zeitliche) und ökonomische Zwänge verleiten den Arzt zur Anwendung von Erfahrungswissen bzw. Heuristiken. Heuristiken suggerieren oft eine Scheinsicherheit, die in manchen Fällen in Folge von Fehlentscheidungen zu tragischen Konsequenzen führen.

Kognition, Automatismen & Heuristiken

Urteilsheuristiken und kognitive Verzerrungen

Die Erkenntnisse aus der Psychologie haben uns zu verstehen gegeben, dass unser Denken nicht frei von Fehlurteilen ist. Daniel Kahnemann, US-amerikanischer Psychologe und Wirtschafts-Nobelpreisträger erforschte über Jahrzehnte menschliche Urteilsheuristiken und kognitive Verzerrungen. Gerd Gigarenzer, deutscher Psychologe und Direktor der Abteilung „Adaptives Verhalten und Kognition“ am Harding-Zentrum für Risikokompetenz des Max-Planck-Instituts für Bildungsforschung in Berlin, sowie viele weitere Psychologen haben die menschliche Urteilsfindung untersucht.
Grob vereinfacht beschrieben besteht gemäß Kahnemann unsere Denkfunktion aus zwei Denkmustern. Dem System 1 oder dem schnellen Denken, welches assoziativ, effizient und effektiv ist. Es sucht nach Mustern, Kohärenzen, verarbeitet Eindrücke schnell und macht Vorschläge. Es überzeugt zudem das System 2, welches i.d.R. diese Vorschläge annimmt. Das System 1 begibt sich häufig auf die Suche nach Ähnlichkeiten mit Stereotypien und tut sich schwer mit der Verarbeitung von statistischen Fakten. Dementsprechend ist das schnelle Denken sehr anfällig für systemische Fehler und im ständigen Konflikt zwischen Intuition und Logik. Das System 2 oder das langsame Denken baut auf logischem Denken auf. Es funktioniert langsam und ist oftmals anstrengend. Es erfordert Gedankenkonstruktionen und die Kombination von Informationen. System 2 benötigt viel Selbstkontrolle und Selbstreflexion und übernimmt bei erkennbaren, drohenden Fehlern das Kommando, indem es das System 1 überstimmt. Es ist schlichtweg das Gegenmittel für Fehlentscheidungen des System 1.

Heuristik–Fallen

Es liegt auf der Hand, dass Situationen mit hohem Handlungsdruck das Erzwingen schneller Lösungen durch Investition in einfache Lösungen begünstigt. Die langwierige unbequeme Suche nach nahezu sicheren Antworten und nach spezifischen, weil seltenen Lösungen, wird in Bevorzugung einer bequemen Antwort und „Routine-Lösung“ (Heuristik) aufgegeben. Die Antwort ist dann einfach, schnell aber möglicherweise falsch.
Verhaltensforscher haben eine Vielzahl möglicher heuristischen Verzerrungen und Ursachen für Fehlentscheidungen identifiziert. Einige Wichtige seien hier stichpunktartig aufgelistet.

Verfügbarkeitsheuristik

Nach dem Hammer – Nagel – Prinzip werden Diagnosen bevorzugt innerhalb des eigenen Beurteilungsrahmens gestellt. Der Rückenschmerz kommt für den Orthopäden von der Wirbelsäule, für den Internisten ist er ein Zeichen des Herzinfarkts und für den Gefäßchirurgen das pulsierende Aortenaneurysma. So bleibt jeder Arzt in seinem eigenen fachlichen Denkrahmen verhaftet, andere Möglichkeiten, außerhalb des eigenen Erfahrungsrahmens werden nicht berücksichtigt.

Affektheuristik

Emotionen wie Furcht, Zuneigung und Abneigung können Anlass für Fehlentscheidungen sein. Gut gelaunt und entspannt wird vermutlich dem anstrengenden Untersuchungsvorgang des Patienten eine intensivere Aufmerksamkeit geschenkt, als wenn man übermüdet, hungrig oder nach einem Streit mit einem Kollegen „ausgepowert“ sein Tagesprogramm abspult. In der Luftfahrt spricht man von folgenden 5 gefährlichen Grundhaltungen, die die Fehleranfälligkeit und Tendenz zu Regelverstößen deutlich erhöhen.
Es sind: Fehlende Reflexions- und Kritikfähigkeit, Impulsivität, Gefühl der Unverwundbarkeit, Macho-Gehabe und Resignation

Ankerheuristik

Dieser Priming – Effekt durch suggestive „plausible Hinweise“ führt dazu, dass der Arzt sich unwillkürlich nur auf einem bestimmten, eingeschränkten Bereich begrenzt (sich an einen Anker halten). So können z. B. aufgrund der Fehleinschätzung eines Notarztes bei der Einweisungsdiagnose wichtige Differentialdiagnosen erst gar nicht weiter verfolgt werden. So wurden z. B. die massiven Blutdruckschwankungen bei einem teils somnolenten Patienten vom Notarzt als Herzrhythmusstörung interpretiert und in der Klinik als solche weiter behandelt und das lebensbedrohliche dissezierte Aortenaneuryma lange Zeit übersehen.

Selbstüberschätzung (Selfconfidence) und Confirmation Bias

In diesem Fall werden den eigenen Entscheidungen und Handlungen meistens zu hohe Erfolgschancen zugeschrieben, während den Meinungen Anderer weniger Gültigkeit zugesprochen wird. Durch dieses übermäßige Vertrauen in die Richtigkeit der eigenen Entscheidungen können autoritätsbasierte Entscheidungen zu „strong but wrong decisions“ führen. Argumente für die eigene Entscheidung werden bevorzugt, Gegenargumente unter den Tisch gekehrt. Die Risiken der eigener Entscheidungen werden dabei ebenso unterschätzt bzw. ausgeblendet, die Risikobewertung fremder Entscheidungen fällt dagegen in der Regel hoch aus.

Konsistenzbestreben

Einem ähnlichen Mechanismus folgt das natürliche Bestreben konsistent mit einmal getroffenen (eigenen) Entscheidungen zu handeln. Kognitive Dissonanz wird möglichst vermieden und es besteht die Tendenz Informationen zu ignorieren, die nicht zum bisherigen Vorgehen („disconfirming evidence“) passen.

Framing

Die Art und Weise wie Informationen präsentiert werden, der Bezugsrahmen, hat großen Einfluss darauf wie diese Informationen interpretiert werden. Ähnlich der Ankerheuristik und dem Kontrastprinzip können dadurch neue Fakten und Informationen durch Setzen in einen fixen Kontext (Bezugsrahmen) verharmlost oder überbewertet werden.

Fehleranfälligkeit des menschlichen Gedächtnisses

Zu den Heuristiken kommt noch die Tatsache, dass das menschliche Gehirn fehlende Informationen und Erinnerungslücken ergänzt, ohne dass uns dies bewusst wird. In einer Studie konnte gezeigt werden, dass rund 70% der Befragten falsche Zeugenaussagen bei einer Täteridentifizierung machten. Fehlende Informationen und Erinnerungslücken werden schlichtweg mit falschen Erinnerungen gemäß eigener Plausibilitätsüberlegungen aufgefüllt. Das Gehirn greift hierfür besonders auf eigene Annahmen, Erfahrungen und unbewusste Vorurteile zurück. In ihrem kürzlich erschienen Buch „The Memory Illusion“ konnte die Psychologin und Kriminologin Julia Shaw aufzeigen, dass es durch eine manipulative Gesprächsführung möglich ist, einzelne Erinnerungen umzuformen und gänzlich in ihr Gegenteil umzuprogrammieren.

 

Das Shell Modell

In Erkenntnis und Akzeptanz der menschlichen „Schwächen“ im Sinne eines „errare humanum est“ wurde in den letzten Jahrzehnten das Shell – Modell entwickelt. Das SHELL-Modell zeigt den Menschen (Liveware Individuum) als zentralen Akteur in Interaktion mit dem Arbeitsumfeld, bestehend aus den Komponenten S (Software, z. B. Richtlinien, Verfahren), H (Hardware, z. B. Instrumente, Werkzeuge), E (Enviroment, z. B. finanzielle Bedingungen) und L (Liveware Team), den anderen beteiligten Individuen. Aus der Güte der Passung zwischen L, dem zentralen Akteur mit seinen psychischen und physischen Eigenschaften (wie z. B. Sensorik, Motorik, Informationsverarbeitung, Bedürfnisse, Befindlichkeit, Körpermaße) und den anderen Systemkomponenten resultiert letztlich die Effizienz der Arbeitsleistung.

Systemfaktoren und individuelle Faktoren

Die Herausforderung an das Krankenhausmanagement besteht deshalb gerade darin, das Arbeitsumfeld so zu gestalten, dass der Mensch darin sicher und möglichst fehlerfrei arbeiten kann. Bei der Anschaffung der Arbeitsmaterialien (Hardware) ist auf die Nutzerfreundlichkeit zu achten. Medizingeräte müssen verlässlich funktionieren und leicht zu bedienen sein. Das Arbeitsumfeld (Liveware Team) sollte stressfrei gestaltet sein, die Dienstpläne so konzipiert sein, dass ein ausgewogener Qualifikation-Mix aus erfahrenen und unerfahrenen Mitarbeitern gewährleistet ist, sowie alle notwendigen Kompetenzen vor Ort sind oder schnell hinzugerufen werden können. Die Prozesse (Software) müssen klar definiert, effizient und jedem klar vermittelt sein. Die Mitarbeiter müssen vor Überlastungen geschützt werden, das Arbeitsumfeld motivierend gestaltet sein und eine kontinuierliche fachliche und persönliche Weiterentwicklung ermöglichen. Langfristig ist auf die Etablierung einer hochwertigen Sicherheits- und Vertrauenskultur abzuzielen, die das Ergebnis ethisch korrekter Einstellungen und Verhaltensweisen ist.

Systematisierung der Entscheidungsprozesse

Fordec

Ein besonders hilfreiches Verfahren für gute Entscheidungsprozesse kommt aus der Luftfahrt. Idealer Weise sollten sich alle Mitarbeiter damit vertraut machen. Das FORDEC- Verfahren hilft dabei, Entscheidungsprozesse, insbesondere in zeitkritischen Situationen, systematisch abzuarbeiten und besteht aus 5 Schritten.

  • F  FACTS – Sammeln der Fakten
  • O OPTIONS – Prüfen der Optionen
  • R RISKS AND BENEFITS – Abwägen der Risiken und Vorteile
  • D DECISION – Zu einer Entscheidung kommen
  • E EXECUTION – Ausführen der Entscheidung
  • C CROSS-CHECK – Kontrolle, ob die Entscheidung zum erwünschten Ziel geführt hat
    und ggf. Korrektur der Entscheidung

Choosing Wisely Initiative

Die Stiftung des American Board of Internal Medicine (ABIM) verfolgt seit 2012 mit der mittlerweile weltweiten Aktion „choosing wisely“ (www.choosingwisely.org) einen kritisch hinterfragenden Ansatz auf der Suche nach der Ratio (Logik) medizinischer Entscheidungen. Nach den beiden Leitsätzen „weniger ist mehr“ und „Dinge, die wir ohne Grund tun“ werden die Mediziner aufgefordert, zu reflektieren, welche Entscheidungen wirklich auf medizinischer Evidenz und welche auf unreflektiertem, schnell verfügbarem „Routinewissen“ (Heuristiken) basieren, um dadurch unnötige Untersuchungen und Therapien zu vermeiden.

Fazit:

Da wir nie vollkommen sicher sein können, wo genau die (medizinische) Wahrheit liegt, tun wir gut daran, Sicherheitsmechanismen in unsere Prozesse einzubauen, die unsere Fehleranfälligkeit reduzieren und unsere Diagnosegenauigkeit sowie Therapie optimieren. Entscheidend ist es zu akzeptieren, welch bedeutende Rolle der Faktor Mensch dabei spielt. Nur durch den Einbau von Sicherheitsredundanzen, z. B. durch das regelhafte Einholen von Zweitmeinungen und durch die Methodik einer partizipativen Entscheidungsfindung, wie sie z. B. im Rahmen onkologischer Fallkonferenzen seit Jahren erfolgreich praktiziert wird, können wir sicherer und somit besser werden. Ein klinisches Risikomanagement berücksichtigt solche „soft skills“ und ermöglicht deren Integration in den praktischen Klinikalltag.

9 Grundsätze für bessere Entscheidungen

  • Bleibe stets selbstkritisch und reflektiere deine Entscheidungen und dein Handeln
  • Unterstütze eine effektive interprofessionelle und interdisziplinäre Teamarbeit
  • Etabliere lebenslanges Lernen in der Arbeit
  • Stelle sicher, dass Technologie dein Arbeiten unterstützt bzw. verbessert und nicht unsicherer macht
  • Sprich über deine Fehler und lerne daraus
  • Installiere ein Risikomanagement-System und analysiere die Systemschwächen der Organisation
  • Schaffe Anreize für ein ethisch basiertes Arbeiten und belohne die Ehrlichen
  • Stelle adäquate Ressourcen und ausreichend kompetentes Personal zur Verfügung, um die Arbeit qualitativ hochwertig und sicher verrichten zu können

 

Gerne unterstützen wir Sie bei Fragen zur Optimierung des Human Faktors Ihrer Mitarbeiterinnen und Mitarbeiter. Kontaktieren Sie uns unter Email: ae@euteneier-consulting.de

Wir bieten in regelmäßigen Abständen (Inhouse)-Ausbildungen und (Inhouse)-Seminare zur Verbesserung des Human Faktors. Schauen Sie auf unsere Webpage unter der Rubrik Akademie