Archiv der Kategorie ‘Psychologie‘

 
 

Gelesen: Leading in Ambiguity

Elster, Katrin; Christensen, Tamara. Leading in Ambiguity – How to Transform Uncertainty into Possibilities, Hamburg 2022, ISBN: ‎ 978-3-9824451-1-3 (Amazon Affiliate Link)

Kennen Sie VUKA? Das überstrapazierte Akronym und Sinnbild der Herausforderungen unserer modernen Zeit?

VUKA steht für Volatilität (also extreme Ausschläge), Unsicherheit, Komplexität und Ambiguität. So populär der Begriff ist, krankt er daran, dass die enthaltenen Begriffe nicht unabhängig voneinander sind.

Das „A“ greifen die beiden Autorinnen heraus und das ist erfrischend, denn vor allem zu Unsicherheit und Komplexität ist schon sehr viel gesagt worden.

Ambiguität, also Mehrdeutigkeit, verursacht Unsicherheit und Stress, aber unsere Kapazität für Ambiguität unsere Ambiguitätstoleranz ist trainierbar und darum geht es in diesem Buch.

Ganz zentral ist dabei der Status Quo, der uns vermeintliche Sicherheit suggeriert. Es ist daher vom Status Quo Bias die Rede, also unserer natürlichen Tendenz den Ist-Zustand gegenüber unsicheren künftigen Zuständen zu präferieren. Auf der anderen Seite lohnt sich die Auseinandersetzung mit Ambiguität, denn Ambiguität provoziert Fragen.

Unserer Kapazität für Ambiguität in unserem Fühlen, Denken und Handeln ist kontextspezifisch, aber Ambiguität kann auch ein Erfolgsfaktor sein:

When we aim to change, innovate, or transform, tolerating ambiguity is crucial for our success.

Letztlich gibt es 4 Erwartungshaltungen gegenüber dem Status Quo bzw. indirekt gegenüber der Ambiguität:

  1. Protect the status quo
  2. Restore the status quo
  3. Evolve the status quo
  4. Reimagine the status quo

Wenn wir uns der Ambiguität, der verschiedenen Erwartungshaltungen und dem Umgang damit bewusst sind, dann können wir mit 6 Design-Prinzipien bewusst Ambiguität für uns nutzen. Diese sind:

  • Open the Space
  • Leverage Tensions
  • Aim for Insights
  • Visualize the Invisible
  • Prototype Progress
  • Trust in Potential

Diesen Bogen arbeiten Katrin und Tamara aus. Ihr Anliegen ist es, unser Bewusstsein für ein so sperriges Thema zu schärfen und gleichzeitig aufzuzeigen, wie wir damit umgehen und es für uns nutzen können.

Die kognitive Dissonanz der KI

Zu meinen Lieblingsbeiträgen der Wikipedia gehört der Cognitive Bias Codex. Hierbei handelt es sich um eine Übersicht über die vielfältigen kognitiven Störungen bei uns Menschen. Die pure Anzahl und die Komplexität dieser Störungen führt uns unsere eigene Unzulänglichkeit nur zu gut vor Augen.

Diese Verzerrungen sind jetzt auch nicht „krankhaft“, sondern ganz normal – ein Zeichen unserer beschränkten Wahrnehmungs- und Verarbeitungsfähigkeit.

Der Titel dieses Beitrags leitet jetzt geflissentlich über zu der Frage, ob es solche Verzerrungen nicht auch in der KI gibt.

Eine erste Antwort finden wir bereits im Beitrag zu Belastbarkeit & Grenzen: KI basiert zum Einen auf Wahrscheinlichkeiten und nicht auf Wahrheiten oder Logik und zum Anderen ist die KI natürlich abhängig von dem ihr zur Verfügung gestellten Inhalten. Hier gelten noch immer die Grundprinzipen der Datenverarbeitung: Garbage in, garbage out.

Für ein aktuelles Projekt (eine Methoden-Übersicht) haben wir versucht die Attribute zur Beschreibung von Methoden mit Hilfe der KI vorzunehmen, bzw. unsere eigenen Überlegungen dazu mittels KI zu validieren. Die KI Ergebnisse dazu hielten leider unseren Erwartungen nicht stand, angefangen davon, dass uns die KI zu anderen Attributen überreden wollte und deutlich von den Vorgaben abgewichen ist, fand sie auch generell toll, was immer wir ihr gegeben haben, womit wir beim Thema kognitive Verzerrungen wären. Es gab also eindeutig eine Bestätigungstendenz.

Wenn man darüber nachdenkt ist das Ergebnis auch gar nicht so überraschend, denn was wir ihr als Input gegeben, ist natürlich gegenüber ihren anderen Ressourcen hochprior, nur anstatt unsere eigene Modellbildung damit kritisch auf den Prüfstand zu stellen, hat uns die KI dann lobend auf die Schulter geklopft. Gut fürs Ego, schlecht für das Ergebnis.

Wenn man jetzt noch berücksichtigt, das durch die Wahrscheinlichkeitsbetrachtung letztlich auch nur bestehende Lösungen einbezogen werden können, dann wird schnell klar, dass die KI zwar eine Umsetzungsmaschine, aber ein Innovationszwerg sein muss.

Unser Versuch der Methodenbeschreibung ist nur ein einfaches Beispiel. Die Fragen am Rande des Cognitive Bias Codex lassen sich aber auch auf die KI übertragen. Was tun, wenn…

  • …wir mit zuvielen Informationen konfrontiert sind.
  • …es an Bedeutung und Kontext fehlt.
  • …wir schnell handeln müssen.
  • …die Aktualität und „Haltbarkeit“ von Informationen nicht ganz klar ist.

Letztere bringt auch das Thema „Vergessen“ auf. Wenn Informationen veralten, dann sollten wir sie vielleicht sogar vergessen und sie nicht in unsere Antworten einbeziehen, aber es heißt doch so schön: Das Internet vergisst nicht. Nicht nur die KI muss noch viel lernen, sondern auch wir im Umgang mit der KI.

Anmerkung & Quellen:
Cognitive Bias Codex (Wiki Commons)
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle.

Gelesen: Coaching, Beratung und Gehirn

Roth, Gerhard; Ryba, Alica; Coaching, Beratung und Gehirn: Neurobiologische Grundlagen wirksamer Veränderungskonzepte; 5., durchgesehene und um ein Vorwort erweiterte Auflage; Stuttgart 2016 (Amazon Affiliate Link)

Nach der Lektüre bin ich hin- und hergerissen. In einigen Punkten scheint mir das Buch einseitig und nicht ausgeglichen, dem grundlegenden Verständnis der Autoren möchte ich mancherorts widersprechen und trotzdem, vielleicht auch gerade deswegen ist die Lektüre wertvoll. Der Inhalt bereichert die Domäne und trotzdem kann man sich an ihm reiben, aber so entsteht Entwicklung.

Gerhard Roth war einer der bekanntesten deutschen Gehirnforscher und der Ansatz der beiden Autoren neurobiologische Grundlagen für Coaching und Beratung aufzuzeigen klingt vielversprechend und ja, ich habe das eine oder andere über Aufbau und Funktionsweise unseres Gehirns gelernt, nur die Rückübertragung und Anwendung in Coaching und Beratung sehe ich nicht – zumindest nicht in dem Umfang, wie ich es mir erhofft hätte.

Der Umgang mit Coaching und Psychoanalyse der Autoren ist sehr spitzzüngig, der (wissenschaftlich belegte) Wirkungsnachweis wird als Achillesverse identifiziert. Das eigene 4-Ebenen-Modell wird aber seltsamerweise keiner empirischen Überprüfung unterzogen.

Auch die Abgrenzung von Coaching und Psychoanalyse wird thematisiert. Es wird darauf hingewiesen, dass die gleichen (oder ähnliche) Konzepte und Modelle herangezogen werden, nur dass der Coachingbereich noch „unwissenschaftlicher“ sei. An dieser Stelle steckt – glaube ich – ein falsches Verständnis von Coaching und Psychoanalyse, denn klar, der Betrachtungsgegenstand ist der Gleiche, die unterschiedliche Motivation wird noch thematisiert, aber was fehlt ist eine Betrachtung der Mandatierung: Während die Psychoanalyse „therapeutisch“ legitimiert ist, sind dem Coaching Handschellen angelegt. Coaching (im beruflichen Kontext) beruht auf Freiwilligkeit (und nicht zwangsläufig auf einer Notsituation). Coaching passiert nicht nur zwischen Coach und Klient, sondern möglicherweise sind auch Arbeitgeber/Vorgesetzte involviert – vielleicht nicht in der direkten Coach/Klienten-Beziehung, aber möglicherweise im Rahmen der Personalentwicklung oder Finanzierung von det Janze. Es stehen also auch gewisse Interessenkonflikte im Raum, die den Handlungsspielraum für ein Coaching einschränken.

Die Zusammenfassung der Freudschen und der Ericksonschen-Lehre ist kompakt und liest sich gut, allerdings stellt sich mir die Frage, wie aktuell diese ist. Deren historischer Einfluss ist unbestritten, aber gefühlt basiert das Verständnis im Buch auf Theorien aus Anfang/Mitte des 20. Jahrhunderts (Freud 1856-1939, Erickson 1901-1980), es werden zwar auch neuere Werke angeführt, aber gefühlt stehen Sigmund und Milton im Raum.

An der einen oder anderen Stelle blitzt eine naturwissenschaftliche Überheblichkeit auf. Psychoanalyse wird als Geisteswissenschaft bezeichnet und die Geisteswissenschaft noch in Anführungszeichen gesetzt.

Systemische Coaching Ansätze werden aufgrund ihrer „nicht ausreichenden Konkretisierung“ und ihres „eklektischen Kerns“ (also einem beliebigen Cherry-Picking) kritisch gesehen, obwohl sich die Ansatzpunkte zur Problemlösung der eigenen Theorie dem wieder inhaltlich annähern.

Alles in allem handelt es sich um ein spannendes Buch, im besten Sinn des Wortes. Keine unumstößliche Wahrheit, aber eine echte Bereicherung.

Gelesen: Actionable Gamification

Yu-Kai Chou; Actionable Gamification– Beyond Points, Badges, and Leaderboardss, 2017 (Amazon Affiliate Link)

Achtung, Mogelpackung! Aber keine schlechte.

Eigentlich geht es bei dem amerikanisch-taiwanesischen Yu-Kai Chou gar nicht um Gamification, sondern um „human focused design“. Er hat dazu sein Octalysis-Framework entwickelt – zuerst auf seiner Homepage und dann in Buchform.

Eigentlich ist Octalysis eine Motivationstheorie. Abgeleitet tatsächlich aus der Analyse unzähliger Spiele versucht Yu-Kai Chou die zugrunde liegenden Treiber (core drives) für jegliches Handeln zu identifizieren. Er kommt dabei auf 8 Stück, die er in einem Oktagon anordnet, plus einen versteckten neunten Antrieb mit der Sensationslust.

Er ordnet die einzelnen Antriebe tendenziell der linken oder der rechten Gehirnhälfte zu, wobei er selbst darauf hinweist, dass diese Unterscheidung nicht neurowissenschaftlich begründet, sondern eher symbolisch zu verstehen ist.

Daneben unterscheidet er White Hat und Black Hat Gamification, also eher positiv oder negativ konnotierte Antriebe.

Zu den einzelnen Core Drives identifiziert er dann jeweils eine ganze Reihe von „Spieltechniken“, die sich als Design-Elemente nutzen lassen, um den jeweiligen Antrieb zu triggern. Also doch Gamification!

Spannend ist Yu-Kai Chous Reflexion von verschiedenen Behavioral Frameworks mit Hilfe von Octalysis:

  • Ryan and Deci’s Self-Determination Theory
  • Richard Bartle’s Four Player Types
  • Nicole Lazzaro’s 4 Keys To Fun
  • Mihaly Csikszentmihalyi’s Flow Theory
  • Fogg Behavior Model
  • Jane McGonigal’s Theories (die von SuperBetter)

Die verhaltenswissenschaftliche Fundierung (da dürfen auch Kahnemann & Co nicht fehlen) gibt dem „Schmuddelkind“ Gamification einen fundierten, sauberen Anstrich.

Und obendrein ist Yu-Kai Chous Baukasten vielversprechend.

Eine kompakte deutschsprachige Zusammenfassung des Octalysis Frameworks gibt es übrigens bei der Uni Oldenburg.

Gelesen: Katastrophenmanagement

Alexander Siedschlag, Rosemarie Stangl, Katastrophenmanagement: Eine wissenschaftliche Einführung, Hamburg 2020, ISBN-13: 9783347179301 (Amazon Affiliate Link)

Statt noch ein Buch über Risikomanagement oder Projektmanagement zu lesen, ist es manchmal wesentlich anregender in ein benachbartes Regal zu greifen, statt erneut in der eigenen Blase zu bleiben und sich gegenseitig selbst zu bestätigen. Das „Katastrophenmanagement“ entstammt der Sicherheitsforschung und versteht sich als eine wissenschaftliche Einführung, steht also in einem Nachbarregal und nicht im PM-Sumpf.

Ja, es ist ein akademisches Buch und die Ländervergleiche und politischen Betrachtungen haben mich jetzt weniger interessiert, aber das ist ja vollkommen ok, weil nicht mein Anspruch. Die grundlegenden Schulen und Analysemethoden, Katastrophenkommunikation und das Resilienzkonzept hingegen schon.

Wir kennen klassische Risikobetrachtungen die mathematisch das Produkt aus Eintrittswahrscheinlichkeit (Likelihood) und den verbunden Auswirkungen (Impact) bilden. Das Disaster Risk Model zeigt, dass man sich auch mit anderen Ansätzen mit der Risikothematik befassen kann:

Jetzt ist so ein Venn-Diagramm, dass die Schnittmenge aus Gefährdung, Exponiertheit und Verletzlichkeit betrachtet nicht so einfach modellierbar wie ein mathematisches Produkt, zeigt aber, dass es sich darüber nachzudenken lohnt, ob es nicht noch andere Faktoren gibt, die wir in die Risikobetrachtung einbeziehen sollten und warum – zum Teufel – müssen diese Faktoren multiplikativ verknüpft sein? Weil es einfach ist?

Ich muss gestehen, dass es noch ein weiteres Motiv für die Lektüre gab: Neugier, denn Alex Siedschlag kenne ich schon aus Schulzeiten. wir haben gemeinsam Abitur gemacht, waren gemeinsam bei der Bundeswehr und haben uns lose im Auge behalten. Insofern war eine solche Einführung auch der willkommene Anlass in sein Metier zu schnuppern. Alex ist heute Professor für Homeland Security an der Penn State University. Zugegebenermaßen musste ich schmunzeln, als ich bei der Beschreibung des Szenariotrichters dann eine Abbildung gefunden habe, die ich vor langer Zeit mal für einen Wikipedia-Artikel gebaut habe (siehe Foto oben) – selbstverständlich ordentlich zitiert, auch wenn die Wikipedia in wissenschaftlichen Kreisen ja eher verpönt ist, aber meine Grafik hat es immerhin in das „Katastrophenmanagement“ geschafft. Die inhaltlichen Belegstellen sind selbstverständlich wissenschaftlicher Natur, aber die Darstellung wurde übernommen.

Für mich wertvolle Inputs waren u.a. die Unterscheidung von Krise und Katastrophe, das Sieben-Phasen-Modell nach Chapmann oder die Impact-Zonen nach Tiryakian. Psychologische Aspekte und systemische Betrachtungen bis hin zum Resilienzkonzept hatten naturgemäß eine hohe Überschneidung zu meinem persönlichen Hintergrund (habe doch Organisationspsychologie (im Nebenfach) durchaus studiert).

Das Buch hält was es verspricht und – ja – es hat auch schon kritische Bezüge zu COVID-19:

„In diesem Zusammenhang wird wiederum deutlich, dass COVID-19 im Bereich des planerisch durchaus vorstellbaren und Antizipiertem lag. Aus sozialwissenschaftlicher Sicht besteht die katastrophale Qualität dieser Pandemie eben auch darin, dass über Jahrzehnte hinweg verfolgte Risikomanagementstrategien entweder nicht (mehr) Praxis bereit waren, nicht kohärent angewandt wurden oder nicht wie vorgesehen griffen (…).“

Diese inhaltliche Aktualität ist bemerkenswert. An anderer Stelle habe ich sie allerdings vermisst: Die Rolle von Blogs und Web 2.0 in der Gefahrenkommunikation ist überholt. An ihre Stelle ist längst Social Media getreten, schneller als die zitierte Fachliteratur nachziehen konnte. Alles in allem aber nur eine Kleinigkeit, die den Gesamteindruck nicht schmälert.

Best of schlossBlog: Schnelles Denken, langsames Denken


Daniel Kahnemanns mehr als lesenswertes Buch „Schnelles Denken, langsames Denken“ (Amazon Affiliate Link) ist so etwas wie das Resümee eines großartigen Denkers. Kahnemann führt auch den Laien in die state-of-the-art  Kognitionspsychologie ein und zeigt, wissenschaftlich fundiert und trotzdem leicht lesbar wie wir „Ticken“ und „Entscheiden“. Gleichzeitig ist es so etwas wie die Bilanz eines Lebenswerkes.

Das Rationaltiätskonzept eines Homo Oeconomicus ist längst überholt und Kahnemann hat für seinen Beitrag zur Neuen Erwartungstehorie immerhin den Wirtschafts-Nobelpreis bekommen.

Kahnemann beschreibt das Modell zweier kognitiver Systeme (System 1: für schnelles Denken, System 2: für langsames Denken) und deren Zusammenspiel.

Mit diesem Modell lassen sich zahlreiche Verhaltens- und Entscheidungsmuster psychologisch erklären, z.B.:


Den ganzen Beitrag lesen…

Gelesen: Rettet das Spiel!

Muss man ein theoretisch/philosophisches Buch über Spiele lesen?

Nein, muss man nicht, kann man aber.

Und durchaus erhellend ist die Einordnung des Spiels als elementares Prinzip der Evolution und des Lebens.

Gerald Hüther (ja, der Hirnforscher) und Christoph Quarch liefern neben einer wissenschaftlich/philosophischen Einordnung auch eine kleine Kulturgeschichte und ein Plädoyer zur Rettung des Spiels. Bei letzterem schießen sie etwas über das Ziel hinaus und werden mir zu dogmatisch. Sie stilisieren stark die Bedrohung des homo ludens (des spielenden Menschen) durch den homo oeconomicus und den homo faber. Sie warnen vor der reinen Konsumhaltung (statt des aktiven Spiels) und das elektronische Spiel vor dem Monitor erschließt sich ihnen nicht. Hier gehen sie mir zu weit. Ich folge ihrer Wertschätzung von Kreativität und Spiel, die Abschätzung verschiedener Varianten geht mir aber zu weit und ist nicht mehr zeitgemäß. Lediglich die Reduktion des Spiels auf den Konsum oder die elektronische Variante ist zu bedauern, nicht aber diese Varianten an sich. Sie haben im breiten Spektrum des Spiels durchaus ihren Platz und ihre Berechtigung. Homo ludens, homo oeconomicus oder homo faber sind für mich lediglich Denkfiguren – vielleicht auch Leitbilder in bestimmten Epochen. Der Höhepunkt der Verehrung des homo oeonomics ist aber längst überschritten. Seine Kritik beginnt spätestens in den 60er Jahren und hat zuletzt mit Autoren wie Kahnemann oder Taleb auch breite Kreise erreicht.

Die beiden Autoren identifizieren drei zentrale Signaturen eines jeden Spiels: Verbundenheit, Freiheit und Darstellung. Sie betrachten die Spielfamilien Geschicklichkeitsspiele, Wettkampfspiele, Schauspiele (einschließlich der Kultspiele) und Glücksspiele. Sie betrachten Spiel und Spielraum als Quelle von Kreativität und Innovation und somit auch als Voraussetzung für (wirtschaftlichen) Erfolg. Sie kritisieren die Notenoptimierung zu Lasten von „Spielräumen“ in unserem Schulsystem und bieten letztlich ein leidenschaftliches Plädoyer für das Spiel:

„Denn wo Menschen miteinander spielen, öffnet sich der Raum des Zwischenmenschlichen, in dem sich Neues, Unverhofftes zeigen kann.“

Gerald Hüther, Christoph Quarch, Rettet das Spiel: weil Leben mehr als Funktionieren ist, München 2016, ISBN-13: 9783446447011 (Amazon Affiliate Link)

Brandeins: Kognitive Dissonanz und Disruption

Stephan A. Jansen beschreibt (brandeins 06/2019), wie wir trotz aller Sensibilisierung für disruptive Entwicklungen unsere Augen vor dem Offensichtlichen verschließen und verweist auf schwere Kognitionsstörungen: „Warum wir auch sehr naheliegende Entwicklungen nicht früher sehen können, liegt in dem begründet, was wir in der Forschung kognitive Routinen nennen. Das sind Beobachtungsprogramme, bei denen weniger die Ergebnisse interessieren als das Programm selbst: Was gefunden wird, ist immer abhängig von der Such-Logik.“

Wen wundert es da, dass sich Unternehmen mit permanenter Selbstbestätigung immer tiefer ein Schlammassel wie den Diesel-Skandal reinreiten oder ausschließlich Menschen einstellen, die so sind, wie die Menschen, die bereits in der Organisation sind – auch das eine Form von Selbstbestätigung mit der Gefahr von inzestiösen Tendenzen.

Truthahn Irrtum

Weil heute Thanksgiving ist: Kennt Ihr den Truthahn Irrtum?

Unter dem Truthahn Irrtum versteht man nach Nassim Taleb die irrige Annahme des Truthahns, nachdem ihn der Der Farmer 364 Tage gefüttert hat, er wäre sein Freund. Das war am Tag vor Thanksgiving.

Die Geschichte zeigt, dass uns Erkenntnisgewinn nicht immer weiter hilft. Zumindest hat es dem Truthahn nichts genutzt.



bernhardschloss.de