Über KI lernen… Prompt Engineering und so.

Jaja, die kürzlich gestartete KI-Reihe hier im schlossBlog ist abgeschlossen. Und trotzdem geht es (jetzt außerhalb der kleinen Reihe) weiter, denn Mann (Schreibweise ist richtig wegen des Geschlechts des Autors) muss sich ja weiter bilden.

Den Anfang macht der LinkedIn Learning Kollege Sascha Wolter, dessen Video-Training „Prompt Engineering – Grundlagen“ einen sehr guten und fundierten Ausgangpunkt bilden. Neben den „reinen“ Grundlagen liefert Sascha den Einstieg (mit vielen Beispielen), wie Prompts aufgebaut werden können, insbesondere durch:

  • Rolle & Tonfall
  • Anweisungen & Ziele
  • Kontext
  • Befehl/Frage & Format

Und natürlich auch, wie sich solche Prompts systematisch erweitern lassen.

Das Prompt-Engineering wollte ich eigentlich noch vertiefen mit dem Buch Prompt Engineering and ChatGPT von Russel Grant (Amazon Affiliate Link). Ganz gelungen ist mir das nicht, denn was das Engineering im technischen Sinne angeht ist das Buch etwas „dünn“. Was ich sehr gut fand, waren die vielen Use Cases aus den unterschiedlichsten Gebieten von Software-Entwicklung, über Marketing, Kundensupport, bis hin zum Projektmanagement. Meine Vorurteile wurden wieder bestätigt. Der erste Use Case im PM, der genannt wird, ist die Erstellung einer Agenda. Holy fuck. Wer dafür KI braucht, ist im Projektmanagement fehl. Auch die anderen PM Use Cases überzeugen mich nicht wirklich, aber das liegt weniger an Russel Grant als an der Materie. Selbstverständlich wird KI in Projekten immer wichtiger, aber halt weniger in der Koordination und Kommunikation als in der inhaltlichen Arbeit. Auch Russel Grant verweist auf das Problem mit den Bias in der KI (ich habe von kognitiver Dissonanz gesprochen). Für ihn ist dafür, wie bei etwaigen Fehlerquellen das gelernte Material verantwortlich. Das stimmt natürlich auch, wenn die KI Vorurteile oder falsche Informationen übernimmt und wiedergibt, aber das Problem probabilistischer Modelle, die von Natur aus wahrscheinliche und nicht zwangsläufig richtige Ergebnisse wiedergeben, erwähnt er mit keiner Silbe.

Ein echtes Highlight für mich war dann noch KI für Kreative von Jenny Habermehl (Amazon Affiliate Link). Es geht mal weniger um ChatGPT, sondern vor allem um bildgebende KIs. Jenny Habermehl zeigt die erforderlichen Grundlagen und Tools, aber auch viele praktische Beispiele und die sind natürlich ein Hingucker. Mit den Prompt-Beispielen für Kreativitätstechniken (die durchaus auch wieder für textbasierte KI geeignet sind) werde ich ganz sicher noch experimentieren.

Und hier noch der obligatorische Disclaimer zur Illustration dieses Beitrags: Die ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazugehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).

Persona

Personas sind im Marketing ein Konzept zur Beschreibung von Zielgruppen (siehe auch Wissen kompakt bei t2informatik). Statt auf eine Charakterisierung mit statistischen Attributen zurückzugreifen beschreibt die Persona fiktionale Menschen mit ihren ganz persönlichen Details. Was zunächst vielleicht etwas unseriös/unwissenschaftlich anmutet macht schnell Sinn, denn solche Beschreibungen sind viel anschaulicher, plastischer, weniger abstrakt. Weil uns ihr fiktionaler Charakter bewusst ist, werden sie nicht gleich überhöht, auf der andere Seite wird die Empathie gegenüber der Zielgruppe gesteigert.

Wenn ich bislang Personas genutzt habe musste immer Erich aus der Business Visualisierung (Amazon Affiliate Link) herhalten:

Für eine Workshop-Moderation in der vergangenen Woche habe ich mir ein eigenes Template gebastelt, d.h. Template ist eigentlich zu viel gesagt: Die Kontur einer Playmobil-Figur auf einem Flipchart . Und wiedermal hat sich gezeigt wie Gamification funktioniert: Die Spielzeug-Figur ließ uns die Übung (es ging um die Beschreibung des idealen Teammitglieds) mit einem Lächeln starten, ein gelungener Icebreaker ganz zu Beginn des Workshops. Die Abstraktheit der Figur nahm gleichzeitig noch nichts vorweg und war offen für die Inputs der Teilnehmenden. Und viele der Beiträge konnten wir bei den späteren Agenda-Punkten wieder aufgreifen. Die Persona blieb dabei die ganze Zeit sichtbar im Raum.

(Die Playmobil-Frau war übrigens der Wunsch der Teilnehmer, ich hätte auch noch einen Playmobil-Mann in Petto gehabt.)

Zum Tod von Daniel Kahnemann

Mit 90 Jahren ist am 27. März Daniel Kahnemann gestorben. Andrian Kreye schreibt über ihn in der Süddeutschen Zeitung:

Wirtschaftsnobelpreisträger Daniel Kahneman hat den Mythos vom vernünf­tigen „Homo oeconomicus“ entzaubert und mit seinen Büchern ein Millionenpublikum begeistert. […]

[…], der Mann, der den Menschen gezeigt hat, wie sie denken und wie sie handeln. Der das Forschungsfeld der Verhaltensökonomie begründete und dafür 2002 einen Wirtschaftsnobelpreis bekam. […]

Er wusste um die Grenzen des Denkens bei den anderen, und deswegen auch bei sich selbst. […]

Es war vor allem seine Unterscheidung zwischen dem „schnellen Denken“ der Impulse und Emotionen und dem „langsamen Denken“ der Vernunft und Risikoabschätzung, die seine Wissenschaft der Verhaltensökonomie einer breiten Leserschaft begreiflich machte. […]

Sein Buch „Schnelles Denken, langsames Denken habe ich hier auch schon aufgegriffen. Aus gegebenem Anlass hier noch einmal:


Daniel Kahnemanns mehr als lesenswertes Buch „Schnelles Denken, langsames Denken“ ist so etwas wie das Resümee eines großartigen Denkers. Kahnemann führt auch den Laien in die state-of-the-art  Kognitionspsychologie ein und zeigt, wissenschaftlich fundiert und trotzdem leicht lesbar wie wir „Ticken“ und „Entscheiden“. Gleichzeitig ist es so etwas wie die Bilanz eines Lebenswerkes.

Das Rationaltiätskonzept eines Homo Oeconomicus ist längst überholt und Kahnemann hat für seinen Beitrag zur Neuen Erwartungstehorie immerhin den Wirtschafts-Nobelpreis bekommen.

Kahnemann beschreibt das Modell zweier kognitiver Systeme (System 1: für schnelles Denken, System 2: für langsames Denken) und deren Zusammenspiel.


|Den ganzen Beitrag lesen…

Gelesen: Luther für Innovatoren

Hagmann, Jean-Phillippe. Luther für Innovatoren – 95 Thesen, Innovation neu zu denken, Zürich 2023, ISBN: ‎ 9783952588604 (Amazon Affilitate Link)

Aller guten Dinge sind 3 – zumindest bei Jean-Phillippe Hagmann. Nach dem Innovationstheater und dem Meta-Modell für agile Innovation jetzt Luther für Innovatoren. Aber eigentlich ist es diesmal kein Buch zum Lesen, sondern eher zum Stöbern. Viel Kurzstrecke, keine Langstrecke. Ein Format mit vielen Thesen zum Nachdenken, auch wenn die Luther Analogie etwas überstrapaziert wird (die Luther-Zitate haben mich jetzt weniger angesprochen).

Weniger große Botschaft als viele Denkanstöße. Und es würde mich nicht wundern, wenn ich immer wieder zu diesem Buch zurückkehren werde (was mir sonst eher selten passiert).

Jeder These folgen 1-2 Seiten zur Erläuterung, Thesen wie:

  • Erfolgreiche Innovationen sind niemals neu. Denn das wirklich Neue findet niemals breite Akzeptanz.
  • Die Idee wird konstant überbewertet. Doch die Idee ist nichts ohne Innovation.
  • Innovation ist für viele Unternehmen wichtig, muss aber meist warten, weil sie nicht dringend ist.
  • Der Fokus auf die Machbarkeit einer neuen Idee wird von Innovationsteams systematisch überbewertet.

Und davon mindestens 95 Stück. Natürlich finden sich Schlagworte wie Serendepität, Künstliche Intelligenz, aber auch Negativraum.

Nicht jeder These wird man folgen, vielleicht regt sich auch Widerspruch, aber das ist gut so und auch gewollt.

Ein schönes kleines Büchlein. Eine klare Empfehlung.

Gelesen: Leading in Ambiguity

Elster, Katrin; Christensen, Tamara. Leading in Ambiguity – How to Transform Uncertainty into Possibilities, Hamburg 2022, ISBN: ‎ 978-3-9824451-1-3 (Amazon Affiliate Link)

Kennen Sie VUKA? Das überstrapazierte Akronym und Sinnbild der Herausforderungen unserer modernen Zeit?

VUKA steht für Volatilität (also extreme Ausschläge), Unsicherheit, Komplexität und Ambiguität. So populär der Begriff ist, krankt er daran, dass die enthaltenen Begriffe nicht unabhängig voneinander sind.

Das „A“ greifen die beiden Autorinnen heraus und das ist erfrischend, denn vor allem zu Unsicherheit und Komplexität ist schon sehr viel gesagt worden.

Ambiguität, also Mehrdeutigkeit, verursacht Unsicherheit und Stress, aber unsere Kapazität für Ambiguität unsere Ambiguitätstoleranz ist trainierbar und darum geht es in diesem Buch.

Ganz zentral ist dabei der Status Quo, der uns vermeintliche Sicherheit suggeriert. Es ist daher vom Status Quo Bias die Rede, also unserer natürlichen Tendenz den Ist-Zustand gegenüber unsicheren künftigen Zuständen zu präferieren. Auf der anderen Seite lohnt sich die Auseinandersetzung mit Ambiguität, denn Ambiguität provoziert Fragen.

Unserer Kapazität für Ambiguität in unserem Fühlen, Denken und Handeln ist kontextspezifisch, aber Ambiguität kann auch ein Erfolgsfaktor sein:

When we aim to change, innovate, or transform, tolerating ambiguity is crucial for our success.

Letztlich gibt es 4 Erwartungshaltungen gegenüber dem Status Quo bzw. indirekt gegenüber der Ambiguität:

  1. Protect the status quo
  2. Restore the status quo
  3. Evolve the status quo
  4. Reimagine the status quo

Wenn wir uns der Ambiguität, der verschiedenen Erwartungshaltungen und dem Umgang damit bewusst sind, dann können wir mit 6 Design-Prinzipien bewusst Ambiguität für uns nutzen. Diese sind:

  • Open the Space
  • Leverage Tensions
  • Aim for Insights
  • Visualize the Invisible
  • Prototype Progress
  • Trust in Potential

Diesen Bogen arbeiten Katrin und Tamara aus. Ihr Anliegen ist es, unser Bewusstsein für ein so sperriges Thema zu schärfen und gleichzeitig aufzuzeigen, wie wir damit umgehen und es für uns nutzen können.

Mit der KI das Bürokratiemonster bezwingen

Bei all meiner Skepsis gegenüber dem Einsatz von KI im Projektmanagement habe ich dann doch einen Anwendungsfall für mich entdeckt: Die Bürokratiebefriedigung.

Zumindest im Konzernumfeld kennt das doch jeder. Da gibt es Applikationen, Checklisten & Formulare, die bedient werden müssen – egal ob Projektmanagement, Risikomangement oder bei anderen Fragestellungen. Mittlerweile natürlich alles digital.

All zu oft werden diese Frage-Antwort-Spielchen dann zum Selbstzweck und wir müssen uns Antworten aus den Fingern saugen, versuchen verzweifelt irgendwelche generischen Aussagen abzuleiten und umzubiegen, aber damit ist jetzt Schluss, dank der KI!

Also nicht dass es jetzt weniger unsinnige Tätigkeiten in der Welt gäbe, aber die KI hilft uns bei der kreativen Beantwortung, bei der Bürokratiebefriedigung oder der Bezwingung des Bürokratiemonsters.

Satya Nadella (Microsoft CEO) hat auf dem Weltwirtschaftsgipfel 2023 in Davos ganz in diesem Sinne über die Möglichkeiten von Chat-GPT & Co berichtet:

[…]  I saw was a rural Indian farmer trying to access some government program, so he just expressed a complex thought in speech in one of the local languages that got translated and interpreted by a bot, and a response came back saying go to a portal and here is how you’ll access the program, and he said look, I’m not going to the portal, I want you to do this for me, and it completed it, and the reason why it completed it was because they had a developer building it who had taken GPT and trained it over all of the government of India documents and then scaffolded it with speech recognition software,“ he said.

Satya Nadella (Microsoft CEO)

Aber jetzt ist auch wieder gut mit den KI Themen hier auf schlossBlog. Also nicht, dass KI künftig als Thema ausgeschlossen ist, aber diese kleine Reihe endet hier.

Anmerkung & Quellen:
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle, bis hin zur kognitiven Dissonanz der KI.
Zuletzt haben wir dann rechtliche Aspekte beleuchtet, bevor wir uns dem Projektmanagement zugewendet haben.

openPM Canvas

Nachdem openPM etwas im Dornröschenschlaf weilt, das alte Wiki abgeschaltet ist und die Seiten aktuell nur ohne SSL Zertifikat erreichbar sind, hier ein alternativer Download für die Canvas Vorlagen:

Eine statische Variante des openPM Wikis ist weiterhin verfügbar (allerdings ohne SSL-Zertifikat). Die Canvas-Seite wäre hier zu finden.

Ein älteres Tutorial zum openPM Canvas von mir gibt es auch auf Youtube:

KI und Projektmanagement

Ehrlich gesagt langweilen mich die „KI und….“ Fragestellungen. Jedes Gebiet, jede Branche meint jetzt KI für sich thematisieren zu müssen. Torsten Koerting war einer der ersten im deutschsprachigen Raum (Amazon Affiliate Link), der diese Frage für das Projektmanagement gestellt hat. Das Projektmagazin hat dazu ein Whitepaper und eine Blogparade am Start, auf dem PMCamp Stuttgart 2023 hat uns Oliver Kretzschmar demonstriert, wie die KI Projektmanagement Prüfungsaufgaben vorbildlich löst. Von der GPM gibt es die „KI in der Projektwirtschaft“ (ebenfalls Amazon Affiliate Link).

Alles schön und gut.

Ich bin auch völlig überzeugt davon, dass wir in Projekten mit und an der KI arbeiten werden, aber an den großen Mehrwert für das Projektmanagement glaube ich nicht oder halte ihn zumindest für überbewertet. Vielleicht liegt das an meinem Verständnis von Projekten und Projektmanagement.

Wenn die Einzigartigkeit ein elementares Beschreibungselement von Projekten ist, dann ist auch klar, dass probabilistische Antworten an ihre Grenzen stoßen. In meiner persönlichen Sicht sind die wesentlichen Erfolgsfaktoren für Projekte vor allem Transparenz und Kommunikation. Zur Transparenz kann die KI sicherlich beitragen, natürlich auch für die Kommunikation, allerdings wird sie hier nicht weiche Aspekte ersetzen können. Haben wir nicht heute schon oft das Problem, dass eher technisch getriebene Kommunikation an ihre Grenzen stößt? Good old Watzlawick hat einmal das Wort geprägt „Man kann nicht, nicht kommunizieren.“ Wie geht die KI mit Nicht-Gesagtem um? Wie weit kann die KI unterscheiden zwischen dem was gesagt ist und dem was gemeint ist? Wie weit kann KI (unausgesprochene) Erwartungen antizipieren?

Selbstverständlich werde auch ich KI nutzen. In Projekten und im Projektmanagement. Nur im Projektmanagement sehe ich sie nicht unbedingt als den Game Changer.

Einen Anwendungsfall im Projektmanagement habe ich übrigens durchaus für mich entdeckt, aber der ist Gegenstand des nächsten Beitrags.

Anmerkung & Quellen:
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle, bis hin zur kognitiven Dissonanz der KI.
Zuletzt haben wir dann rechtliche Aspekte beleuchtet.

KI und Recht

In diesem kleinen Rundumschlag zur KI bislang noch völlig unberücksichtigt sind rechtliche Aspekte.

Als juristischer Laie, will ich mir auch gar nicht anmaßen dieses Thema umfassend zu behandeln, aber zumindest aus Prozesssicht wollen wir kurz ein Schlaglicht auf diesen Bereich werfen.

Input

KI Modelle brauchen Input und Konzerne wie openAI oder Google haben einfach das Internet (aber auch andere, vielleicht gar nicht mal frei zugängliche Inhalte) abgegrast. Wie weit die Verarbeitung dieser Inhalte dabei immer legal ist/war, darüber streiten beispielsweise Verlage, die ihre eigene Existenzgrundlage wegschwimmen sehen. Nicht auszuschließen, dass die Rechtsprechung hier der KI noch den einen oder anderen Knüppel zwischen die Beine werfen wird. Wir werden sehen…

Rechtlich unkritische sollte es sein, wenn wir unsere eigenen Inhalte in die KI kippen.

Verarbeitung

Bei der Verarbeitung ist das schon wieder anders, denn wir haben hier zumeist einen „loss of control“ gegenüber den KI Anbietern und es stellen sich die klassischen Fragestellungen der Cybersecurity nach Vertraulichkeit, Integrität und Verfügbarkeit.

Beim Vertraulichkeitsthema spannend könnte aber beispielsweise auch sein, wieweit die KI Modelle aus unserem proprietären Inhalten lernen und diesen Erkenntnisgewinn (und gar nicht mal die Dokumente selbst) mit anderen teilen. Lernt die KI auch aus unserem Input um Fragen eines Konkurrenten zu beantworten, der das gleiche KI Modell verwendet?

Output

In dieser Reihe hatten wir schon die Qualitätsthematik bei Antworten aus der KI angeschnitten. Wir wollen einmal nicht hoffen, dass damit gleich Haftungs- und Gewährleistungsrisiken auf uns selbst zurückfallen. Spannend ist aber beispielsweise die Frage nach den Verwertungsrechten. In puncto Transparenz vorbildlich ist hier z.B. der Umgang mit KI generierten Bildern in der Wikipedia (siehe Kommentar zum Logo unten). Hier schließt sich auch der Kreis zu den Urheberrechten beim Input. Aber wieweit ist es ausreichend auf die Generierung der Inhalte durch ein KI Modell hinzuweisen? Kritisch ist schon mal, dass wir i.d.R. keine Chance haben überhaupt nachzuvollziehen welche Inhalte konkret in eine Antwort eingegangen sind. Worst case schreiben wir sogar von einer Quelle ab oder verletzen deren Rechte ohne es überhaupt zu wissen. Wenn heute Plagiatsjäger mit den Möglichkeiten der Digitalisierung Doktorarbeiten aus der Papier- und Bibliotheksära zerlegen, dann möchte ich mir nicht vorstellen, was da möglicherweise in Sachen KI noch vor uns liegt. Oder müssen wir alle KI Ergebnisse dann erst noch einer Plagiatsprüfung unterziehen, bevor wir sie verwenden?

Anmerkung & Quellen:
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle, bis hin zur kognitiven Dissonanz der KI.

Die kognitive Dissonanz der KI

Zu meinen Lieblingsbeiträgen der Wikipedia gehört der Cognitive Bias Codex. Hierbei handelt es sich um eine Übersicht über die vielfältigen kognitiven Störungen bei uns Menschen. Die pure Anzahl und die Komplexität dieser Störungen führt uns unsere eigene Unzulänglichkeit nur zu gut vor Augen.

Diese Verzerrungen sind jetzt auch nicht „krankhaft“, sondern ganz normal – ein Zeichen unserer beschränkten Wahrnehmungs- und Verarbeitungsfähigkeit.

Der Titel dieses Beitrags leitet jetzt geflissentlich über zu der Frage, ob es solche Verzerrungen nicht auch in der KI gibt.

Eine erste Antwort finden wir bereits im Beitrag zu Belastbarkeit & Grenzen: KI basiert zum Einen auf Wahrscheinlichkeiten und nicht auf Wahrheiten oder Logik und zum Anderen ist die KI natürlich abhängig von dem ihr zur Verfügung gestellten Inhalten. Hier gelten noch immer die Grundprinzipen der Datenverarbeitung: Garbage in, garbage out.

Für ein aktuelles Projekt (eine Methoden-Übersicht) haben wir versucht die Attribute zur Beschreibung von Methoden mit Hilfe der KI vorzunehmen, bzw. unsere eigenen Überlegungen dazu mittels KI zu validieren. Die KI Ergebnisse dazu hielten leider unseren Erwartungen nicht stand, angefangen davon, dass uns die KI zu anderen Attributen überreden wollte und deutlich von den Vorgaben abgewichen ist, fand sie auch generell toll, was immer wir ihr gegeben haben, womit wir beim Thema kognitive Verzerrungen wären. Es gab also eindeutig eine Bestätigungstendenz.

Wenn man darüber nachdenkt ist das Ergebnis auch gar nicht so überraschend, denn was wir ihr als Input gegeben, ist natürlich gegenüber ihren anderen Ressourcen hochprior, nur anstatt unsere eigene Modellbildung damit kritisch auf den Prüfstand zu stellen, hat uns die KI dann lobend auf die Schulter geklopft. Gut fürs Ego, schlecht für das Ergebnis.

Wenn man jetzt noch berücksichtigt, das durch die Wahrscheinlichkeitsbetrachtung letztlich auch nur bestehende Lösungen einbezogen werden können, dann wird schnell klar, dass die KI zwar eine Umsetzungsmaschine, aber ein Innovationszwerg sein muss.

Unser Versuch der Methodenbeschreibung ist nur ein einfaches Beispiel. Die Fragen am Rande des Cognitive Bias Codex lassen sich aber auch auf die KI übertragen. Was tun, wenn…

  • …wir mit zuvielen Informationen konfrontiert sind.
  • …es an Bedeutung und Kontext fehlt.
  • …wir schnell handeln müssen.
  • …die Aktualität und „Haltbarkeit“ von Informationen nicht ganz klar ist.

Letztere bringt auch das Thema „Vergessen“ auf. Wenn Informationen veralten, dann sollten wir sie vielleicht sogar vergessen und sie nicht in unsere Antworten einbeziehen, aber es heißt doch so schön: Das Internet vergisst nicht. Nicht nur die KI muss noch viel lernen, sondern auch wir im Umgang mit der KI.

Anmerkung & Quellen:
Cognitive Bias Codex (Wiki Commons)
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle.



bernhardschloss.de