Archiv der Kategorie ‘KI‘

 
 

Die neue Bildgenerierung von ChatGPT

Ich habe u.a. für die Table of Elements mit der neuen Bildgenerierung von ChatGPT herumgespielt. Das mit den Texten in Bildern ist besser geworden, aber noch nicht wirklich gut, denn aus der Retrospektive wurde die „Refrospektive“ (mit F), was immer das auch sein soll und die Umlaute schauen wir uns lieber nicht an. Ob ich wirklich schon so alt aussehe, überlasse ich anderen. In einem zweiten Versuch hat sich ChatGPT aber unaufgefordert der plastischen Chirurgie bemächtigt und die Personen aus der hochgeladenen Vorlage bis zur Unkenntlichkeit verjüngt.

Auch an dem mitunter störrischen Verhalten bin ich verzweifelt – manchmal will einen die KI einfach nicht verstehen und noch Schlimmeres habe ich jüngst bei der Entwicklung eines Texts im Canvas-Mode (das ist jetzt zwar nicht mehr Bildgenerierung, aber immer noch ChatGPT) erlebt, als Chat GPT Modifikationen nicht wie gewünscht rückgängig gemacht hat, d.h. das Tool hat mir zwar gesagt, es hätte die Änderungen rückgängig gemacht, dem war aber nicht so. Da hätte ich mir eine einfache Versionsverwaltung á la Google Docs gewünscht, denn meine zwischenzeitlich entwickelten Inhalte waren unwiederbringlich weg.

Naja, die Lernkurve geht weiter: bei ChatGPT und bei uns Nutzern.

Gelesen: Human Robot Agent

Nein, dies ist keine Rezension. Stattdessen möchte ich gerne 5 Themen aus Jurgen Appelos neuen Buch Human Robot Agent aufgreifen und vielleicht auch weiterspinnen. 
Appelo, Jurgen. Human Robot Agent: New Fundamentals for AI-Driven Leadership with Algorithmic Management, Rotterdam 2025, ISBN-13: 978-90-834236-2-3 (Amazon)

1. Der Niedergang des Agilen

Mit seinem Management 3.0 hat Jurgen Appelo die Ideen agiler Softwareentwicklung auf das Management übertragen. Er war somit einer derjenigen, die den Grundstein für den agilen Hype der letzten Jahre gelegt haben. Mit seinen Wurzeln in der Systemtheorie war er ein Vordenker. Und was jetzt? Jetzt schließt sich ausgerechnet dieser Vordenker dem Abgesang an – zumindest dem Abgesang auf den agilen Mainstream. Und Jurgen fragt, warum agiles Arbeiten heute in vielen Unternehmen versagt.

Er führt dafür zehn Punkte an:

  • Der Zertifizierungswahnsinn
  • Überladene Frameworks
  • Agiler Dogmatismus
  • Modeerscheinungen und Modetrends
  • Eine fragwürdige Interpretation der neuen Rollen
  • Eine Überbetonung der Velocity (Geschwindigkeit über Ergebnis)
  • Ein Management-Vakuum aufgrund der Fokussierung auf Teamautonomie und der gleichzeitigen Vernachlässigung bewährter Managementpraktiken
  • Fehlende Abstimmung mit der Strategie (Methoden über Wirkung)
  • Die grundsätzliche Frage, ob Werte und Prinzipien des agilen Manifests im Zeitalter von AI nicht überholt sind

Er stellt fest:
„The Agile Manifesto was an incredibly influential breakthrough achievement. But it was written in the age of the Third Industrial Revolution. And it’s true that many companies still struggle to grasp its basic ideas. However, in the meantime, the underlying paradigm has shifted. To survive the Fourth Industrial Revolution, we must rewrite the core values and principles that once made Agile revolutionary. We should stop migrating organizations to an outdated operating system.“

Aber auch:
„Organizations need agility more than ever.“

Für meinen Geschmack geht Jurgen etwas zu hart mit der Agilität ins Gericht. Was am Ende ist, ist der Hype um die agile Transformation, der häufig kaum diesen Namen verdient hat. Agilität an sich ist zeitlos – und war es schon immer. Schon lange vor der Erfindung des Begriffs waren erfolgreiche Projektmanager:innen agil und werden es auch weiterhin sein. Ausgelutscht ist lediglich die Managementmode mit diesem Titel, nicht die dahinterliegenden Ideen und Prinzipien.

Auf die Frage „Und was kommt jetzt?“ ist seine Antwort klar: die vierte industrielle Revolution – alias Künstliche Intelligenz. Allerdings würde sich hier ein differenzierterer Blick lohnen. Keine Frage, die KI/AI wirbelt gerade vieles durcheinander. Und auch wenn wir schon mittendrin stecken, können wir die Tragweite noch gar nicht abschätzen. Die Strömungen, die aus den „Revolutionen“ resultieren, lösen einander nicht ab – sie existieren nebeneinander, auch wenn sich die Gewichte verschieben. Auch  wenn die AI gerade dominiert, gibt es in Teilbereichen noch die Facetten der vorherigen Revolutionen.

Selbst klassische Managementpraktiken aus der Welt der Produktion haben daher noch ihre Berechtigung. Wir müssen nur ihre Anwendung kritisch hinterfragen und jeweils entscheiden, ob sie in der konkreten Situation noch angemessen sind.

Als Management-Mode hat die AI aber sicher die agile Transformation abgelöst – obwohl das wiederum nicht ganz richtig ist, denn die Künstliche Intelligenz baut auf der Digitalisierung auf. So gesehen eine Fortsetzung auf einem anderen Level.

Aber bitte nicht falsch verstehen: Meine Skepsis gilt nicht der Künstlichen Intelligenz, sondern den Managementmoden. Ich bin grundsätzlich kein Freund von Moden. Die willigen Jünger haben sich nun ein neues Pferd ausgesucht, auf das sie genauso unreflektiert setzen, wie auf das vorherige. Ich fürchte, die Heerscharen agiler Coaches, die gerade auf der einen Seite hinauskomplimentiert werden, kehren auf der anderen Seite mit neuen AI-Zertifikaten in die Unternehmen zurück. Die geposteten Zertifikate auf LinkedIn sprechen bereits eine deutliche Sprache.

2. Beyond VUCA

Wenn VUCA nicht mehr reicht – Willkommen in BANI! Oder vielleicht besser: in MARVIS. Denn Jurgen Appelo geht über das gängige Denken in Unsicherheiten hinaus und liefert ein Framework, das differenzierter, aktueller und handhabbarer ist: Das Wicked Framework.

Zunächst ein kurzer Rückblick: VUCA steht für Volatilität, Unsicherheit, Komplexität und Ambiguität. Es wurde vor allem im militärischen Kontext geprägt und hat später Einzug in die Managementwelt gehalten. Doch Appelo meint: Diese vier Begriffe sind nicht mehr ausreichend, um die heutigen Herausforderungen zu beschreiben.

Er beschreibt zunächst das BANI-Modell (Brittle, Anxious, Nonlinear, Incomprehensible), zeigt aber auch seine Schwächen auf.

Deshalb schlägt Appelo ein eigenes Modell vor: das Wicked Framework – bestehend aus den sechs Dimensionen Modularity, Ambiguity, Reflexivity, Volatility, Intricacy und Scalability, kurz: MARVIS. Jede Dimension beschreibt einen bestimmten Aspekt der Unsicherheit. Für jede Dimension definiert Appelo drei typische Ausprägungen. Praktisch gedacht: eine Matrix zur Einordnung und zum Umgang mit komplexen Problemen.

Was daran spannend ist: Statt einer eindimensionalen Sicht auf Komplexität bietet MARVIS ein skalierbares, differenziertes Bild. Führungskräfte können systematisch reflektieren, wo ihre Herausforderungen liegen – und gezielt darauf reagieren.

Ein Beispiel: In einem System mit hoher Modularität und geringer Skalierbarkeit braucht es andere Interventionen als in einem hochvolatilen, reflexiven Umfeld.

Appelo träumt dann davon in den Profilen des MARVIS Modells Archetypen identifizieren zu können und für diese übertragbare Lösungsansätze zu entwickeln. Böse gesagt: Patentrezepte für Komplexität.

Da mag der Wunsch Vater des Gedanken sein, aber Träumen darf man ja.

3. Küchenwerkzeuge

Appelo nutzt eine Küchenmatapher und vergleicht Management-Tools mit Küchenwerkzeugen:
„Management tools, like kitchen tools, are built for predictable use cases. Strategic planning frameworks and stage-gate processes thrive in stable environments with familiar market dynamics. They’re great for whipping up tried-and-true dishes—or even new ones, provided the management paradigm remains unchallenged. The problem lies in today’s fast-changing, innovation-driven world. Standard tools fall short in new contexts. It’s like trying molecular gastronomy in a kitchen designed for Asian cuisine.“

Er schwärmt von der Einfachheit:
„Here’s what I noticed: the simpler the tool, the more often I use it. […] The simplest tools are the ones you’ll use most, and having a diverse range of devices equips you to tackle a broad array of challenges. In management, as in the kitchen, the rule is straightforward: Keep it simple and go wide.“

Und trotzdem brauchte es eine Vielfalt:
„Your management kitchen needs tools for both Michelin-star precision and grandma-level improvisation.“

Auch wenn wir mit unseren Werkzeugen in turbulenten Zeiten an unsere Grenzen stoßen:
„In a turbulent business landscape, traditional management tools are about as useful as an umbrella in a hurricane. They can’t handle the full buffet of uncertainty.“

4. Pattern Language & Pattern Library

Jurgen Appelo greift ein Konzept auf, das ursprünglich aus der Architektur stammt: die Pattern Language nach Christopher Alexander. Die Idee: Komplexe Systeme werden verständlich und gestaltbar, wenn wir sie in wiederkehrende Muster zerlegen – und diese Muster miteinander verknüpfen.

Was ist eine Pattern Language?
Eine Mustersprache beschreibt, wie einzelne Muster miteinander in Beziehung stehen und gemeinsam ein ganzes System formen. Muster sind keine Rezepte – sie sind situationsabhängige Lösungsbausteine. Der Clou: Durch die Verbindungen entsteht ein gestaltbares Ganzes.

Und was bringt das?
Vor allem eine eigene Sprache, die die Kommunikation über unsere komplexe Aufgabenstellung voranbringt und ganzheitliches Denken fördert.

Darüber hinaus:

  • Verständlichkeit durch Wiederholung
  • Reuse statt Re-Invention
  • Adaptivität durch Kombinierbarkeit

Und was ist eine Pattern Library?
Das ist die Sammlung dieser Muster – ein Werkzeugkasten. Wie ein LEGO-Set, aus dem du dein eigenes Bauwerk entwerfen kannst. Oder, um bei Appelos Metapher zu bleiben: eine gut ausgestattete Küche, in der du nach deinem eigenen Rezept kochst.

Und warum mich Pattern Language und Pattern Library so faszinieren?
Nun unsere Table of Elements (das hat jetzt gar nichts mit Appelo zu tun) ist so eine Pattern Library für das Projektmanagement. Wir haben im Projektmanagement gelernt Probleme zu erkennen und zu beschreiben und mit Hilfe einer solchen Library können wir sie bearbeiten.

5. Achso, AI und so…

Die AI ist noch ein bisschen zu kurz gekommen. Sie spielt bei Jurgen eine zentrale Rolle: 
„The relentless pace of technological change, particularly with AI, has transformed the business landscape into a shifting sand dune. Yesterday’s disruptor becomes today’s dinosaur, and your biggest competitor might be a startup no one had heard of last Tuesday.“

Er ist aber kein Kultur-Pessimist und zeigt, wo der Mensch noch gebraucht wird:

  • bei komplexen Problemlösungen
  • bei Technologiekompetenz: Zu wissen, wie KI funktioniert und wie man sich ihre Fähigkeiten zunutze macht, wird für viele Unternehmen entscheidend sein.
  • Körperliche Fertigkeiten
  • Soft Skills: Starke Kommunikations-, Kooperations- und Empathiefähigkeiten
  • Kreatives Denken

Appelo schreibt nicht nur über AI, sondern auch mit Hilfe der AI und kokettiert mit seinen Agenten. Er beschreibt die Circles of AI, AI Use Case Patterns und erklärt uns warum aus den T-shaped Helden im Zeitalter von AI jetzt M-skilled Heroen werden:
„The goal is to become M-shaped, combining mastery across multiple fields with strong business and leadership skills. For example, a product manager might also become an online marketer and video editor. A finance manager could develop additional strategic and technical abilities. With AI handling specialized work, people can tackle complex problems and think creatively across multiple disciplines.“

Fazit

Natürlich habe ich nur ein paar Schlaglichter auf  Jurgen Appelos Human Robot Agent werfen können. Aber vielleicht hat das ja gereicht, um Appetit zu wecken, denn eine Leseempfehlung ist es allemal.

Beta-Tester

Trotz all dem KI-Hype sind wir alle doch nur Beta-Tester. Wer intensiv ChatGPT & Co testet stößt auch immer wieder an die Grenzen. Wenn die KI unsere Prompts nicht versteht oder verstehen will. Manchmal ignoriert sie unsere Anweisungen. Dummerweise ist sie auch noch eloquent. Weitaus eloquenter als die meisten von uns, d.h. ihre Antworten sind überzeugender als unsere, selbst wenn sie Bullshit sind. Sie reflektiert nicht wirklich über ihre Grenzen, außer da, wo es ihr aus ethischen Gründen vorgegeben ist – nein, ich liefere dir keine Anleitung für ein Verbrechen – da müssen wir schon subtiler fragen.

Ich kämpfe gerade an einigen Basic-Funktionalitäten und bin auch schon mit dem Support im Gespräch – nein, seit einer Woche bin ich mit dem Support im Monolog. Ich frage und bekomme keine Antworten.

Das Standard-Skript frägt nach Fehlerquellen in meiner Infrastruktur. Nachdem mit einem Test nachgewiesen habe, dass das Problem im Account und nicht in meiner Infrastruktur liegt (vom Agent bestätigt), warte ich auf Antwort.

Der „Support-Bot“ ist überhaupt very strange. Eigentlich KI, aber nachdem ich mein Problem konkretisiert habe, hatte ich schnell das Gefühl bei einem echten Menschen zu landen, auch weil sein Antwortverhalten scheinbar an Zeitzonen gebunden war.

Aber jetzt schweigt „Justin“ seit einer Woche, obwohl sonst immer wieder aktiv. Und trotz (sachlicher) Nachfrage.

Für ein Medium, das unser Vertrauen erst noch verdienen will eine Bankrott-Erklärung, aber wir sind anscheinend halt auch nur Beta-Tester.

ChatGPT & Support: Neuland

Als ChatGPT-Nutzer kann ich Ihnen nur wünschen, dass Sie keinen Support brauchen. Ich kämpfe seit Tagen. Der Chat selbst ist bemüht, liefert Workarounds (die in meinem Fall nicht funktioniert haben) und Hilfen, allerdings teilweise falsch: Die empfohlene Kontaktmöglichkeit per Mail gibt es gar nicht. Als ich die von ChatGPT vorbereitete Mail an die Support-Adresse schicke, bekomme ich umgehend Antwort:

Thank you for your email. Please note: This email address does not offer support. To get support, please visit our Help Center and start a chat with our support bot.

Manchmal vergisst ChatGPT auch, dass es um ChatGPT geht und gibt allgemein Ratschläge zum Umgang mit dem Support.

Tja und dann das Help Center – schwierig.

Die Hürden mit Anmeldung & Co genommen, landet man in einem Bot. Nach ein paar Stufen sogar bei echten Menschen, aber es gibt kein Ticket, sondern nur einen Bot im Browser. Und spätestens, wenn ein Mensch dahinter steckt gibt es Antwortzeiten. Das passt überhaupt nicht zu einem Bot-Fenster im Browser.

Email-Notification Fehlanzeige. Sorry, das Konzept ist nicht durchdacht – geradezu dilettantisch.

Umso ärgerlicher, wenn man für das Abo zahlt. Aktuell warte ich schon über eine Stunde auf eine Antwort. Das ist in einem Bot auf Echtzeit angelegt indiskutabel., aber ein Ticketsystem gibt es nicht. Dabei habe ich schon mehr gemacht, als von mi erwartet werden kann. Top1-7 aus dem Chat sind abgearbeitet und bevor ich überhaupt den Support kontaktiert habe, habe ich Hilfe bei einem Pro (danke, Torsten!) gesucht.

>> Update in den Kommentaren >>

ChatGPT & Excel

Noch so ein Learning: Abgesehen davon, dass ich zur Zeit verzweifelt versuche Dateien aus ChatGPT herunterzuladen („Datei nicht gefunden“) – jetzt warte ich auf den Support, habe ich die KI gerade als Excel-Hilfe genutzt: Bitte generiere mir die Formeln um eine Zelle („Name, Vorname (Abteilung)“) in Ihre Bestandteile zu zerlegen.

Das klappt auf den ersten Blick auch verdammt gut:

Aber natürlich kommt beim Ausprobieren gleich eine Fehlermeldung.

Erst ein Stirnrunzeln und dann werden die „Röntgenaugen“ angeschmissen und siehe da, der Fehler ist schnell gefunden: Im deutschen Excel werden die Formelbestandteile mit Semikolon getrennt. im englischen mit Kommata und hier mischt ChatGPT deutsche Nomenklatur der Befehle mit der englischen und nutzt die falschen Zeichen für die Separierung. Manuell korrigiert und siehe da, es funktioniert.

Habe jetzt Glück gehabt, dass ich ohne größere Suche den Fehler gleich entdeckt habe, aber anscheinend ist ChatGPT gut in den Sprachmodellen (übersetzt englische Befehle ins Deutsche, aber nur auf der Begriffebene und vernachlässigtdie Nomenklatur).

Again what learned, würde Lothar sagen.

ChatGPT frustriert mich gerade

Aktuell stoße ich gerade an meine Grenzen mit ChatGPT:

Excel-Export funktioniert nicht

Ich habe ChatGPT angelernt und eine Tabellenstruktur nahe gebracht. Nur der Export nach Excel funktioniert nicht. Die erstellten Links funktionieren nicht. Weder der direkte Download, noch das Zusenden per Mail oder ein Dropbox-Link. Weist man die KI darauf hin, macht sie beharrlich weiter. Nicht besonders intelligent. Mal schauen, ob sich der Support noch meldet. Habe Freitag via Bot eine entsprechende Meldung abgesetzt (Antwort soll per Mail kommen). Eine Google-Recherche findet aber Treffer mit ähnlichen Fehlern. Dummerweise waren die in der ChatGPT Community gestern großteils nicht erreichbar. Da klingt nach größeren Problemen.

Ich weiß nicht, dass ich nichts weiß.

Eigentlich hatte ich ChatGPT mit eigenen Dokumenten angelernt. Ich hatte die KI gebeten eine Methode aus diesen Dokumenten aufzubereiten. Jetzt handelt es sich um eine Eigenentwicklung, das heißt ChatGPT kann außerhalb des gelernten Dokuments kaum etwas dazu finden. Nun dann erfindet er/sie/es halt was. Selbst der Hinweis auf das entsprechende Dokument und den entsprechenden Abschnitt wird ignoriert. Krudes Halbwissen und ich weiß noch nicht einmal, welche meiner Inhalte tatsächlich gelernt wurden. Es finden sich zwar Hinweise auf Zeichenbegrenzungen, aber die KI schluckt ohne Feedback alles und antwortet in diesem Fall dann dumm.
Fehlende Selbstreflexion in Kombination mit einem eloquenten Auftreten ist eine fatale Kombination.
KI heute fühlt sich leider besser an, als sie ist.

Über KI lernen… Prompt Engineering und so.

Jaja, die kürzlich gestartete KI-Reihe hier im schlossBlog ist abgeschlossen. Und trotzdem geht es (jetzt außerhalb der kleinen Reihe) weiter, denn Mann (Schreibweise ist richtig wegen des Geschlechts des Autors) muss sich ja weiter bilden.

Den Anfang macht der LinkedIn Learning Kollege Sascha Wolter, dessen Video-Training „Prompt Engineering – Grundlagen“ einen sehr guten und fundierten Ausgangpunkt bilden. Neben den „reinen“ Grundlagen liefert Sascha den Einstieg (mit vielen Beispielen), wie Prompts aufgebaut werden können, insbesondere durch:

  • Rolle & Tonfall
  • Anweisungen & Ziele
  • Kontext
  • Befehl/Frage & Format

Und natürlich auch, wie sich solche Prompts systematisch erweitern lassen.

Das Prompt-Engineering wollte ich eigentlich noch vertiefen mit dem Buch Prompt Engineering and ChatGPT von Russel Grant (Amazon). Ganz gelungen ist mir das nicht, denn was das Engineering im technischen Sinne angeht ist das Buch etwas „dünn“. Was ich sehr gut fand, waren die vielen Use Cases aus den unterschiedlichsten Gebieten von Software-Entwicklung, über Marketing, Kundensupport, bis hin zum Projektmanagement. Meine Vorurteile wurden wieder bestätigt. Der erste Use Case im PM, der genannt wird, ist die Erstellung einer Agenda. Holy fuck. Wer dafür KI braucht, ist im Projektmanagement fehl. Auch die anderen PM Use Cases überzeugen mich nicht wirklich, aber das liegt weniger an Russel Grant als an der Materie. Selbstverständlich wird KI in Projekten immer wichtiger, aber halt weniger in der Koordination und Kommunikation als in der inhaltlichen Arbeit. Auch Russel Grant verweist auf das Problem mit den Bias in der KI (ich habe von kognitiver Dissonanz gesprochen). Für ihn ist dafür, wie bei etwaigen Fehlerquellen das gelernte Material verantwortlich. Das stimmt natürlich auch, wenn die KI Vorurteile oder falsche Informationen übernimmt und wiedergibt, aber das Problem probabilistischer Modelle, die von Natur aus wahrscheinliche und nicht zwangsläufig richtige Ergebnisse wiedergeben, erwähnt er mit keiner Silbe.

Ein echtes Highlight für mich war dann noch KI für Kreative von Jenny Habermehl (Amazon Affiliate Link). Es geht mal weniger um ChatGPT, sondern vor allem um bildgebende KIs. Jenny Habermehl zeigt die erforderlichen Grundlagen und Tools, aber auch viele praktische Beispiele und die sind natürlich ein Hingucker. Mit den Prompt-Beispielen für Kreativitätstechniken (die durchaus auch wieder für textbasierte KI geeignet sind) werde ich ganz sicher noch experimentieren.

Und hier noch der obligatorische Disclaimer zur Illustration dieses Beitrags: Die ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazugehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).

Mit der KI das Bürokratiemonster bezwingen

Bei all meiner Skepsis gegenüber dem Einsatz von KI im Projektmanagement habe ich dann doch einen Anwendungsfall für mich entdeckt: Die Bürokratiebefriedigung.

Zumindest im Konzernumfeld kennt das doch jeder. Da gibt es Applikationen, Checklisten & Formulare, die bedient werden müssen – egal ob Projektmanagement, Risikomangement oder bei anderen Fragestellungen. Mittlerweile natürlich alles digital.

All zu oft werden diese Frage-Antwort-Spielchen dann zum Selbstzweck und wir müssen uns Antworten aus den Fingern saugen, versuchen verzweifelt irgendwelche generischen Aussagen abzuleiten und umzubiegen, aber damit ist jetzt Schluss, dank der KI!

Also nicht dass es jetzt weniger unsinnige Tätigkeiten in der Welt gäbe, aber die KI hilft uns bei der kreativen Beantwortung, bei der Bürokratiebefriedigung oder der Bezwingung des Bürokratiemonsters.

Satya Nadella (Microsoft CEO) hat auf dem Weltwirtschaftsgipfel 2023 in Davos ganz in diesem Sinne über die Möglichkeiten von Chat-GPT & Co berichtet:

[…]  I saw was a rural Indian farmer trying to access some government program, so he just expressed a complex thought in speech in one of the local languages that got translated and interpreted by a bot, and a response came back saying go to a portal and here is how you’ll access the program, and he said look, I’m not going to the portal, I want you to do this for me, and it completed it, and the reason why it completed it was because they had a developer building it who had taken GPT and trained it over all of the government of India documents and then scaffolded it with speech recognition software,“ he said.

Satya Nadella (Microsoft CEO)

Aber jetzt ist auch wieder gut mit den KI Themen hier auf schlossBlog. Also nicht, dass KI künftig als Thema ausgeschlossen ist, aber diese kleine Reihe endet hier.

Anmerkung & Quellen:
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle, bis hin zur kognitiven Dissonanz der KI.
Zuletzt haben wir dann rechtliche Aspekte beleuchtet, bevor wir uns dem Projektmanagement zugewendet haben.

KI und Projektmanagement

Ehrlich gesagt langweilen mich die „KI und….“ Fragestellungen. Jedes Gebiet, jede Branche meint jetzt KI für sich thematisieren zu müssen. Torsten Koerting war einer der ersten im deutschsprachigen Raum (Amazon), der diese Frage für das Projektmanagement gestellt hat. Das Projektmagazin hat dazu ein Whitepaper und eine Blogparade am Start, auf dem PMCamp Stuttgart 2023 hat uns Oliver Kretzschmar demonstriert, wie die KI Projektmanagement Prüfungsaufgaben vorbildlich löst. Von der GPM gibt es die „KI in der Projektwirtschaft“ (ebenfalls Amazon).

Alles schön und gut.

Ich bin auch völlig überzeugt davon, dass wir in Projekten mit und an der KI arbeiten werden, aber an den großen Mehrwert für das Projektmanagement glaube ich nicht oder halte ihn zumindest für überbewertet. Vielleicht liegt das an meinem Verständnis von Projekten und Projektmanagement.

Wenn die Einzigartigkeit ein elementares Beschreibungselement von Projekten ist, dann ist auch klar, dass probabilistische Antworten an ihre Grenzen stoßen. In meiner persönlichen Sicht sind die wesentlichen Erfolgsfaktoren für Projekte vor allem Transparenz und Kommunikation. Zur Transparenz kann die KI sicherlich beitragen, natürlich auch für die Kommunikation, allerdings wird sie hier nicht weiche Aspekte ersetzen können. Haben wir nicht heute schon oft das Problem, dass eher technisch getriebene Kommunikation an ihre Grenzen stößt? Good old Watzlawick hat einmal das Wort geprägt „Man kann nicht, nicht kommunizieren.“ Wie geht die KI mit Nicht-Gesagtem um? Wie weit kann die KI unterscheiden zwischen dem was gesagt ist und dem was gemeint ist? Wie weit kann KI (unausgesprochene) Erwartungen antizipieren?

Selbstverständlich werde auch ich KI nutzen. In Projekten und im Projektmanagement. Nur im Projektmanagement sehe ich sie nicht unbedingt als den Game Changer.

Einen Anwendungsfall im Projektmanagement habe ich übrigens durchaus für mich entdeckt, aber der ist Gegenstand des nächsten Beitrags.

Anmerkung & Quellen:
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle, bis hin zur kognitiven Dissonanz der KI.
Zuletzt haben wir dann rechtliche Aspekte beleuchtet.

KI und Recht

In diesem kleinen Rundumschlag zur KI bislang noch völlig unberücksichtigt sind rechtliche Aspekte.

Als juristischer Laie, will ich mir auch gar nicht anmaßen dieses Thema umfassend zu behandeln, aber zumindest aus Prozesssicht wollen wir kurz ein Schlaglicht auf diesen Bereich werfen.

Input

KI Modelle brauchen Input und Konzerne wie openAI oder Google haben einfach das Internet (aber auch andere, vielleicht gar nicht mal frei zugängliche Inhalte) abgegrast. Wie weit die Verarbeitung dieser Inhalte dabei immer legal ist/war, darüber streiten beispielsweise Verlage, die ihre eigene Existenzgrundlage wegschwimmen sehen. Nicht auszuschließen, dass die Rechtsprechung hier der KI noch den einen oder anderen Knüppel zwischen die Beine werfen wird. Wir werden sehen…

Rechtlich unkritische sollte es sein, wenn wir unsere eigenen Inhalte in die KI kippen.

Verarbeitung

Bei der Verarbeitung ist das schon wieder anders, denn wir haben hier zumeist einen „loss of control“ gegenüber den KI Anbietern und es stellen sich die klassischen Fragestellungen der Cybersecurity nach Vertraulichkeit, Integrität und Verfügbarkeit.

Beim Vertraulichkeitsthema spannend könnte aber beispielsweise auch sein, wieweit die KI Modelle aus unserem proprietären Inhalten lernen und diesen Erkenntnisgewinn (und gar nicht mal die Dokumente selbst) mit anderen teilen. Lernt die KI auch aus unserem Input um Fragen eines Konkurrenten zu beantworten, der das gleiche KI Modell verwendet?

Output

In dieser Reihe hatten wir schon die Qualitätsthematik bei Antworten aus der KI angeschnitten. Wir wollen einmal nicht hoffen, dass damit gleich Haftungs- und Gewährleistungsrisiken auf uns selbst zurückfallen. Spannend ist aber beispielsweise die Frage nach den Verwertungsrechten. In puncto Transparenz vorbildlich ist hier z.B. der Umgang mit KI generierten Bildern in der Wikipedia (siehe Kommentar zum Logo unten). Hier schließt sich auch der Kreis zu den Urheberrechten beim Input. Aber wieweit ist es ausreichend auf die Generierung der Inhalte durch ein KI Modell hinzuweisen? Kritisch ist schon mal, dass wir i.d.R. keine Chance haben überhaupt nachzuvollziehen welche Inhalte konkret in eine Antwort eingegangen sind. Worst case schreiben wir sogar von einer Quelle ab oder verletzen deren Rechte ohne es überhaupt zu wissen. Wenn heute Plagiatsjäger mit den Möglichkeiten der Digitalisierung Doktorarbeiten aus der Papier- und Bibliotheksära zerlegen, dann möchte ich mir nicht vorstellen, was da möglicherweise in Sachen KI noch vor uns liegt. Oder müssen wir alle KI Ergebnisse dann erst noch einer Plagiatsprüfung unterziehen, bevor wir sie verwenden?

Anmerkung & Quellen:
Das Logo im Beitrag ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazu gehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).
Ein erster Beitrag zur KI auf schlossBlog findet sich hier: Jetzt auch noch KI…
Und dann ging es um Belastbarkeit & Grenzen und um Anwendungsfälle, bis hin zur kognitiven Dissonanz der KI.



bernhardschloss.de