AI Use Cases für SAP

In meinen Kundenprojekten nimmt die KI immer mehr Raum ein – auch im SAP Umfeld. Dabei zeigt sich, dass alle Parteien (inkl. SAP selber) noch am Lernen sind – insbesondere was sicherheitsrelevante und regulatorische Aspekte angeht (die Technik eilt da eher voraus).

Ein Kollege hat in einer Übersicht die Use Cases in Pattern/Muster geclustert und unterscheidet:

  • Knowledge-Based Use Cases – Dem Anwender wird gezielt mittels KI Wissen angeboten und aufbereitet, z.B. aus der SAP Hilfe, Prozessdokumentationen, etc.
  • Navigational Use Cases – Dem Anwender wird geholfen Funktionalitäten und Menüpunkte zu finden ohne dass die AI aktiv in die Geschäftsprozesse eingreift. Das geht schon stark in die Richtung KI als User Interface.
  • Analytical Use Cases – KI gestützt werden Informationen aufbereitet und ausgegeben. Auch wenn die KI nicht direkt in die Geschäftsprozesse eingreift, kann dies außerhalb des Systems in Entscheidungen zum Tragen kommen. Eine Bewertung kann daher nur fallweise erfolgen.
  • Transactional Use Cases – Die KI führt aktiv Transaktionen durch. Theoretisch könnte die KI damit auch gravierende Entscheidungen treffen. Dass ein Bot Menschen entlässt oder einstellt, halte ich allerdings eher für eine theoretische Variante. Viel mehr kommt hier das Thema Automatisierung zum Tragen: Wie ein Mensch kann die KI Käufe/Verkäufe/Zahlungen/etc. veranlassen, dummerweise halt nicht nur eine einzelne, sondern unzählige, bis der Vorgang überhaupt erst transparent wird und ggf. jemand eingreifen könnte. Eigentlich ist das Automatisierungsrisiko auch keine KI-Thematik, sondern ein Effizienz-Thema und die KI ist uns in Sachen Effizienz bei der Massenverarbeitung hoffnungslos überlegen.

Die ersten beiden Use Cases sind hingegen vergleichsweise trivial: Ihre Inhalte sind weitgehend öffentlich oder maximal für einen internen Gebrauch bestimmt und es gibt keine direkten Konsequenzen, die zu verfolgen wären.

Auf der Lösungsseite sind mir im SAP Umfeld bislang 3 technologische Ansätze untergekommen:

  • SAP Joule – die SAP eigene KI, wobei man etwas aufpassen muss, weil SAP den Namen Joule marketingtechnisch etwas inflationär benutzt und schnell alles, was mit KI zu tun hat, auch mal als Joule betitelt
  • Specific Capabilities – Während Joule weitgehend produktübergreifend konzipiert ist, entwickelt SAP auch spezifische KI-Lösungen für Ihre Produkte, z.B. für SAP Signavio oder andere. Dabei wird mitunter, wie auch bei Joule, die Business AI Foundation genutzt, sprich auch für spezifischere Anwendungsfälle kommen die gleichen LLMs zum Einsatz, die dann auch spezifische Modelle und Lösungen unterstützen.
  • Individual AI Solutions – Mit SAP BTP hat die SAP entwicklungsseitig Tür und Tor geöffnet und findige Entwickler können im eigenen Programmcode natürlich auch beliebige KI Lösungen ansprechen. Der Tragweite kann durchaus immens sein und der SW-Entwicklung kommt plötzlich auch die Verantwortung für Auswahl, Konfiguration und Nutzung der KI-Modells zu. In diese Kategorie würden auch KI-Lösungen von 3rd-Party Anbietern fallen, auch wenn mir solche bislang noch nicht untergekommen sind, was aber sicher nur eine Frage der Zeit ist.

Unabhängig von der KI-Thematik gilt es zu berücksichtigen, dass Daten mitunter über Schnittstellen bis hin zu 3rd Parties, wie z.B. einem LLM-Anbieter gegeben werden. Wie weit dies in Abhängigkeit von der Kritikalität der Daten sinnvoll oder sogar zulässig ist, ist zu berücksichtigen.

Wie verteilen sich nun die Use Cases auf die Lösungsszenarien? Hier meine Interpretation (es mag Ausnahmen geben, aber die Tendenz scheint naheliegend):

SAP Joule dürfte die Knowledge-Based und Navigational Use Cases weitestgehend abdecken. Bei Analytical Use Cases bin ich mir noch nicht sicher , wie weit hier SAP Joule zum Einsatz kommen wird, auch wenn generisch die Ansätze vorhanden sein werden. Im analytischen und auch im transaktionalen Bereich werden aber produktspezifische Capabilities wie sie auch bei der SAP auf der Roadmap stehen eine gewichtige Rolle spielen. Individuelle Lösungen können als „Schweizer Taschenmesser“ oder für noch spezifischere Anwendungsfälle fungieren. Die Hemdsärmligkeit, wie wir sie auch aus der Entwicklung von KI-Tools in anderen Bereichen kennen steht hier im Widerspruch zu den gestiegenen Anforderungen und der Verantwortung bei Entwicklung und Einsatz.

Das bringt uns noch zu einem weiteren Aspekt: den Compliance-Anforderungen, z.B. aus dem EU AI Act (eine Zusammenfassung gibt es übrigens auch im schlossBlog) und unternehmenseigenen Anforderungen, z.B. aus dem Risikomanagement.

Jetzt stehen das Enterprise Risk Management und der EU AI Act zwar nicht im Widerspruch, aber die EU-Bürokraten haben bei ihrer Arbeit leider übersehen, dass der Risiko-Begriff längst auch anderweitig besetzt war und ist. Ihr Fokus auf Menschenrechte und hoheitliche Themen ist Ausdruck des Elfenbeinturms in dem sie sich bewegen. Nicht dass die Anforderungen per se falsch wären, aber es gibt eben auch noch andere Anforderungen und ich persönlich halte es nicht für zielführend für jede Technologie eigene Regelwerke zu erlassen, anstatt allgemeine Regelwerke auf ihre Tauglichkeit hin für neue Technologien zu prüfen, das hat schon zur EU-Leuchtmittelverordnung und zu EU-Staubsaugerverodnung geführt.

Auch wenn Unternehmensrisiken durchaus die Themen des AI Act aufgreifen sollten, ist der Schwerpunkt der Betrachtung doch ein anderer. Ich sehe hier vor allem zwei Themenfelder:

(1) KI-gestützte Entscheidungen (und nicht nur Personalentscheidungen wie im AI Act, sondern grundsätzlich auch die strategische Entscheidungsfindung, die im worst case existenzbedrohend für ein Unternehmen werden kann.)

(2) Das Automatisierungsdilemma. Die KI kann, wie wir Menschen, Fehler machen, nur kann sie diese auch exponentiell machen. Ich habe ja auch an anderer Stelle schon darauf hingewiesen, dass wir vielleicht eine eigene Fehlerkultur für die KI entwickeln müssen.

Spannend wird es, wenn wir nun die Enden dieses Beitrags zusammenführen:

Die meisten SAP Joule Anwendungsfälle (weil Knowledge-based und Navigational) sind aus Risikosicht (sowohl des AI Acts als auch des Enterprise Risk Managements) trivial. Die Tücke liegt aber im Detail und analytische und transaktionale Anwendungsfälle benötigen dann doch eine genauere Betrachtung. In einer Diskussion mit Vertretern der SAP habe ich den Kollegen die Frage gestellt, ob SAP Joule maximal low-risk Use Cases im Sinne des AI Acts abdeckt und high-risk Use Cases out of scope sind. Soweit wollte allerdings niemand gehen, auch wenn sich alle Fälle die wir aktuell diskutieren in diesem Bereich bewegen. Die Fragen, wie die Anforderungen für high-risk Use Cases (im Sinnes des AI Acts) seitens SAP abgedeckt werden, wurden aber eher mit einem Commitment als mit konkreten Aussagen beantwortet.

Bei den Specific Capabilities liegt eine fallweise Betrachtung auf der Hand. Zur Herausforderung könnten aber insbesondere Individual AI solutions werden. Anforderungen, wie Logging Capabilities, technische Dokumentation und Robustheit, wie sie der AI Act für high-risk Use Cases fordert machen auch aus Unternehmenssicht darüber hinaus Sinn, wenn man an das Thema Automatisierung denkt. Die Verantwortung der Entwickler steigt hier, mitunter ohne dass sie sich dessen bewusst sind.

Gelesen: Human Robot Agent

Nein, dies ist keine Rezension. Stattdessen möchte ich gerne 5 Themen aus Jurgen Appelos neuen Buch Human Robot Agent aufgreifen und vielleicht auch weiterspinnen. 
Appelo, Jurgen. Human Robot Agent: New Fundamentals for AI-Driven Leadership with Algorithmic Management, Rotterdam 2025, ISBN-13: 978-90-834236-2-3 (Amazon)

1. Der Niedergang des Agilen

Mit seinem Management 3.0 hat Jurgen Appelo die Ideen agiler Softwareentwicklung auf das Management übertragen. Er war somit einer derjenigen, die den Grundstein für den agilen Hype der letzten Jahre gelegt haben. Mit seinen Wurzeln in der Systemtheorie war er ein Vordenker. Und was jetzt? Jetzt schließt sich ausgerechnet dieser Vordenker dem Abgesang an – zumindest dem Abgesang auf den agilen Mainstream. Und Jurgen fragt, warum agiles Arbeiten heute in vielen Unternehmen versagt.

Er führt dafür zehn Punkte an:

  • Der Zertifizierungswahnsinn
  • Überladene Frameworks
  • Agiler Dogmatismus
  • Modeerscheinungen und Modetrends
  • Eine fragwürdige Interpretation der neuen Rollen
  • Eine Überbetonung der Velocity (Geschwindigkeit über Ergebnis)
  • Ein Management-Vakuum aufgrund der Fokussierung auf Teamautonomie und der gleichzeitigen Vernachlässigung bewährter Managementpraktiken
  • Fehlende Abstimmung mit der Strategie (Methoden über Wirkung)
  • Die grundsätzliche Frage, ob Werte und Prinzipien des agilen Manifests im Zeitalter von AI nicht überholt sind

Er stellt fest:
„The Agile Manifesto was an incredibly influential breakthrough achievement. But it was written in the age of the Third Industrial Revolution. And it’s true that many companies still struggle to grasp its basic ideas. However, in the meantime, the underlying paradigm has shifted. To survive the Fourth Industrial Revolution, we must rewrite the core values and principles that once made Agile revolutionary. We should stop migrating organizations to an outdated operating system.“

Aber auch:
„Organizations need agility more than ever.“

Für meinen Geschmack geht Jurgen etwas zu hart mit der Agilität ins Gericht. Was am Ende ist, ist der Hype um die agile Transformation, der häufig kaum diesen Namen verdient hat. Agilität an sich ist zeitlos – und war es schon immer. Schon lange vor der Erfindung des Begriffs waren erfolgreiche Projektmanager:innen agil und werden es auch weiterhin sein. Ausgelutscht ist lediglich die Managementmode mit diesem Titel, nicht die dahinterliegenden Ideen und Prinzipien.

Auf die Frage „Und was kommt jetzt?“ ist seine Antwort klar: die vierte industrielle Revolution – alias Künstliche Intelligenz. Allerdings würde sich hier ein differenzierterer Blick lohnen. Keine Frage, die KI/AI wirbelt gerade vieles durcheinander. Und auch wenn wir schon mittendrin stecken, können wir die Tragweite noch gar nicht abschätzen. Die Strömungen, die aus den „Revolutionen“ resultieren, lösen einander nicht ab – sie existieren nebeneinander, auch wenn sich die Gewichte verschieben. Auch  wenn die AI gerade dominiert, gibt es in Teilbereichen noch die Facetten der vorherigen Revolutionen.

Selbst klassische Managementpraktiken aus der Welt der Produktion haben daher noch ihre Berechtigung. Wir müssen nur ihre Anwendung kritisch hinterfragen und jeweils entscheiden, ob sie in der konkreten Situation noch angemessen sind.

Als Management-Mode hat die AI aber sicher die agile Transformation abgelöst – obwohl das wiederum nicht ganz richtig ist, denn die Künstliche Intelligenz baut auf der Digitalisierung auf. So gesehen eine Fortsetzung auf einem anderen Level.

Aber bitte nicht falsch verstehen: Meine Skepsis gilt nicht der Künstlichen Intelligenz, sondern den Managementmoden. Ich bin grundsätzlich kein Freund von Moden. Die willigen Jünger haben sich nun ein neues Pferd ausgesucht, auf das sie genauso unreflektiert setzen, wie auf das vorherige. Ich fürchte, die Heerscharen agiler Coaches, die gerade auf der einen Seite hinauskomplimentiert werden, kehren auf der anderen Seite mit neuen AI-Zertifikaten in die Unternehmen zurück. Die geposteten Zertifikate auf LinkedIn sprechen bereits eine deutliche Sprache.

2. Beyond VUCA

Wenn VUCA nicht mehr reicht – Willkommen in BANI! Oder vielleicht besser: in MARVIS. Denn Jurgen Appelo geht über das gängige Denken in Unsicherheiten hinaus und liefert ein Framework, das differenzierter, aktueller und handhabbarer ist: Das Wicked Framework.

Zunächst ein kurzer Rückblick: VUCA steht für Volatilität, Unsicherheit, Komplexität und Ambiguität. Es wurde vor allem im militärischen Kontext geprägt und hat später Einzug in die Managementwelt gehalten. Doch Appelo meint: Diese vier Begriffe sind nicht mehr ausreichend, um die heutigen Herausforderungen zu beschreiben.

Er beschreibt zunächst das BANI-Modell (Brittle, Anxious, Nonlinear, Incomprehensible), zeigt aber auch seine Schwächen auf.

Deshalb schlägt Appelo ein eigenes Modell vor: das Wicked Framework – bestehend aus den sechs Dimensionen Modularity, Ambiguity, Reflexivity, Volatility, Intricacy und Scalability, kurz: MARVIS. Jede Dimension beschreibt einen bestimmten Aspekt der Unsicherheit. Für jede Dimension definiert Appelo drei typische Ausprägungen. Praktisch gedacht: eine Matrix zur Einordnung und zum Umgang mit komplexen Problemen.

Was daran spannend ist: Statt einer eindimensionalen Sicht auf Komplexität bietet MARVIS ein skalierbares, differenziertes Bild. Führungskräfte können systematisch reflektieren, wo ihre Herausforderungen liegen – und gezielt darauf reagieren.

Ein Beispiel: In einem System mit hoher Modularität und geringer Skalierbarkeit braucht es andere Interventionen als in einem hochvolatilen, reflexiven Umfeld.

Appelo träumt dann davon in den Profilen des MARVIS Modells Archetypen identifizieren zu können und für diese übertragbare Lösungsansätze zu entwickeln. Böse gesagt: Patentrezepte für Komplexität.

Da mag der Wunsch Vater des Gedanken sein, aber Träumen darf man ja.

3. Küchenwerkzeuge

Appelo nutzt eine Küchenmatapher und vergleicht Management-Tools mit Küchenwerkzeugen:
„Management tools, like kitchen tools, are built for predictable use cases. Strategic planning frameworks and stage-gate processes thrive in stable environments with familiar market dynamics. They’re great for whipping up tried-and-true dishes—or even new ones, provided the management paradigm remains unchallenged. The problem lies in today’s fast-changing, innovation-driven world. Standard tools fall short in new contexts. It’s like trying molecular gastronomy in a kitchen designed for Asian cuisine.“

Er schwärmt von der Einfachheit:
„Here’s what I noticed: the simpler the tool, the more often I use it. […] The simplest tools are the ones you’ll use most, and having a diverse range of devices equips you to tackle a broad array of challenges. In management, as in the kitchen, the rule is straightforward: Keep it simple and go wide.“

Und trotzdem brauchte es eine Vielfalt:
„Your management kitchen needs tools for both Michelin-star precision and grandma-level improvisation.“

Auch wenn wir mit unseren Werkzeugen in turbulenten Zeiten an unsere Grenzen stoßen:
„In a turbulent business landscape, traditional management tools are about as useful as an umbrella in a hurricane. They can’t handle the full buffet of uncertainty.“

4. Pattern Language & Pattern Library

Jurgen Appelo greift ein Konzept auf, das ursprünglich aus der Architektur stammt: die Pattern Language nach Christopher Alexander. Die Idee: Komplexe Systeme werden verständlich und gestaltbar, wenn wir sie in wiederkehrende Muster zerlegen – und diese Muster miteinander verknüpfen.

Was ist eine Pattern Language?
Eine Mustersprache beschreibt, wie einzelne Muster miteinander in Beziehung stehen und gemeinsam ein ganzes System formen. Muster sind keine Rezepte – sie sind situationsabhängige Lösungsbausteine. Der Clou: Durch die Verbindungen entsteht ein gestaltbares Ganzes.

Und was bringt das?
Vor allem eine eigene Sprache, die die Kommunikation über unsere komplexe Aufgabenstellung voranbringt und ganzheitliches Denken fördert.

Darüber hinaus:

  • Verständlichkeit durch Wiederholung
  • Reuse statt Re-Invention
  • Adaptivität durch Kombinierbarkeit

Und was ist eine Pattern Library?
Das ist die Sammlung dieser Muster – ein Werkzeugkasten. Wie ein LEGO-Set, aus dem du dein eigenes Bauwerk entwerfen kannst. Oder, um bei Appelos Metapher zu bleiben: eine gut ausgestattete Küche, in der du nach deinem eigenen Rezept kochst.

Und warum mich Pattern Language und Pattern Library so faszinieren?
Nun unsere Table of Elements (das hat jetzt gar nichts mit Appelo zu tun) ist so eine Pattern Library für das Projektmanagement. Wir haben im Projektmanagement gelernt Probleme zu erkennen und zu beschreiben und mit Hilfe einer solchen Library können wir sie bearbeiten.

5. Achso, AI und so…

Die AI ist noch ein bisschen zu kurz gekommen. Sie spielt bei Jurgen eine zentrale Rolle: 
„The relentless pace of technological change, particularly with AI, has transformed the business landscape into a shifting sand dune. Yesterday’s disruptor becomes today’s dinosaur, and your biggest competitor might be a startup no one had heard of last Tuesday.“

Er ist aber kein Kultur-Pessimist und zeigt, wo der Mensch noch gebraucht wird:

  • bei komplexen Problemlösungen
  • bei Technologiekompetenz: Zu wissen, wie KI funktioniert und wie man sich ihre Fähigkeiten zunutze macht, wird für viele Unternehmen entscheidend sein.
  • Körperliche Fertigkeiten
  • Soft Skills: Starke Kommunikations-, Kooperations- und Empathiefähigkeiten
  • Kreatives Denken

Appelo schreibt nicht nur über AI, sondern auch mit Hilfe der AI und kokettiert mit seinen Agenten. Er beschreibt die Circles of AI, AI Use Case Patterns und erklärt uns warum aus den T-shaped Helden im Zeitalter von AI jetzt M-skilled Heroen werden:
„The goal is to become M-shaped, combining mastery across multiple fields with strong business and leadership skills. For example, a product manager might also become an online marketer and video editor. A finance manager could develop additional strategic and technical abilities. With AI handling specialized work, people can tackle complex problems and think creatively across multiple disciplines.“

Fazit

Natürlich habe ich nur ein paar Schlaglichter auf  Jurgen Appelos Human Robot Agent werfen können. Aber vielleicht hat das ja gereicht, um Appetit zu wecken, denn eine Leseempfehlung ist es allemal.

Alles AI oder was?

Auch wenn künstliche Intelligenz und insbesondere ChatGPT als Hype-Thema gerade überstrapaziert sind, werden wir alle nicht umhin kommen, uns damit zu beschäftigen.

(1) Anwendungsfälle

Von der UNSECO gibt es einen Quick Start Guide „ChatGPT and Artificial Intelligence in higher education„.

Besonders ins Auge gestochen ist mir dabei eine Rollenübersicht von Mike Sharples:

Auch wenn die dort definierten Rollen wohl für den Hochschulkontext entwickelt wurden, finde ich sie auch darüber hinaus wichtig und inspirierend.

(2) Gefahren

Mit dem Nutzen von AI gehen auch neue Gefahren einher und ich meine damit nicht die „böse AI“. Beim BSI (Bundesamt für Sicherheit in der Informatiosntechnik) findet sich bereits einiges hierzu auf der BSI-Homepage oder zusammgefasst in dem Artikel „AI security concerns in a nutshell„.

(3) AI im Projektmanagement

Nachdem es ja hier im Blog häufig um Projektmanagement-Themen geht, hier noch ein ganz spezieller Hinweis: Nicht nur über sondern auch mit ChatGPT hat Torsten Koerting sein Buch geschrieben: „Die KI Revolution – Auswirkungen auf das Projektmanagement und wie sie sich neu erfinden“ (Amazon).



bernhardschloss.de