Beta-Tester

Trotz all dem KI-Hype sind wir alle doch nur Beta-Tester. Wer intensiv ChatGPT & Co testet stößt auch immer wieder an die Grenzen. Wenn die KI unsere Prompts nicht versteht oder verstehen will. Manchmal ignoriert sie unsere Anweisungen. Dummerweise ist sie auch noch eloquent. Weitaus eloquenter als die meisten von uns, d.h. ihre Antworten sind überzeugender als unsere, selbst wenn sie Bullshit sind. Sie reflektiert nicht wirklich über ihre Grenzen, außer da, wo es ihr aus ethischen Gründen vorgegeben ist – nein, ich liefere dir keine Anleitung für ein Verbrechen – da müssen wir schon subtiler fragen.

Ich kämpfe gerade an einigen Basic-Funktionalitäten und bin auch schon mit dem Support im Gespräch – nein, seit einer Woche bin ich mit dem Support im Monolog. Ich frage und bekomme keine Antworten.

Das Standard-Skript frägt nach Fehlerquellen in meiner Infrastruktur. Nachdem mit einem Test nachgewiesen habe, dass das Problem im Account und nicht in meiner Infrastruktur liegt (vom Agent bestätigt), warte ich auf Antwort.

Der „Support-Bot“ ist überhaupt very strange. Eigentlich KI, aber nachdem ich mein Problem konkretisiert habe, hatte ich schnell das Gefühl bei einem echten Menschen zu landen, auch weil sein Antwortverhalten scheinbar an Zeitzonen gebunden war.

Aber jetzt schweigt „Justin“ seit einer Woche, obwohl sonst immer wieder aktiv. Und trotz (sachlicher) Nachfrage.

Für ein Medium, das unser Vertrauen erst noch verdienen will eine Bankrott-Erklärung, aber wir sind anscheinend halt auch nur Beta-Tester.

Projekt-Werkraum auf LinkedIn

👥 Treffen Sie uns im Projekt-Werkraum auf LinkedIn!

Sie suchen nach einem Ort, um sich über Projektmanagement auszutauschen und voneinander zu lernen? Dann besuchen Sie unseren Projekt-Werkraum auf LinkedIn!

Dort teilen wir regelmäßig Insights, diskutieren aktuelle Themen und bieten Ihnen eine Plattform zum Netzwerken und Lernen.

Zusätzlich bieten wir auf LinkedIn Learning eine Reihe von Kursen an, die Ihnen helfen, Ihre Projektmanagement-Fähigkeiten zu erweitern:

🎓 LinkedIn Learning Kurse von uns gibt es für viele Themen:

  • Einführung in das Projektmanagement
  • Agiles Projektmanagement
  • Stakeholder-Management
  • Änderungsmanagement
  • Ethik und Compliance

und auch zu weiteren Themen wie:

  • Business Visualisierung
  • Facilitation
  • Gamification

📢 Jetzt folgen und profitieren: @Projekt-Werkraum

#ProjektWerkraum #Projektmanagement #Netzwerken #LinkedInCommunity #LinkedInLearning

Ein Facelift

Das „Berufsbild: Projektmanagement“ hat ein Facelift bekommen, den Link gibt es auf LinkedIn.

ChatGPT & Support: Neuland

Als ChatGPT-Nutzer kann ich Ihnen nur wünschen, dass Sie keinen Support brauchen. Ich kämpfe seit Tagen. Der Chat selbst ist bemüht, liefert Workarounds (die in meinem Fall nicht funktioniert haben) und Hilfen, allerdings teilweise falsch: Die empfohlene Kontaktmöglichkeit per Mail gibt es gar nicht. Als ich die von ChatGPT vorbereitete Mail an die Support-Adresse schicke, bekomme ich umgehend Antwort:

Thank you for your email. Please note: This email address does not offer support. To get support, please visit our Help Center and start a chat with our support bot.

Manchmal vergisst ChatGPT auch, dass es um ChatGPT geht und gibt allgemein Ratschläge zum Umgang mit dem Support.

Tja und dann das Help Center – schwierig.

Die Hürden mit Anmeldung & Co genommen, landet man in einem Bot. Nach ein paar Stufen sogar bei echten Menschen, aber es gibt kein Ticket, sondern nur einen Bot im Browser. Und spätestens, wenn ein Mensch dahinter steckt gibt es Antwortzeiten. Das passt überhaupt nicht zu einem Bot-Fenster im Browser.

Email-Notification Fehlanzeige. Sorry, das Konzept ist nicht durchdacht – geradezu dilettantisch.

Umso ärgerlicher, wenn man für das Abo zahlt. Aktuell warte ich schon über eine Stunde auf eine Antwort. Das ist in einem Bot auf Echtzeit angelegt indiskutabel., aber ein Ticketsystem gibt es nicht. Dabei habe ich schon mehr gemacht, als von mi erwartet werden kann. Top1-7 aus dem Chat sind abgearbeitet und bevor ich überhaupt den Support kontaktiert habe, habe ich Hilfe bei einem Pro (danke, Torsten!) gesucht.

>> Update in den Kommentaren >>

ChatGPT & Excel

Noch so ein Learning: Abgesehen davon, dass ich zur Zeit verzweifelt versuche Dateien aus ChatGPT herunterzuladen („Datei nicht gefunden“) – jetzt warte ich auf den Support, habe ich die KI gerade als Excel-Hilfe genutzt: Bitte generiere mir die Formeln um eine Zelle („Name, Vorname (Abteilung)“) in Ihre Bestandteile zu zerlegen.

Das klappt auf den ersten Blick auch verdammt gut:

Aber natürlich kommt beim Ausprobieren gleich eine Fehlermeldung.

Erst ein Stirnrunzeln und dann werden die „Röntgenaugen“ angeschmissen und siehe da, der Fehler ist schnell gefunden: Im deutschen Excel werden die Formelbestandteile mit Semikolon getrennt. im englischen mit Kommata und hier mischt ChatGPT deutsche Nomenklatur der Befehle mit der englischen und nutzt die falschen Zeichen für die Separierung. Manuell korrigiert und siehe da, es funktioniert.

Habe jetzt Glück gehabt, dass ich ohne größere Suche den Fehler gleich entdeckt habe, aber anscheinend ist ChatGPT gut in den Sprachmodellen (übersetzt englische Befehle ins Deutsche, aber nur auf der Begriffebene und vernachlässigtdie Nomenklatur).

Again what learned, würde Lothar sagen.

ChatGPT frustriert mich gerade

Aktuell stoße ich gerade an meine Grenzen mit ChatGPT:

Excel-Export funktioniert nicht

Ich habe ChatGPT angelernt und eine Tabellenstruktur nahe gebracht. Nur der Export nach Excel funktioniert nicht. Die erstellten Links funktionieren nicht. Weder der direkte Download, noch das Zusenden per Mail oder ein Dropbox-Link. Weist man die KI darauf hin, macht sie beharrlich weiter. Nicht besonders intelligent. Mal schauen, ob sich der Support noch meldet. Habe Freitag via Bot eine entsprechende Meldung abgesetzt (Antwort soll per Mail kommen). Eine Google-Recherche findet aber Treffer mit ähnlichen Fehlern. Dummerweise waren die in der ChatGPT Community gestern großteils nicht erreichbar. Da klingt nach größeren Problemen.

Ich weiß nicht, dass ich nichts weiß.

Eigentlich hatte ich ChatGPT mit eigenen Dokumenten angelernt. Ich hatte die KI gebeten eine Methode aus diesen Dokumenten aufzubereiten. Jetzt handelt es sich um eine Eigenentwicklung, das heißt ChatGPT kann außerhalb des gelernten Dokuments kaum etwas dazu finden. Nun dann erfindet er/sie/es halt was. Selbst der Hinweis auf das entsprechende Dokument und den entsprechenden Abschnitt wird ignoriert. Krudes Halbwissen und ich weiß noch nicht einmal, welche meiner Inhalte tatsächlich gelernt wurden. Es finden sich zwar Hinweise auf Zeichenbegrenzungen, aber die KI schluckt ohne Feedback alles und antwortet in diesem Fall dann dumm.
Fehlende Selbstreflexion in Kombination mit einem eloquenten Auftreten ist eine fatale Kombination.
KI heute fühlt sich leider besser an, als sie ist.

Best of… Mehr als nur 4 Seiten

Mehr als nur 4 Seiten? 4 Seiten von was?

Als Klassiker sei auf die 4-Seiten-einer-Nachricht von Schulz-von-Thun verwiesen.

JEDE Kommunikation, schlägt sich (mehr oder weniger) auf den vier Dimensionen nieder.

Es gibt keine rein sachliche Kommunikation. Punkt.

Jede Kommunikation – ob gewollt oder nicht – findet immer in allen vier Dimensionen statt (einen schönen Gruß an den Handball-Trainer F. aus I., der mir die Grafik der 4-Seiten vor die Nase gehalten und erklärt hat, er würde ausschließlich auf der Sachebene kommunizieren. Wenn er Schulz-von-Thun verstanden hätte, wüsste er, dass das gar nicht geht).

Schulz von Thun benennt die 4-Seite einer Nachricht:

JEDE Kommunikation, schlägt sich (mehr oder weniger) auf den vier Dimensionen nieder.

Schulz von Thun. 70er Jahre Kommunikationstheorie. Unbestritten. Jede Nachricht hat IMMER alle vier Dimensionen. Mehr oder weniger. Aber immer alle vier.

Ich würde nur gerne dieses Modell etwas erweitern.

Jede Kommunikation findet immer in einem Umfeld (Environment) statt. Auf der Sachebene könnte man von Kontext sprechen. Die drei anderen Ebenen, könnte man unter (soziale) Umfeld zusammenfassen.

Und es gibt noch eine zeitliche Ebene die Dringlichkeit und Bedeutung massiv beeinflusst:

Also wenn wir eine Kommunikation haben, dann findet die immer in einem Kontext statt…

…und hat einen Zeitbezug, der mitunter dazu führt, dass eine Aufgabe als dringlich angesehen wird.

Wir haben Aufgaben, aber erst deren Prioirsierung (also deren Bedeutung vor einem zeitlichen Hintergrund) erlaubt uns eine realistische Einordung.

Diese zeitliche Dimension ist nicht unabhängig von den Dimensionen. Jetzt könnte man Kommunikation als etwas einmaliges, punktuelles verstehen, aber das wird unseren modernen Medien nicht gerecht, denn die einmal getätigte Kommunikation bleibt verfügbar und wird womöglich neu interpretiert.

Und die Darstellung von Schulz-von-Thun haben wir mal eben stillschweigend erweitert. Nicht dass das Modell in Frage gestellt würde – vermutlich sollten wir es ausbauen.

Werkstattbericht

Nicht zu verwechseln mit dem Projekt-Werkraum, obwohl auch der damit zu tun hat. Folgende Themen sind gerade am Start:

  • im Sommer nehmen wir zwei neue Kurs-Updates (Steuerung & Risiko)bei LinkedIn Learning in Graz auf
  • außerdem stehen Klärungen für eine neue Reihe aus
  • und mit der Reihe hat es noch mehr auf sich, aktuell ist auch eine App in den allerersten Zügen und es gibt noch weitere Gedankenspiele
  • auch bei openPM tut sich was. Die Meetups im vergangenen Jahr sind nicht wirklich geflogen. Deshalb haben wir einige Mitstreiter aus der PMCamp Bewegung zusammengetrommelt und basteln auch da gerade an etwas Neuem für Anfang 2025 (stay tuned and you will be informed)
  • und dann gibt es noch das ganz profane Tagesgeschäft mit Kunden und so. Aktuell Cybersecurity & SAP und so….

Es wird also nicht langweilig.

Über KI lernen… Prompt Engineering und so.

Jaja, die kürzlich gestartete KI-Reihe hier im schlossBlog ist abgeschlossen. Und trotzdem geht es (jetzt außerhalb der kleinen Reihe) weiter, denn Mann (Schreibweise ist richtig wegen des Geschlechts des Autors) muss sich ja weiter bilden.

Den Anfang macht der LinkedIn Learning Kollege Sascha Wolter, dessen Video-Training „Prompt Engineering – Grundlagen“ einen sehr guten und fundierten Ausgangpunkt bilden. Neben den „reinen“ Grundlagen liefert Sascha den Einstieg (mit vielen Beispielen), wie Prompts aufgebaut werden können, insbesondere durch:

  • Rolle & Tonfall
  • Anweisungen & Ziele
  • Kontext
  • Befehl/Frage & Format

Und natürlich auch, wie sich solche Prompts systematisch erweitern lassen.

Das Prompt-Engineering wollte ich eigentlich noch vertiefen mit dem Buch Prompt Engineering and ChatGPT von Russel Grant (Amazon Affiliate Link). Ganz gelungen ist mir das nicht, denn was das Engineering im technischen Sinne angeht ist das Buch etwas „dünn“. Was ich sehr gut fand, waren die vielen Use Cases aus den unterschiedlichsten Gebieten von Software-Entwicklung, über Marketing, Kundensupport, bis hin zum Projektmanagement. Meine Vorurteile wurden wieder bestätigt. Der erste Use Case im PM, der genannt wird, ist die Erstellung einer Agenda. Holy fuck. Wer dafür KI braucht, ist im Projektmanagement fehl. Auch die anderen PM Use Cases überzeugen mich nicht wirklich, aber das liegt weniger an Russel Grant als an der Materie. Selbstverständlich wird KI in Projekten immer wichtiger, aber halt weniger in der Koordination und Kommunikation als in der inhaltlichen Arbeit. Auch Russel Grant verweist auf das Problem mit den Bias in der KI (ich habe von kognitiver Dissonanz gesprochen). Für ihn ist dafür, wie bei etwaigen Fehlerquellen das gelernte Material verantwortlich. Das stimmt natürlich auch, wenn die KI Vorurteile oder falsche Informationen übernimmt und wiedergibt, aber das Problem probabilistischer Modelle, die von Natur aus wahrscheinliche und nicht zwangsläufig richtige Ergebnisse wiedergeben, erwähnt er mit keiner Silbe.

Ein echtes Highlight für mich war dann noch KI für Kreative von Jenny Habermehl (Amazon Affiliate Link). Es geht mal weniger um ChatGPT, sondern vor allem um bildgebende KIs. Jenny Habermehl zeigt die erforderlichen Grundlagen und Tools, aber auch viele praktische Beispiele und die sind natürlich ein Hingucker. Mit den Prompt-Beispielen für Kreativitätstechniken (die durchaus auch wieder für textbasierte KI geeignet sind) werde ich ganz sicher noch experimentieren.

Und hier noch der obligatorische Disclaimer zur Illustration dieses Beitrags: Die ist „geklaut“ in der englischen Wikipedia und wurde selbst von der KI (Dall-E) kreiert, mehr dazu auf der dazugehörigen Wiki-Commons-Seite von Wikipedia (inkl. dem zugrundeliegenden Prompt).

Persona

Personas sind im Marketing ein Konzept zur Beschreibung von Zielgruppen (siehe auch Wissen kompakt bei t2informatik). Statt auf eine Charakterisierung mit statistischen Attributen zurückzugreifen beschreibt die Persona fiktionale Menschen mit ihren ganz persönlichen Details. Was zunächst vielleicht etwas unseriös/unwissenschaftlich anmutet macht schnell Sinn, denn solche Beschreibungen sind viel anschaulicher, plastischer, weniger abstrakt. Weil uns ihr fiktionaler Charakter bewusst ist, werden sie nicht gleich überhöht, auf der andere Seite wird die Empathie gegenüber der Zielgruppe gesteigert.

Wenn ich bislang Personas genutzt habe musste immer Erich aus der Business Visualisierung (Amazon Affiliate Link) herhalten:

Für eine Workshop-Moderation in der vergangenen Woche habe ich mir ein eigenes Template gebastelt, d.h. Template ist eigentlich zu viel gesagt: Die Kontur einer Playmobil-Figur auf einem Flipchart . Und wiedermal hat sich gezeigt wie Gamification funktioniert: Die Spielzeug-Figur ließ uns die Übung (es ging um die Beschreibung des idealen Teammitglieds) mit einem Lächeln starten, ein gelungener Icebreaker ganz zu Beginn des Workshops. Die Abstraktheit der Figur nahm gleichzeitig noch nichts vorweg und war offen für die Inputs der Teilnehmenden. Und viele der Beiträge konnten wir bei den späteren Agenda-Punkten wieder aufgreifen. Die Persona blieb dabei die ganze Zeit sichtbar im Raum.

(Die Playmobil-Frau war übrigens der Wunsch der Teilnehmer, ich hätte auch noch einen Playmobil-Mann in Petto gehabt.)



bernhardschloss.de