Ich hab’s live gemacht und es hat nicht funktioniert. Zumindest nicht so, wie ich es erwartet hatte.

Der Versuch: eine einfache Werkstattverwaltungssoftware, gebaut mit meinem PKA-System, einem Verbund aus mehreren spezialisierten KI-Agenten, die zusammenarbeiten. Das klingt nach einem überschaubaren Projekt. Das Ergebnis war nahezu unbrauchbar.

Kein Bug. Kein Absturz. Kein schlechter Code im klassischen Sinne. Das eigentliche Problem war unsichtbarer.

Was passiert ist

PKA arbeitet so: Verschiedene Agenten übernehmen verschiedene Teilaufgaben. Einer plant die Datenbankstruktur, ein anderer schreibt die Logik, ein nächster kümmert sich um die Oberfläche. Im Prinzip wie ein kleines Team, das arbeitsteilig an einem Projekt arbeitet.

Das Problem ist, was zwischen diesen Übergaben passiert. Jeder Agent kennt nur seinen Ausschnitt. Was Agent A weiß, muss explizit an Agent B weitergegeben werden, sonst fängt B von vorne an. Und genau da ist es mir beim Live-Versuch um die Ohren geflogen. Zu viel Kontext ist bei jeder Übergabe verloren gegangen.

Das Ergebnis: Jeder Teilnehmer hat an einem anderen Puzzle gebaut. Am Ende haben die Teile nicht zusammengepasst.

Hier könnt ihr den kompletten Versuch ungekürzt sehen:

Live-Versuch: Werkstattverwaltung mit PKA-Agentensystem – Kontext-Verlust in der Praxis

Ich zeige das ungekürzt. Weil man aus echten Fehlversuchen mehr lernt als aus polierten Demos.

Was das mit eurem Betrieb zu tun hat

Wenn ihr selbst über KI-Einsatz nachdenkt, begegnet euch genau diese Herausforderung früher oder später. Nicht unbedingt in Form von Agentensystemen, aber in Form von Erwartungen, die nicht erfüllt werden.

“Ich geb dem KI-Tool die Aufgabe und es macht das.” Funktioniert bei einfachen, klar abgegrenzten Dingen oft gut. Wird die Aufgabe komplexer, braucht das System Führung. Es braucht Kontext. Es braucht jemanden, der versteht, was zwischen den Schritten weitergegeben werden muss.

Das ist kein Fehler der Technologie. Es ist eine Eigenschaft, die man kennen muss, bevor man loslegt.

Die eigentliche Erkenntnis

Multi-Agenten-Systeme sind kein Autopilot für komplexe Aufgaben. Je mehr Agenten beteiligt sind, desto präziser muss die Übergabe von Informationen geplant sein.

Drei Fragen, die ich mir jetzt für jeden Workflow stelle:

Welche Informationen müssen explizit weitergegeben werden? Nichts darf als “selbstverständlich” gelten. Was für mich offensichtlich ist, ist es für den nächsten Agenten nicht.

Was darf kein Agent vergessen? Kernentscheidungen, Rahmenbedingungen, Einschränkungen. Die müssen als fester Bestandteil jeder Übergabe mitlaufen.

Wie groß darf ein Aufgabenpaket sein, bevor es zu viel wird? Zu große Pakete erzeugen zu viele Lücken. Kleinere, klar definierte Schritte halten den Kontext besser zusammen.

Der Ansatz ist nicht falsch. Der Workflow muss besser werden.

Was das für Entscheider bedeutet

Wer heute KI-Systeme für seinen Betrieb bewertet, sollte genau auf diese Frage achten: Wie handhabt das System Übergaben zwischen Prozessschritten? Wie wird sichergestellt, dass Informationen nicht verloren gehen?

Das ist keine technische Detailfrage. Es ist die entscheidende Frage, ob ein System im Alltag verlässlich funktioniert oder nicht.

Ein System, das das sauber löst, ist ein anderes als eines, das es nicht tut. Der Unterschied zeigt sich nicht in der Demo. Er zeigt sich im echten Einsatz.

Was kommt als nächstes

Ich denke den Workflow neu durch. Konkret schaue ich mir an, wie ich die Kontextübergabe strukturierter gestalten kann und wo die natürlichen Grenzen eines Aufgabenpakets liegen sollten.

Das wird kein einmaliger Fix sein. Es ist ein Lernprozess, und ich werde den weiter offen dokumentieren.

Falls ihr ähnliche Erfahrungen mit KI-Systemen gemacht habt oder Ansätze kennt, die das Kontext-Problem lösen: Meldet euch gerne per E-Mail oder über meine Social-Media-Kanäle. Ich bin gespannt, was in der Praxis funktioniert.


Markus Mangold — Kfz-Meister, Gründer von Torq.Li, Inhaber Zeos83