So betreiben Sie die KI-Steuerungsebene (ohne die Autonomie ins Chaos zu stürzen)

8 min gelesen
Fassen Sie dies mit AI zusammen

Fortsetzung meiner Serie über die KI-Steuerungsebene, Teil 1: „Middleware ist die neue Steuerungsebene für KI, habe ich erläutert, warum das Model Context Protocol (MCP) einen so entscheidenden Wandel in der Unternehmensarchitektur darstellt. MCP verringert die Distanz zwischen Absicht und Handlung, indem es KI-Modellen eine standardisierte Möglichkeit bietet, Tools systemübergreifend zu finden und aufzurufen. 

In Teil 2: Wie eine echte KI-Steuerungsebene aussieht (und wie man eine solche aufbaut, bevor sich MCP unkontrolliert ausbreitet)habe ich untersucht, warum MCP allein keine Steuerungsebene darstellt. MCP löst das „N×M”-Problem der Verbindung von Modellen mit Tools, definiert jedoch nicht, wie Aktionen gesteuert, überwacht oder eingeschränkt werden, sobald Agenten in der Produktion eingesetzt werden. 

Dieser Beitrag baut auf dieser Grundlage auf und befasst sich mit der nächsten Frage: Wie setzen Unternehmen die KI-Steuerungsebene tatsächlich ein? Das Risiko besteht nicht darin, dass MCP scheitert, sondern dass MCP erfolgreich ist, während das Unternehmen sein Betriebsmodell nicht anpasst. MCP entwickelt sich unter der Agentic AI Foundation (AAIF) der Linux Foundation zu einer Infrastruktur, sodass dieser Moment entscheidend ist, um über das Experimentieren hinaus zu einer geregelten, produktionsreifen Autonomie zu gelangen.

Fähigkeiten zuerst, nicht Werkzeuge

Ein gängiges Muster bei der frühen Einführung von MCP ist es, alles, was das Team besitzt, direkt als Tool offenzulegen: Skripte, Abfragen, Workflows oder Microservices. Dieser Ansatz beschleunigt zwar den anfänglichen Fortschritt, führt jedoch zu Fragmentierung, da eher die Mechanismen als die geschäftliche Bedeutung offengelegt werden. Tools beschreiben, was aufgerufen werden kann; Unternehmen interessieren sich jedoch dafür, was passieren soll.

Die KI-Steuerungsebene sollte Funktionen bereitstellen, die Geschäftsergebnisse liefern, hinter denen Sie stehen können. Eine Funktion ist nicht „Kundendatensatz aktualisieren“ oder „Rabatt anwenden“. Es ist „ein Abrechnungsproblem lösen“ mit definierter Abfolge, Wiederholungsversuchen, Genehmigungsgates und integrierter Audit-Protokollierung. 

Diese Verlagerung von Tools zu Fähigkeiten ist eine Voraussetzung für eine koordinierte, gesteuerte Ausführung: Sie stellt sicher, dass Agenten hochrangige, vorhersehbare Aktionen ausführen, anstatt atomare Operationen auf unvorhersehbare Weise miteinander zu verknüpfen.

Die Behandlung von Fähigkeiten als Produkte bedeutet, dass sie Eigentumsrechte, klare Verträge, beobachtbares Verhalten, Versionierung und Rollback-Pläne haben müssen. Hier wird die Integration zur Ausführungsinfrastruktur: Was einst nur eine technische Grundlage war, hat nun die semantische Bedeutung einer Geschäftslogik, die durch Governance und Rückverfolgbarkeit gestützt wird.

Festlegen, wo die Durchsetzung von Richtlinien stattfindet

Sobald Fähigkeiten die Ausführungseinheit sind, stellt sich die Frage, wo Leitplanken durchgesetzt werden. In einem Live-System führt die Dezentralisierung der Durchsetzung von Richtlinien zu Fragmentierung und inkonsistenten Ergebnissen.

Ein pragmatisches Vorgehensmuster, das Unternehmen anwenden, lautet:

  • Agenten entscheiden über die Absicht und interpretieren die Ziele der Benutzer in strukturierte Aufgaben.
  • Die Steuerungsebene setzt Richtlinien durch und legt fest, welche Aktionen unter welchen Bedingungen und mit welchen Genehmigungen zulässig sind.
  • Workflows deterministisch nach festgelegten Mustern und nicht nach Ad-hoc-Sequenzen Workflows .
  • Aufzeichnungssysteme bleiben stabil und vorhersehbar, wobei die Ausführung auf kontrollierte Pfade beschränkt ist.

Dadurch wird sichergestellt, dass Agenten niemals direkt auf Systeme wie Salesforce oder Abrechnungsendpunkte zugreifen. Der einzige zuverlässige Weg in der Produktion ist eine kontrollierte Funktion, die standardmäßig die Unternehmensrichtlinien durchsetzt. 

Wenn die Durchsetzung von Richtlinien umgangen werden kann, wird dies letztendlich auch geschehen, was die Betriebssicherheit beeinträchtigt.

Autonomie mit Ausführungsebenen verwalten

Eine Steuerungsebene muss auch festlegen, wie die Autonomie skaliert wird. Nicht alle Maßnahmen bergen das gleiche Risiko. Unternehmen profitieren davon, wenn sie ihre Abläufe in Ebenen organisieren, die den Explosionsradius und die Governance-Anforderungen widerspiegeln.

Eine gängige Tiering-Struktur umfasst:

  • Nur-Lese-Kontextoperationen, wie Suche und Abruf von Metadaten
  • Umkehrbare Aktionen wie das Erstellen von Tickets oder Entwürfen von Dokumenten, die eine grundlegende Beobachtbarkeit erfordern
  • Produktionsänderungen wie Bereitstellungen, Zugriffsberechtigungen, Rückerstattungen oder Rabatte, die Richtlinienprüfungen und Genehmigungen erfordern
  • Irreversible oder regulierte Aktionen, wie das Löschen von Daten oder der Export sensibler Daten, erfordern strenge Genehmigungen und Prüfpfade.

MCP bietet Autorisierung auf der Transportschicht, definiert jedoch nicht diese Unternehmensrichtlinien. Ausführungsebenen machen Richtlinien explizit und setzen sie zur Laufzeit durch.

Organisation des Control-Plane-Teams

Wo liegt der Schwerpunkt der Governance? Erfolgreiche Unternehmen betrachten die Steuerungsebene eher als Plattformfunktion denn als Projekt. Dieses Team entwickelt nicht alle Funktionen, zentralisiert nicht die gesamte Geschäftslogik und fungiert auch nicht als Warteschlange für Anfragen. Stattdessen umfasst sein Aufgabenbereich Folgendes:

  • Veröffentlichung und Pflege des Kompetenzkatalogs mit klarer Zuständigkeit, Versionierung und Dokumentation.
  • Definition von Primitiven zur Durchsetzung von Richtlinien wie Identität, Geltungsbereiche, Genehmigungen und Auditprozesse.
  • Sicherstellung von Ausführungsgarantien wie Idempotenz, Wiederholungsversuche und Ausgleichsmaßnahmen.
  • Bietet Beobachtbarkeit mit End-to-End-Traces, die Fragen dazu beantworten, was passiert ist, warum und mit welchen Auswirkungen.
  • Zertifizierung von Fähigkeiten für verschiedene Ausführungsebenen auf der Grundlage von Governance-Anforderungen

Stellen Sie sich diese Funktion wie den Bau asphaltierter Straßen vor, nicht wie bewachte Kontrollpunkte: Teams können sich schnell auf sicheren, geregelten Wegen bewegen, ohne bei jeder Aktion Reibung zu verursachen.

Ein disziplinierter Lebenszyklus der Fähigkeiten

Die meisten systemischen Fehler in autonomen Systemen sind nicht auf böse Absicht zurückzuführen. Sie entstehen durch vernünftige lokale Entscheidungen, die sich summieren, weil es keinen einheitlichen Prozess gibt, der die Entwicklung der Fähigkeiten steuert.

Ein disziplinierter Lebenszyklus für Fähigkeiten stellt sicher, dass Fähigkeiten transparent und kontrolliert eingeführt, getestet und skaliert werden:

  • Die Funktionen beginnen mit einem Vorschlag, der die Absicht, die Ebene, die nachgelagerten Systeme und die beteiligten Datenklassen definiert.
  • In einer Sandbox-Zertifizierungsphase spielen Teams historische Szenarien nach und dokumentieren Fehlermodi.
  • Eine begrenzte Veröffentlichung umfasst eine gezielte Einführung nach Geschäftsbereich, Region oder Datensatz.
  • Während der Werbeaktion erfordern Tier-Upgrades strengere Kontrollen in Bezug auf Richtlinien, Genehmigungen und Protokollierung.
  • Kontinuierliche Validierung stellt sicher, dass die Ergebnisse über einen längeren Zeitraum stabil bleiben, mit Drift-Erkennung und Regressionstests für Eingabeaufforderungen und Verhalten.

Dieser Lebenszyklus sorgt in jeder Phase für Klarheit und verhindert, dass vernünftige Entscheidungen zu unternehmensweiten Risiken werden.

Wichtige Erfolgskennzahlen

Frühe KI-Programme messen die Aktivität: Wie viele Tools wurden eingesetzt, wie viele Aufgaben haben die Agenten erledigt oder wie viel Zeit wurde voraussichtlich eingespart? Diese Kennzahlen sind einfach, aber irreführend. In der Produktion wird der Erfolg anhand kontrollierter Ergebnisse gemessen, die zeigen, ob die Steuerungsebene wie vorgesehen funktioniert. 

Zu den wichtigsten Indikatoren gehören:

  • Der Prozentsatz der über kontrollierte Funktionen geleiteten Agentenaktionen
  • Einhaltung der Genehmigungsvorschriften für übergeordnete Vorgänge
  • Durchschnittliche Zeit, um ein Ergebnis über Systeme und Akteure hinweg zu erklären
  • Änderungsfehlerraten aufgrund von Funktionsaktualisierungen
  • Auswirkungen auf nachgelagerte Systeme, wie Tickets, Rückerstattungen oder Zugangsänderungen
  • Risikoadjustierte Automatisierungsraten, die die Autonomie anhand einer abgestuften Governance statt anhand des reinen Volumens messen

Diese Kennzahlen zeigen, ob Autonomie sicher, verantwortungsbewusst und vorhersehbar ist und nicht nur einfach aktiv.

Sichere Ausfallpfade

Wenn Agenten auf Fehler stoßen, versuchen sie instinktiv oft, Alternativen auszuprobieren. Diese Improvisation kann während der Erkundungsphase nützlich sein, ist jedoch in der Produktion gefährlich. Unbegrenztes Fallback-Verhalten führt zu doppelten Aktionen, unvollständigen Aktualisierungen und inkonsistenten Zuständen.

Eine einfache Betriebsregel hilft, dieses Risiko einzudämmen: Wenn eine Tier-2- oder Tier-3-Aktion nicht durch eine geregelte Funktion ausgeführt werden kann, sollte die Ausführung an einen weitergeleiteten menschlichen Workflow übergeben werden. Agenten sollten nicht eigenmächtig alternative Toolpfade ausprobieren. Diese Regel ist eine politische Entscheidung, keine technische Einschränkung, und sie gewährleistet, dass die Autonomie zuverlässig und nachvollziehbar bleibt.

Wiedererlangung der Kontrolle angesichts der zunehmenden Verbreitung von MCP

Mit zunehmender Verbreitung von MCP kann die Autonomie die Governance überholen, wenn sie nicht kontrolliert wird. Ein paar entschlossene Schritte helfen dabei, die Kontrolle wiederherzustellen:

  1. Die Veröffentlichung von Rohwerkzeugen als Produktionsendpunkte einfrieren, um zu verhindern, dass unkontrollierte Funktionen zu De-facto-Pfaden werden.
  2. Erstellen Sie einen Funktionskatalog mit Eigentumsverhältnissen, Ebenen und Versionsverwaltung, um unternehmensweite Transparenz zu schaffen.
  3. Wählen Sie einen besonders wirkungsvollen Tier-2-Workflow aus und implementieren Sie ihn durchgängig im geregelten Modell. Dies wird zu einem Musterbeispiel: ein vorgezeichneter Weg, dem Teams folgen können.

Sobald diese vorhanden sind, können Unternehmen die Dynamik der MCP-Einführung in eine strukturierte, vorhersehbare Umsetzung umwandeln, anstatt sie unkontrolliert ausufern zu lassen.

MCP ist ein Konnektor, keine Steuerungsebene.

Es ist wichtig zu verstehen, dass MCP nicht die Steuerungsebene selbst ist. MCP ist ein Konnektorstandard, der die Erkennung und den Aufruf von Funktionen ermöglicht. Er erzwingt keine Governance, garantiert keine sichere Ausführung und bietet keine Rechenschaftspflicht. 

Die KI-Steuerungsebene ist das System, das festlegt, welche Aktionen unter welchen Bedingungen, mit welcher Transparenz und unter welcher Aufsicht zulässig sind. Ohne sie riskieren Unternehmen Dezentralisierung, operative Einschränkungen und reaktive Zentralisierung nach Vorfällen. Die Steuerungsebene verhindert diesen Kreislauf und verwandelt MCP von einem technischen Enabler in eine zuverlässige operative Grundlage.

Vertrauen ist der wahre Gewinn.

Unternehmen hatten schon immer Schwierigkeiten, Veränderungen zuverlässig systemübergreifend umzusetzen und gleichzeitig Governance, Transparenz und Skalierbarkeit zu gewährleisten. SnapLogic wurde entwickelt, um diese Herausforderungen zu lösen, und diese Grundlage erstreckt sich natürlich auch auf die KI-Steuerungsebene. Die Plattform ermöglicht Funktionen statt Skripte, die Durchsetzung von Richtlinien zur Laufzeit, deterministische Orchestrierung, durchgängige Beobachtbarkeit und menschliche Überwachung, wo es darauf ankommt.

In einem KI-gesteuerten Unternehmen ist Autonomie nicht das Schwierige. Das Schwierige ist Vertrauen. Erfolgreich werden nicht die Unternehmen sein, die über die meisten Agenten oder Tools verfügen. Erfolgreich werden diejenigen sein, die eine Ausführungsebene aufbauen, auf die sie sich verlassen können, um Informationen sicher und vorhersehbar in Maßnahmen umzusetzen. 

Beim Betrieb der KI-Steuerungsebene geht es darum, ein System zu schaffen, in dem autonome Aktionen zuverlässig, nachvollziehbar und skalierbar sind und das den Übergang vom Experimentierstadium zur operativen Exzellenz ermöglicht. Um den nächsten Schritt in Richtung einer kontrollierten, produktionsreifen KI-Steuerungsebene zu machen, vereinbaren Sie noch heute einen Termin für eine Demo mit SnapLogic.

Entdecken Sie die AI-Steuerungsebene-Serie

Teil 1: Middleware ist die neue Steuerungsebene für KI
Verstehen Sie, wie MCP die Unternehmensarchitektur neu gestaltet und die Distanz zwischen Absicht und Handlung überbrückt.

Teil 2: Wie eine echte KI-Steuerungsebene aussieht, bevor es zu einer MCP-Ausbreitung kommt
Lernen Sie die Ausführungsprimitive, Governance und Überwachung kennen, die dafür sorgen, dass autonome Systeme sicher und vorhersehbar laufen.

Teil 3: Wie man die KI-Steuerungsebene betreibt, ohne dass Autonomie zu Chaos führt
Dieser Beitrag bietet ein praktisches Betriebsmodell für die Skalierung von KI-Agenten, das Risikomanagement und den Aufbau von Vertrauen in der Produktion.

Direktorin, Lösungsmarketing bei SnapLogic
Kategorie: KI-Integration