Dieses Jahr konnte ich nicht persönlich in Las Vegas dabei sein, aber unser SnapLogic-Team war in voller Besetzung vor Ort und sprach mit Kunden und Partnern, die sich im fantastischen Las Vegas versammelt hatten, um die neuesten Nachrichten über die Lage der Branche zu erfahren. Die Gespräche drehten sich um KI, Daten- und Anwendungsintegration, Governance, Lineages und Automatisierung, was gut zu den Themen passt, die die Führungskräfte von AWS in ihren Keynotes angesprochen haben.
MCP steht für viele Menschen definitiv im Vordergrund. Dieser Fokus dürfte sich fortsetzen, da Anthropic das Protokoll nun als Open Source zur Verfügung stellt und es einer neuen Stiftung für agentische KI spendet.
Was folgt, ist keine vollständige Zusammenfassung aller Themen, die in den Keynotes behandelt wurden. Einiges davon bleibt in Las Vegas, aber es gab so viel zu berichten, dass einige Ankündigungen sogar schon vor der Messe bekannt wurden. Ich werde hier versuchen, einige der Ankündigungen hervorzuheben, die für SnapLogic-Anwender am unmittelbarsten relevant sind.
Das Jahr der KI
2025 war definitiv das Jahr der KI bei AWS re:Invent. Im letzten Jahr wurde KI erst in der Mitte der Eröffnungsrede von Matt Garman zum ersten Mal erwähnt. In diesem Jahr tauchten wir fast sofort in das Thema ein, mit dem Versprechen, dass Agenten ihre Wirkung um das Zehnfache steigern könnten. Diese kühne Behauptung wurde durch eine erneute Fokussierung auf Entwickler erklärt, die sich wie ein roter Faden durch alle drei großen Keynotes dieses Jahres zog.
Das Versprechen lautet, dass AWS sich um die Infrastruktur kümmern wird, damit Entwickler ihre Arbeit tun können – eine Aktualisierung dessen, was seit jeher das Markenversprechen von AWS war, nun jedoch für das Zeitalter der KI angepasst. Es reicht nicht mehr aus, einfach nur eine große Infrastruktur bereitzustellen, obwohl es davon reichlich gab, sondern es gibt nun eine erneute Verpflichtung, „skalierbare und leistungsstarke KI-Infrastruktur zu liefern, um KI-Workloads zu möglichst geringen Kosten zu betreiben“.
Viele weitere AWS-Kunden haben sich SnapLogic angeschlossen, um auf AWS Bedrock aufzubauen – doppelt so viele wie im letzten Jahr, wie uns mitgeteilt wurde. Es stehen alle möglichen neuen Modelle zur Verfügung, sowohl von AWS als auch von Partnern wie Mistral.
Viele dieser Entwickler stellen fest, dass die Modelle allein nicht ausreichen. Um nützlich zu sein, benötigen sie spezifisches Kontextwissen über den Prozess, den sie implementieren sollen. Diese tiefe Integration zwischen Modell und Daten ist der Schlüssel zum Erfolg. Die Branche beschäftigt sich schon seit einiger Zeit mit Retrieval-Augmented Generation (RAG), aber AWS schlägt vor, mit seinem neuen „Open Training”-Modell Nova Forge noch einen Schritt weiter zu gehen.
Wir haben von Dr. Swami Sivasubramanian mehr über dieses neue Modell erfahren. Im Grunde geht es darum, wie man Modellen den spezifischen Kontext für den Bereich, in dem sie eingesetzt werden sollen, vermitteln kann. In der Vergangenheit gab es zwei Ansätze:
- Trainieren Sie ein Modell von Grund auf neu. Dieser Ansatz ist unglaublich kostspielig, da er neben enormer Rechenleistung auch fundiertes Fachwissen und Fähigkeiten sowie einen gewissen Zeitaufwand für den Trainingsprozess erfordert.
- Beginnen Sie mit einem vortrainierten Modell und verwenden Sie Feinabstimmung oder verstärktes Lernen. Dieser Ansatz funktioniert bis zu einem gewissen Grad, aber seine Wirksamkeit ist begrenzt. Es besteht auch das Risiko, dass sich das Modell aufgrund von Übertraining zu sehr auf eine bestimmte Aufgabe konzentriert und seine ursprünglichen Fähigkeiten verliert.
Der neue Ansatz in Nova Forge nutzt das, was AWS als „Reinforcement Fine-Tuning” bezeichnet, um die Komplexität und Kosten einer individuellen Schulung zu vermeiden. Diese „Novellas” bieten eine behauptete durchschnittliche Verbesserung der Genauigkeit um 66 % gegenüber Basismodellen und liefern zumindest einige der Vorteile eines individuell geschulten Modells, jedoch ohne den Zeit- und Kostenaufwand, der sonst erforderlich wäre.
Erstellen, dann bereitstellen
Die Entwicklung von Modellen mit spezifischerem Kontextwissen war einer der Faktoren, die den produktiven Einsatz von KI behindert haben. Ein weiterer Faktor, der KI in der „Proof-of-Concept-Falle” gefangen hielt, war jedoch die Governance und Kontrolle. Wie Matt Garman es ausdrückte: „Grenzen schaffen Vertrauen.” Als Zeichen für die Reifung des KI-Marktes gab es eine Vielzahl von Ankündigungen rund um die Festlegung von Richtlinien und die Beobachtung des Verhaltens von Agenten.
Neue Richtlinien in Bedrock Agent Core ermöglichen es Benutzern, nicht nur die Tools und Daten, auf die Agenten zugreifen können, sondern auch deren Verhalten einzuschränken. Das in der Keynote verwendete Beispiel war ein Agent, der nur Rückgaben von Artikeln im Wert von weniger als 1000 US-Dollar bearbeiten kann, wobei die Richtlinie in einer sehr natürlich wirkenden Syntax festgelegt wurde.
Selbst Systeme, die auf einzelnen KI-Modellen basieren, können ihr Verhalten im Laufe der Zeit ändern, wenn sich das zugrunde liegende Modell ändert. Dieses Problem wird natürlich in agentenbasierten Systemen mit dynamischen Kombinationen von Modellen und Tools noch verschärft. Neue Beobachtungsfunktionen helfen dabei, die Funktionsweise und Kommunikation dieser Agenten zu verstehen. Dies ist eine zentrale Voraussetzung für ihren Einsatz in Produktionsumgebungen, in denen sie mit echten Kunden und realen Systemen interagieren.
KI wird erwachsen
Die letzte der drei großen Keynotes hielt Dr. Werner Vogel, Amazons beliebter CTO/Guru – und es war seine allerletzte, da er ab nächstem Jahr jüngeren Stimmen das Feld überlassen wird. Passenderweise verabschiedete er sich mit einem philosophischen Exkurs über die Vergangenheit und Zukunft der Informatik und betonte, dass KI von Technikern verlangt,zu „Renaissance-Entwicklern” zu werden.
Obwohl Werner sich ausdrücklich an „Pro-Code“-Entwickler wandte und nicht an Nutzer von Low-/No-Code-Plattformen wie SnapLogic, gelten viele seiner Ratschläge dennoch auch für uns. Der springende Punkt einer grafischen Entwicklungsumgebung wie der von SnapLogic ist, dass sie von den Nutzern keine tiefgreifenden technologischen Kenntnisse verlangt – in Werners Beispiel also keine I-förmige Kompetenz –, sondern stattdessen Nutzer mit breit gefächertem Fachwissen und ganzheitlichem Verständnis willkommen heißt.
Wie Werner sagte, stößt das sogenannte „Vibe Coding“ auf ein Problem der „Verification Debt“: KI kann Code schneller generieren, als man ihn verstehen kann. Eine grafische Darstellung trägt wesentlich dazu bei, dass mehr Benutzer die Logik einer Pipeline verstehen. KI-Assistenten wie SnapGPT können sowohl bei der Generierung von Pipelines helfen als auch beim Verstehen und Weiterentwickeln derselben, wodurch SnapLogic-Benutzer zu Zentauren werden: erfahrene Menschen, die leistungsstarke Maschinen bedienen.
KI wird zum Mainstream. Matt Garman berichtete, dass mehr als fünfzig AWS-Kunden jeweils über eine Billion Tokens über Bedrock verarbeitet haben. Das ist eine enorme Nutzungsrate, aber um daraus einen realen Mehrwert zu schaffen, müssen die Modelle mit den Unternehmensdaten und -systemen verbunden, in der Praxis beobachtet und verbessert sowie durchgängig den Unternehmensrichtlinien unterworfen werden. Lassen Sie uns darüber sprechen, wie SnapLogic dies ermöglicht.
Holen Sie sich den Entwurf für KI-basierte Automatisierung in diesem Bericht der Harvard Business Review: „Die Leistungsfähigkeit generativer KI und KI-Agenten nutzen.”





