Video

SnapLogic-Erfolgsgeschichten Von den geschäftlichen Anforderungen bis zur Implementierung von KI-Lösungen [Integreat 2025]

Transkript:

Mein Kollege Chris Ward, der das Center of Excellence/Center of Enablement leitet, wir erweitern dieses Akronym in beide Richtungen, und ich dachte, wir würden Ihnen drei Kundengeschichten aus verschiedenen Branchen weltweit erzählen und versuchen, Ihnen zu zeigen, wie sie ihre Ergebnisse erzielt haben, wie sie ihre speziellen Geschäftsprobleme gelöst haben und wie das in der Praxis aussehen würde.

Die drei Kunden, über die wir sprechen werden, sind Aptia, ein Marktplatz für Gesundheitsdienstleistungen, Accor, ein Mitgliedschaftsprogramm für Reisen, und Drax, ein Anbieter von erneuerbaren Energien. Am Ende wird es auch Zeit für Fragen und Antworten geben.

Aber fangen wir mit Aptia an. Aptia ist ein langjähriger Kunde von SnapLogic.

Sie kümmern sich um die Verwaltung der Renten und Sozialleistungen für ihr Unternehmen. Sie versorgen also etwa 7.000.000 Menschen in 1.100 Unternehmen mit diesen Gesundheitsleistungen.

Sie sind in den USA, Großbritannien, aber auch in Indien und Portugal tätig. Und so betreiben sie diesen Marktplatz, dieses Portal, auf dem die Menschen sehen können, welche Leistungen ihnen zustehen.

Sie können verschiedene Dienstleistungen anfordern. Daher ist die Einbindung neuer Personen und Unternehmen in ihr System natürlich ein wichtiger Teil ihres Geschäfts, ebenso wie die Möglichkeit, die Interaktion zwischen den Personen, den ihnen zustehenden Dienstleistungen und den Anbietern, mit denen sie zu tun haben, zu verarbeiten.

Also, erstens dürfen sie keine Daten verlieren. Es darf nicht passieren, dass jemand sich für die Krankenversicherung angemeldet hat und dann nicht bekommt, was ihm zusteht.

Dieser Prozess erfordert auch eine Menge manueller Dateneingaben. Pro Teilnehmer dauert das zwar nur fünf bis acht Minuten, aber wenn man das mit Hunderten oder Tausenden von Teilnehmern multipliziert, kommt schnell eine beträchtliche Zeit zusammen.

Je nach Art der Gesundheitsversorgung können auch Lohnabzüge anfallen, die verwaltet werden müssen. Auch diese werden im Laufe der Zeit aktualisiert.

Jeden Monat nehmen sie also 5.000 bis 10.000 verschiedene Datensatzänderungen vor, um all diese Änderungen zu verfolgen, da sich die Gehälter und Ansprüche der Mitarbeiter im Laufe der Zeit ändern. Im Grunde genommen handelt es sich also um eine enorme Datenherausforderung, mit der sich Aptia auseinandersetzen muss.

Es handelt sich also um große Datenmengen, darunter alle Arten von Daten über die versicherten Personen, die Anmeldedaten und ihre Ansprüche. Dabei handelt es sich jedoch nur um die internen Daten von Aptia. Hinzu kommt die Integration mit allen Gesundheitsdienstleistern und Arbeitgebersystemen, mit denen Aptia zusammenarbeiten muss.

Integrationen, die über die Firewall hinausgehen, sind immer besonders spannend. Sie sind kundenspezifisch und unterliegen zudem Compliance-Vorschriften, die sich von Land zu Land unterscheiden.

Und sie können hier auch auf persönlicher Ebene nicht herumspielen. Man kann nicht mit der Gesundheitsversorgung der Menschen herumspielen.

Das wissen sie in der Regel nicht besonders zu schätzen. Hinzu kommen noch die Compliance-Vorschriften und die rechtlichen Auflagen, die im Gesundheitswesen und im Finanzbereich erforderlich sind.

Also die ganze Reihe von Prozessen, nur um sicherzustellen, dass all dies gut funktioniert. Mit SnapLogic konnten sie also im Grunde ähnliche Ergebnisse erzielen, wie wir sie von Spotify gehört haben.

So konnten sie viele Leute dazu bewegen, dort Pipelines zu bauen. Es gelang ihnen tatsächlich, dass Fachleute direkt Pipelines bauten.

Dort arbeiten etwa 30 Personen, wodurch sich die Zeit für die Dateneingabe um 99 % reduziert hat. Die Dateneingabe ist damit praktisch überflüssig geworden.

Nur in Ausnahmefällen muss jemand tatsächlich an die Tastatur gehen. Sie haben auch begonnen, Datenintegratoren für höherwertige Aufgaben für diese Integrationen mit anderen Systemen hinzuzuziehen, insbesondere mit denen außerhalb des Unternehmens.

Aufgrund des Erfolgs wurden sie auf fünf verschiedene Funktionsgruppen im gesamten Unternehmen ausgeweitet. Bis jetzt läuft also alles gut.

Aber wie haben sie das eigentlich gemacht? Chris, warum lüften Sie nicht den Vorhang und erzählen uns, wie das in der Praxis aussah?

Absolut. Wenn wir also versuchen, den operativen Arbeitsablauf bei Aptery aufzuschlüsseln, betrachten wir ihn eigentlich als einen E-Mail-Verarbeitungsworkflow.

Also hatten sie Teams, die E-Mail-Posteingänge manuell überwachten, verschiedene Arten von Plänen. Sie nahmen also die E-Mails entgegen, luden die Anhänge herunter, extrahierten manuell die Daten und Erkenntnisse aus diesen Anhängen und versuchten dann, diese in eine Excel-Vorlage zu übertragen.

Also haben wir einen Schritt zurückgetreten und uns angesehen, welche vier Säulen wir bei der Lösung berücksichtigen müssen. Erstens geht es um die kontinuierliche Überwachung und Automatisierung rund um den Eingang von E-Mails im Posteingang, die Extraktion und Analyse der Anhänge dieser E-Mails und schließlich die Aufschlüsselung der verschiedenen Zuordnungsregeln für jeden dieser Anhänge.

Und dann hatten wir ein strukturiertes JSON-Format, also ein einheitliches Format, mit dem wir arbeiten konnten und das sich sehr einfach in eine Vorlage übertragen ließ, die das Team dann weiterbearbeiten und den Geschäftsteams präsentieren konnte. Der wichtigste Punkt, den es hier hervorzuheben gilt, ist, dass vieles, was wir im Vorfeld sehen, lediglich die Extraktion von Daten ist.

Und dann haben wir noch die Zuordnungsregeln, bei denen das LLM zum Einsatz kommt, um einen Teil dieser Aktivitäten zu unterstützen. Auch bei der Übertragung dieser Regeln in die Excel-Tabelle nutzen wir das LLM als Hilfe.

Und damit schließen wir hier gewissermaßen den Kreis. Wir haben also einen durchgängigen Ablauf der E-Mail von Anfang bis Ende.

Wir möchten diese erste E-Mail ebenfalls als gelesen markieren und damit abschließen. Was die Darstellung in SnapLogix angeht, so haben wir hier eine Pipeline, die Sie auf dem Bildschirm sehen können und die diese Säulen in beiden Snaps aufschlüsselt.

Ein paar Dinge sind zu beachten. Wir haben hier standardmäßige, sofort einsatzbereite Snaps für die Überwachung des E-Mail-Posteingangs am Anfang.

Wir haben einen Router-Snap, mit dem wir die Geschäftsregeln, also die Routing-Logik für die verschiedenen Plantypen und Anhänge, übernehmen und dort eine andere Logik anwenden können. Und gegen Ende erstellen wir die Planübersicht, also die Excel-Vorlage, die wir am Ende erhalten, und schließen dann den Kreislauf, indem wir die E-Mails erstellen, die an das Team gesendet werden.

Okay. Ausgezeichnet.

So funktioniert das also. Wir haben also einige Standardkomponenten.

Wir haben einige bewährte Verfahren. Wir haben einige Muster und Vorlagen, die wir in die Praxis umsetzen können.

Dadurch kann ein zuvor sehr manueller Prozess automatisiert werden, sodass sich die Mitarbeiter auf andere Aufgaben konzentrieren können, beispielsweise darauf, die Gesundheitsbedürfnisse der Menschen besser zu erfüllen. Lassen Sie uns nun ein anderes Beispiel betrachten, und ich hoffe, Sie erkennen allmählich, wie sich hier Themen entwickeln.

Dies deckt sich auch mit dem, was Ralph von Boehringer Ingelheim zuvor gesagt hat. Accor Plus ist also ein Reiseprogramm für Mitglieder, das im asiatisch-pazifischen Raum angeboten wird.

Accra betreibt also eine Reihe von Hotelmarken. Sie haben etwa 25 Hotelmarken, von Fairmont Sofitel und Raffles Hotel im oberen Preissegment bis hin zu Hotels, in denen ich übernachten würde, wie Ibis, Mercure oder Tribe.

In der Region Asien-Pazifik verfügen sie jedoch über zusätzliche Mittel, die sie in 20 verschiedenen Ländern einsetzen. Und natürlich war in jedem dieser verschiedenen Länder und bei all diesen Marken die Matrix aus Fähigkeiten, Stellenbeschreibungen, Vergütung, Karrierechancen usw. sehr, sehr komplex und überhaupt nicht aufeinander abgestimmt.

Also versuchten sie, dies mit der Ein-Stunden-Initiative in Einklang zu bringen. So würde in der gesamten Region Einheitlichkeit herrschen, was ihnen helfen würde, die Hey Job Evaluation Certification zu erhalten, eine Zertifizierung, die im Wesentlichen diese Standardisierung und Vorhersehbarkeit der beruflichen Entwicklung und Ähnliches bescheinigt.

Das große Problem, mit dem die Acarbel Group zu kämpfen hatte, war, dass viele dieser alten Stellenbeschreibungen in unstrukturierten Daten gespeichert waren. Wir sprechen hier von PDFs, Word-Dokumenten und ähnlichen Dateiformaten, sogar von Scans von Ausdrucken, möglicherweise auch in verschiedenen Sprachen.

Und so sind die Rolle, die Verantwortlichkeiten, die Kompetenzen, die Erwartungen an die Führungskräfte völlig unterschiedlich, unterschiedlich definiert, unterschiedlich beschrieben und sogar zwischen den verschiedenen Regionen eines Landes materiell unterschiedlich. Und sie haben dieses strategische Bestreben, all dies zu standardisieren, um es verständlich zu machen, damit dies ihre Personalbeschaffung, ihre Einarbeitung und ihre Leistungsausrichtung erleichtert, sodass jemand weiß, dass ich eine Besoldungsgruppe X habe, was das in diesem Land im Vergleich zu jenem Land tatsächlich bedeutet.

Es sollte zumindest einigermaßen vergleichbar sein. Sie hatten auch diese äußerst schwierige Kultur, daher versuchen sie, die Sprachen und Stellenbeschreibungen und solche Dinge zu standardisieren.

Auch hier ging es wieder darum, all diese Systeme zu standardisieren. Und sie versuchten, all dies von Hand zu erledigen, was einfach nicht skalierbar ist.

Es gibt Verzögerungen, es gibt Unstimmigkeiten, es gibt viel Nacharbeit. Und wieder einmal beeinträchtigen Sie die Existenzgrundlage der Menschen, Sie beeinträchtigen ihr Gehalt, ihre berufliche Entwicklung, ihre Aufstiegsmöglichkeiten oder aus Unternehmenssicht Ihre Fähigkeit, Ihre geschulten Mitarbeiter zu halten, anstatt dass sie zu Wettbewerbern wechseln, was nicht gerade ideal ist.

Sie benötigen also einen skalierbaren Prozess, um all dies zu unterstützen. Wie machen sie das? Ja. Ähnlich wie beim Beispiel Aptera haben wir uns angesehen, wie man den Problemraum aufschlüsseln kann.

Anstatt also alles in das große Sprachmodell zu werfen und zu erwarten, dass es das Problem irgendwie löst, haben wir uns angesehen, welche Schlüsselelemente wir hier berücksichtigen müssen. An erster Stelle stand die Extraktion der Daten, was selbsterklärend ist. Wir wollten die alten Stellenbeschreibungen aus Google Drive herausziehen.

Wir haben sie tatsächlich in einen S3-Bucket übertragen. Sie wollten ihre AWS-Dienste auf der Grundlage dieser Daten besser für andere Zwecke nutzen.

Wir lesen dann diese Stellenbeschreibung, halten inne und lösen dann sozusagen die erste Aufgabe, nämlich die Standardisierung der Stellenmatrix. Wie Dominic bereits erwähnt hat, gab es also unterschiedliche Grade an Konsistenz der Daten in den verschiedenen Regionen und in der Art und Weise, wie diese Daten geordnet und strukturiert waren.

Also suchten wir nach einer Möglichkeit, dies zu standardisieren. Es ist offensichtlich, dass die LLMs bei dieser Art von Arbeit hervorragende Leistungen erbringen.

Also noch einmal: Wir kommen zu einer Art formalisiertem JSON-Schema für diese Daten. Und dann versuchen wir, die von Dominic erwähnte Unternehmenskultur sowie die neue Stellenbeschreibung und das neue Schema für Stellenbeschreibungen abzubilden und zu ergänzen.

Außerdem helfen wir dem LLM dabei, zu verstehen, was eine gute Stellenbeschreibung ausmacht, indem wir ihm vermitteln, wie wir über das Verfassen einer guten Stellenbeschreibung denken. Wenn wir all das in einer Aufforderung zusammenfassen, haben wir am Ende eine überarbeitete Stellenbeschreibung.

Und dann ist der letzte Schritt hier wieder, wie wir das so präsentieren, dass es den Führungskräften und dem Management gezeigt werden kann. Also nutzen wir das LLM, um eine PowerPoint-Präsentation mit dieser neuen Stellenbeschreibung zu erstellen, und übertragen das dann in SuccessFactors, das ist ihr internes HR-System.

Also wirklich eine Lösung für den gesamten Prozess finden, diese Zeit reduzieren und ja, schneller vorankommen können. Die Pipeline ist also wieder sehr, sehr ähnlich: die Daten lesen und zunächst analysieren.

Dann versuchen wir, die zusätzlichen Daten zu ergänzen, ja, die Art der Unternehmenskultur, das neue Schema für die Stellenbeschreibung. Wir informieren das LLM mit einer Systemaufforderung, geben ihm eine bestimmte Aufgabe, eine Rolle, um es dann in die neue Stellenbeschreibung umzuwandeln, und rufen am Ende die Lambda-Funktion auf und laden diese Daten in S3 hoch.

Und ich finde dieses Beispiel besonders interessant, weil ich nicht weiß, ob Ihnen aufgefallen ist, dass eines der Ergebnisse eine PowerPoint-Präsentation ist. Der klassische Arbeitsablauf wäre also in Ordnung gewesen: Wir haben vielleicht alles in SuccessFactors und dann erstellt jemand etwas und kopiert es in PowerPoint – ein klassisches Beispiel für unnötige Arbeit.

Nun müsste jemand mit Fachwissen und Zugriff auf die Systeme diese Aufgabe übernehmen. Aber wenn SnapLogic das kann, wird diese Person dadurch nicht ersetzt. Der Punkt ist, dass diese Person ihre Zeit besser nutzen kann.

Und wenn wir sie von dieser Plackerei befreien können, dann erzielen wir damit Wirkung und Nutzen. Kommen wir nun zum dritten Beispiel unserer rasanten Weltreise.

Wir hatten also einen Kunden aus den USA und einen aus dem asiatisch-pazifischen Raum. Dieser hier ist am nächsten an unserer Heimat. Es handelt sich um Drax. Das ist ein Unternehmen für erneuerbare Energie hier in Großbritannien. Es konzentriert sich in erster Linie auf die Erzeugung erneuerbarer Energie, ist aber auch in den Bereichen nachhaltige Biomasseproduktion sowie Kohlenstoffabscheidung und -speicherung tätig.

Ein wirklich interessantes Unternehmen, da wir immer wieder hören, dass die LLMs immer mehr Strom verbrauchen. Es ist gut zu hören, dass jemand plant, diesen Strom auf saubere und nachhaltige Weise bereitzustellen.

Und so kamen sie auf die Idee, KI nicht für diese Zwecke einzusetzen, sondern für die Verwaltung ihrer Stundenzettel. Stundenzettel sind jedoch ein erhebliches Problem, denn die Erfassung der Arbeitszeit von Mitarbeitern ist – wenn Sie das schon einmal versucht haben, und wahrscheinlich haben wir alle schon einmal unsere Arbeitszeit erfassen müssen – mit viel Aufwand verbunden. Man muss seine Arbeitszeit in ein Stundenzettel-Portal eingeben, aber es gibt auch Kalendertermine.

Es gibt wahrscheinlich irgendwo eine Tabelle. Es gibt eine Art Domänensystem.

In diesem Fall handelte es sich um Azure DevOps-Aufgabensprints, Tickets, die DevOps-Arbeitseinheiten, Projekte und Kostenstellenzuweisungen und dann um die Sammelkategorie „Sonstiges“. Hier kommen die Tabellenkalkulationen, die Zettel auf dem Schreibtisch und was sonst noch alles ins Spiel.

All das musste also zusammengetragen werden, weil man die Leute bezahlen muss. Aber wenn man das von Hand macht, ist es sehr ineffizient, es ist inkonsistent, und die Leute werden mit den Ergebnissen unzufrieden sein, wenn man sie nicht ausreichend bezahlt, und man könnte am Ende zu viel bezahlen und dann eine Menge Zeit verschwendet haben.

Die Verzögerungen dabei sind ebenfalls kostspielig. Nicht nur in Bezug auf die Zeit der damit beschäftigten Personen.

Es ist teuer in Bezug auf die Ergebnisse, weil Sie die Bücher nicht abschließen können und keine Prognosen für den nächsten Finanzzeitraum erstellen können. Das bedeutet, dass Sie möglicherweise nicht das Budget erhalten, das Sie für Ihre nächsten Vorhaben benötigen.

Die Auswirkungen sind enorm. Sie sind also direkt daran beteiligt.

Warum erzählen Sie uns nicht, wie das funktioniert?

Ich war dabei, und ich glaube, einige Leute von Drax sind auch hier im Raum, also ganz in der Nähe. Ja, das war wirklich interessant.

Da ich aus dem Bereich der professionellen Dienstleistungen komme, konnte ich mich sehr gut mit der Art von Arbeit identifizieren, die wir hier umgestalten wollten. Jeden Freitag reichte ich meine Arbeitszeit ein, die ich für verschiedene Projekte aufgewendet hatte.

Das ist sehr zeitaufwendig und das Letzte, was man an einem Freitagnachmittag machen möchte. Ja, bei diesen Themen ging es wirklich darum, sich mit den verschiedenen Quellsystemen auseinanderzusetzen.

Also haben wir die Microsoft Graph APIs verwendet, um alle Daten zu extrahieren, strukturierte Daten in Kalendereinladungen, dort verbrachte Zeit und auch DevOps für die verschiedenen Arbeitsaktivitäten, die das Team täglich durchführte. Interessant dabei war, dass Draxwear sehr darauf bedacht war, sensible Informationen an das LLM weiterzugeben und offenzulegen.

Also wollten sie darüber nachdenken, wie sie Risiken oder die Offenlegung sensibler Daten irgendwie mindern könnten. Also haben wir uns mit der Integration von NVIDIA NEMO Guardrails befasst, was für diejenigen, die es nicht wissen, im Grunde eine LLM-Firewall ist.

Wir können also eine Eingabeaufforderung eingeben, die möglicherweise einige Daten offenlegt, und erhalten dann je nachdem, ob die Daten offengelegt werden, eine positive oder negative Rückmeldung. Das war also die erste Phase.

Anschließend erfolgt die Zuordnung im Projektcode. Auf Grundlage ihres Zeiterfassungsportals werden verschiedene Zuordnungen und Codes, die sie in die Arbeitsaktivitäten übersetzen möchten, die aus der Quelle stammen, mithilfe eines vor Ort gehosteten Open-Source-LLM namens Alarmah vorgenommen. Das Ergebnis ist ein Entwurf für eine Zeiterfassung, bei dem wir wiederum den Menschen in den Prozess einbeziehen möchten und nicht nur eine Zeiterfassung einreichen.

Wir möchten die Qualität einfach überprüfen können. Der letzte Schritt besteht also darin, dass die Beteiligten das Ergebnis überprüfen und genehmigen oder ablehnen können.

Das ist also tatsächlich etwas, das wir, ja, wieder in einer Reihe sehr einfacher Pipelines zusammenfassen konnten, indem wir die Daten aus den verschiedenen Quellendpunkten dort bezogen, sie konsolidierten, zusammenführten, sie dem LLM mit einer Systemaufforderung zur Verfügung stellten und dann diese strukturierte Antwort nahmen und sie gegen Ende auch in die Zeiterfassung dort einordneten. Auch hier haben wir wieder die sofort einsatzbereiten Funktionen genutzt, die wir für die Datenextraktion, -zuordnung und -transformation sowie die neuen KI-Snaps haben.

Ausgezeichnet. Was haben wir also gelernt? Eines der Ziele, die wir bei SnapLogic verfolgen, ist es, uns zu verbessern, weiterzuentwickeln und unseren Kunden dabei zu helfen, sich zu verbessern.

Deshalb haben wir verschiedene Initiativen ins Leben gerufen, um diese Informationen zu erfassen. Es ist also nicht so, dass jemand Drax oder AbbVie oder ein anderes Projekt abliefert und dann geht und diese Informationen auf der Festplatte dieser Person bleiben.

Wir möchten versuchen, dies zu dokumentieren und zu teilen, und dafür sorgen, dass alle so weit wie möglich davon profitieren. In dieser Sitzung möchten wir Ihnen daher in aller Kürze einen Eindruck davon vermitteln, was wir aus diesen Initiativen gelernt haben, und anschließend werden wir darüber sprechen, wie wir dies auf einer strukturierteren Ebene umsetzen.

Auf jeden Fall. Einige davon könnten aus der früheren Sitzung stammen, wenn Sie mit Ben von Spotify zusammenarbeiten.

Einige gemeinsame Themen, die wir hier sehen, wenn wir uns mit diesen KI-Anwendungsfällen befassen, sind meiner Meinung nach, dass wir generell eine klare Vorstellung davon haben, wo wir einen Anwendungsfall aufbauen können. Wenn Sie also vorhin am Slalom-Workshop teilgenommen haben, der sich sehr stark auf die Kapitalrendite konzentrierte und dabei half, einen wirklich klaren Business Case zu entwickeln, der auf der heutigen Arbeitsweise im Unternehmen basiert, dann wissen Sie, welche Risiken und Kosten wir prognostizieren und in ein solides ROI-Modell einbauen können.

Das hilft uns dabei, nicht einfach nur die Technologie einzuführen und alles darauf zu werfen, sondern uns wirklich auf einen klar definierten Bereich des Geschäfts zu konzentrieren, auf den wir uns fokussieren können. Und dann geht es darum, auf einer detaillierten Ebene wirklich zu verstehen, wie dieser Workflow heute aussieht, falls es ihn gibt, sich mit dem Unternehmen zusammenzusetzen und den Prozess von Anfang bis Ende durchzugehen.

Das haben wir mit CCB gemacht, einem unserer Kunden, der ein sehr großes KI-Transformationsprojekt im Bereich der Vermögensfinanzierung durchführt. Wir investieren wirklich viel Zeit in diese Arbeit, und das hilft uns zu verstehen, wo die wichtigsten Reibungspunkte innerhalb des Prozesses liegen und wo wir unserer Meinung nach KI einsetzen können, um in dieser Hinsicht etwas zu bewegen.

Als Nächstes können wir Prototypen mit möglichst vielen realen Daten erstellen. Das hilft uns dabei, alle Randfälle aufzudecken, die in der Produktion auftreten können. Anstatt also zunächst nur Testdaten zu simulieren, um einen ersten Prototyp zu erstellen, können wir die Lösung mithilfe realer Daten verfeinern.

Und dann besteht der Validierungs- und Verfeinerungsprozess darin, dass wir nicht nur eine Sache liefern, sie in Produktion nehmen und dort belassen. Durch Aktivitäten, die in einer Produktionsumgebung mit diesen KI-Anwendungsfällen stattfinden, lässt sich ein großer Mehrwert erzielen.

Es geht darum, die Ergebnisse der Eingabeaufforderungen und die Antworten der LLMs wirklich zu verstehen, um den Anwendungsfall auch in Zukunft zu wiederholen und zu verfeinern. Um all das zusammenzufassen und dann Kunden wie Ihnen anzubieten und Sie auf Ihrem Weg zu unterstützen, haben wir das Identik Elite-Programm entwickelt, einen zwölfmonatigen Enablement-Pfad, der all die Best Practices, die wir bei den verschiedenen Kunden und Anwendungsfällen, mit denen wir im Bereich KI arbeiten, beobachten, systematisieren und zusammenführen soll.

Unser erstes Ziel ist es daher, diesen ersten Anwendungsfall in der Produktion so schnell wie möglich voranzutreiben und Sie dabei zu unterstützen, aber auf sichere Weise, denn wir möchten sicherstellen, dass die richtigen Leitplanken, Beobachtungsmöglichkeiten und Diskussionen über den ROI von Anfang an und nicht erst später stattfinden. Und wenn wir dann auch die Entwicklung von KI-Anwendungsfällen skalieren wollen, möchten wir mit der Weiterbildung beginnen, um eine breitere Belegschaft für die Entwicklung von KI-Anwendungsfällen zu befähigen, wiederum unter Verwendung von Best Practices.

Wir haben also eine Sigma-Framework-Bibliothek, die in unserer Community verfügbar ist und die viele dieser Best Practices dokumentiert und vermittelt, ebenso wie unsere Vorstellungen davon, wie man Dinge richtig macht. Schauen Sie sich diese Bibliothek gerne einmal an.

Wir haben dort auch einige großartige Artefakte.

Ja. Was hat es damit auf sich?

Sie erinnern sich also an Dayles Statistik: 85 % der KI-Projekte werden nicht in die Produktion übernommen. Das liegt daran, dass sie in der Regel an einer dieser Hürden scheitern.

Entweder dauert es zu lange, bis sie in Gang kommen, sodass sie nicht innerhalb einer angemessenen Zeit Ergebnisse zeigen, oder sie werden als nicht sicher empfunden, sodass jemand aus der Rechts- oder Compliance-Abteilung oder einer anderen Abteilung die Hand hebt und sagt: „Stopp, stopp, stopp, stopp, stopp. Das kommt nicht in die Produktion.“

Oder sie werden einfach nicht genutzt. Sie werden nicht angenommen und verkommen so gewissermaßen.

Und so hatten wir das Glück, mit einer Reihe von Kunden im Bereich KI zusammenarbeiten zu können. Wie Sie in Jeremiahs Folien gesehen haben, waren wir ziemlich früh dabei, als es um KI ging.

Wir haben mittlerweile ein ziemlich gutes Gespür dafür, was funktioniert und was nicht, und wir möchten sicherstellen, dass Ihre Projekte zu denen gehören, die funktionieren. Sie gehören zu den 15 %, die erfolgreich sind, die konkrete Ergebnisse zeigen und bei denen wir dann herausfinden können, wie es weitergeht, welchen Ihrer Kollegen wir davon erzählen können, damit auch sie davon profitieren können.

Aber damit sind Chris und ich hier, um in den nächsten Minuten Ihre Fragen zu beantworten, bevor wir uns wieder zu den anderen für die Kamingesprächsrunde gesellen. Gibt es Fragen im Saal? Hier vorne.

Es ist immer so. Tut uns leid, dass wir dich heute zum Laufen bringen.

Wenn Sie LLMs verwenden, um Vorlagen zu füllen und Benachrichtigungen und Ähnliches zu versenden, wie testen Sie diese, bis Sie zufrieden genug sind, um sie in die Produktion zu geben?

Gute Frage. Ja, das betrifft mich persönlich ziemlich stark.

Ich habe an vielen internen Projekten gearbeitet, und das Erste, was mir dabei in den Sinn kam, war die Frage, wie wir Vertrauen in die Ergebnisse aufbauen und den Fortschritt während der Entwicklung verfolgen können. Ich denke, der Schlüssel dazu sind einige KPIs, an denen wir die Lösung ausrichten können.

Es geht also um die Qualität der Ergebnisse, die Konsistenz der Daten, die Einbindung in Bewertungen, ein Test-Framework für das, was wir entwickeln, und die ständige Bewertung dessen. Ja, es geht darum, eine klare Vorstellung davon zu haben, worum es geht.

Nehmen wir unstrukturierte Daten, ordnen sie einem JSON-ähnlichen Format zu, überprüfen die Vollständigkeit dieses Schemas und verfügen über eine Art goldene Testdatensätze, auf die wir zurückgreifen können, um die Qualität der Ausgabe zu orientieren? Aber ja, das ist etwas, worüber wir meiner Meinung nach wirklich nachdenken sollten, bis zu dem Punkt, an dem das AgenTic Elite-Framework wirklich am Anfang des Projekts steht, um zu verstehen, was diese Art von Schlüsselkennzahlen für Qualität und Erfolg sind.

Und wir haben auch Produktfunktionen integriert. Wenn man sich die frühen Versionen des GenAI App Builders ansieht, gab es dort lediglich ein Textfeld, in das man seine Eingabe schreiben konnte.

Das ist soweit gut und schön, aber dabei muss man eine Menge Informationen im Kopf behalten. Die neue Prompt Composer-Workbench in der neuesten Version von AgentCreator bietet Ihnen viel mehr Transparenz, da Sie Ihre Daten und das Schema der Eingabedaten vorliegen haben.

Sie haben Ihre Eingabeaufforderungen, weil Sie immer noch Eingabeaufforderungen erstellen, aber Sie haben einen KI-Assistenten, der Ihnen dabei hilft, wenn Sie möchten. Und Sie können die Ergebnisse in Echtzeit sehen.

Wenn Sie die Eingabeaufforderung ändern, können Sie die Änderung in den Ausgabedaten und im Ausgabeschema sehen. Das ist schon eine große Hilfe.

Und dann gibt es noch die Best Practices, die Fähigkeiten, die Chris und sein Team einbringen können. Und ja, daran arbeiten wir weiterhin.

Ein weiteres Element ist der Agent Visualizer, mit dem Sie sehen können, wann Sie etwas wirklich Agentenhaftes entwickeln. Der Arbeitsablauf ist also nicht deterministisch.

Das Ding findet bis zu einem gewissen Grad selbst heraus, welche Tools es aufrufen und welche Agenten es einbeziehen muss. Die Visualisierung dieses Prozesses ist sowohl in der Entwicklungsphase entscheidend, um zu verstehen, wie das Ding die Aufgabe erfüllt oder möglicherweise nicht erfüllt, als auch später, um die von Ben erwähnte Hörbarkeit zu gewährleisten, damit man verstehen kann, wie es zu einem bestimmten Ergebnis gekommen ist oder eine bestimmte Entscheidung getroffen hat.

Ja. Und um das noch hinzuzufügen: Eine schnelle Lösung, die wir in Betracht ziehen könnten, wäre, das LLM zu bitten, uns ein Konfidenzniveau basierend auf der Aufgabe zu geben, die wir ihm stellen.

Dadurch können wir besser verstehen, was die KI denkt, und ob ihre Antworten mit unseren Anforderungen übereinstimmen. So können wir alle Konfidenzniveaus, die unter einem bestimmten Schwellenwert liegen, zur Überprüfung durch einen Menschen weiterleiten.

Und das gilt nicht nur für die Entwicklungs-, Test- und Iterationsphase, sondern auch für die Produktion. Es ist hilfreich, ja, die Taktik, die Sie dort anwenden können.

Großartig. Nächste Frage.

Okay. Noch eins, dann sind wir fertig.

 Ich arbeite mit einigen Kunden zusammen, die sich sehr gut mit der SnapLogic-Plattform auskennen. Was würden Sie ihnen empfehlen, um ihnen dabei zu helfen, die Nutzung von Agenten auszuweiten und wirklich loszulegen?

Ja. Wir haben also eine Gemeinschaft.

Die Sigma Library, über die wir dort gesprochen haben, bietet einige wirklich gute Ressourcen, die dabei helfen zu verstehen, wie wir die Plattform nutzen können, um KI-Anwendungsfälle zu entwickeln. Darüber hinaus gibt es im Internet jede Menge Material zu Konzepten wie Prompt Engineering, Data Context Engineering und ähnlichen Themen.

Und ich denke, man sollte einfach loslegen, mit dem Aufbau beginnen, Prototypen entwickeln und die Technologie nutzen, um zu verstehen, wie man damit Probleme lösen kann, die im Unternehmen bestehen. Nun, dann los.

Nein, aber ich möchte eines sagen: Einer der Faktoren, die KI-Projekte zum Scheitern bringen, ist der Zugang zu Daten.

Du hast also eine ziemlich coole Demo und kannst im Handumdrehen etwas mit Vibe programmieren. Das wird fantastisch und alle werden sagen: „Oh, wunderbar.“

Können wir Produktionsdaten einspeisen? Wenn Sie bereits SnapLogic-Nutzer sind, dann sind Sie den meisten anderen Marktteilnehmern bereits einen Schritt voraus, da Sie über diese Integrationsplattform und diese Datenplattform verfügen. Sie können sie mit allem verbinden.

Das könnte also etwas sein, das hinter den Kulissen abläuft, wie alle Demos oder Situationen, die wir heute gezeigt haben, oder es könnte etwas viel Sichtbareres sein, wie das, was Jeremiah mutig auf der Bühne mit Cloud Desktop vorgeführt hat. All dies erfordert jedoch die Interaktion mit allen Backend-Systemen.

Wie ich bereits sagte, haben Sie als SnapLogic-Anwender bereits einen großen Vorsprung gegenüber Ihren Kollegen. Beginnen Sie also vielleicht einfach mit der Frage, wofür Sie KI einsetzen sollten, anstatt sich zu fragen, wofür Sie KI einsetzen werden, da Sie bereits Zugriff auf alle Daten haben, die für die KI erforderlich sind. Unser Gründer, Gaurav Dhillon, sagt immer, dass KI an Datenmangel stirbt, und das wollen wir nicht.

Wir möchten gut hydriert sein.

Führende Unternehmen auf der ganzen Welt vertrauen uns