Vidéo

Histoires de réussite SnapLogic : des besoins métier aux solutions d'IA déployées [Integreat 2025]

Transcription :

Mon collègue Chris Ward, qui dirige le Centre d'excellence/Centre d'habilitation, nous développons cet acronyme dans les deux sens, et j'ai pensé que nous pourrions vous raconter trois histoires de clients, issus de différents secteurs d'activité à travers le monde, et essayer de vous montrer comment ils ont obtenu leurs résultats, comment ils ont résolu leurs problèmes commerciaux particuliers et à quoi cela ressemble dans la pratique.

Les trois clients dont nous allons parler sont Aptia, une plateforme dédiée à la santé, Accor, un programme de fidélité dans le domaine du voyage, et Drax, un producteur d'énergie renouvelable. Nous aurons également le temps de répondre à vos questions à la fin de la présentation.

Mais commençons par Aptia. Aptia est un client de longue date de SnapLogic.

Ils gèrent les retraites et les avantages sociaux pour leur entreprise. Ils couvrent donc environ 7 000 000 de personnes avec ces prestations de santé dans 1 100 entreprises.

Ils opèrent aux États-Unis, au Royaume-Uni, mais aussi en Inde et au Portugal. Ils gèrent donc cette place de marché, ce portail où les gens peuvent voir à quelles prestations ils ont droit.

Ils peuvent demander divers services. L'intégration de nouvelles personnes et de nouvelles entreprises dans leur système est donc évidemment un élément clé de leur activité, tout comme la capacité à traiter les interactions entre les personnes, les services auxquels elles ont droit et les prestataires avec lesquels elles traitent.

Tout d'abord, ils ne peuvent subir aucune perte de données. Ils ne peuvent se permettre une situation où une personne a souscrit à une assurance maladie et ne reçoit pas les prestations auxquelles elle a droit.

Ce processus nécessite également beaucoup de saisie manuelle de données. Cela ne prend que cinq à huit minutes par participant, mais lorsque vous multipliez ce chiffre par des centaines, voire des milliers de participants, cela finit par représenter beaucoup de temps.

Ensuite, selon le type de juridiction en matière de soins de santé, il peut y avoir des retenues sur salaire à gérer. Et là encore, celles-ci sont mises à jour au fil du temps.

Ainsi, chaque mois, ils effectuent entre 5 000 et 10 000 modifications différentes dans leurs registres afin de suivre l'évolution des salaires, des droits et autres éléments qui changent au fil du temps. En résumé, Aptia est confrontée à un défi considérable en matière de données.

Il s'agit donc de volumes importants de flux de données, qui comprennent toutes sortes d'informations sur les personnes couvertes, les données d'inscription, leurs droits. Mais il ne s'agit là que des données internes à Aptia, car il faut également tenir compte de l'intégration avec tous les prestataires de soins de santé et les systèmes des employeurs avec lesquels Aptia doit travailler.

Les intégrations qui vont au-delà du pare-feu sont toujours les plus intéressantes. Elles sont spécifiques au client et soumises à des réglementations de conformité qui varient d'un pays à l'autre.

Et ils ne peuvent pas faire n'importe quoi ici, tant sur le plan personnel. On ne peut pas jouer avec la santé des gens.

Ils ont tendance à ne pas beaucoup apprécier cela. Mais il y a aussi toutes les questions de conformité, la surveillance juridique qui est requise dans les domaines de la santé et de la finance.

Tout cela pour s'assurer que tout fonctionne correctement. Grâce à SnapLogic, ils ont pu obtenir des résultats similaires à ceux obtenus par Spotify.

Ils ont donc réussi à convaincre beaucoup de gens de construire des pipelines là-bas. Ils ont même réussi à faire en sorte que des experts en la matière construisent directement des pipelines.

Il y a une trentaine de personnes qui travaillent là-bas, ce qui a réduit le temps de saisie des données de 99 %. Cela a pratiquement éliminé la saisie des données.

Ce n'est qu'à titre exceptionnel que quelqu'un doit réellement se mettre au clavier. Ils ont également commencé à faire appel à des intégrateurs de données pour des tâches de plus haut niveau dans le cadre de ces intégrations avec d'autres systèmes, en particulier ceux situés en dehors de l'entreprise.

Et grâce à leur succès, ils se sont développés pour former cinq groupes fonctionnels différents au sein de l'entreprise. Jusqu'ici, tout va bien.

Mais comment ont-ils procédé concrètement ? Chris, pourquoi ne pas nous dévoiler les coulisses et nous expliquer comment cela s'est passé dans la pratique ?

Tout à fait. Donc, si nous cherchons à décomposer le flux de travail opérationnel tel qu'il existait au sein d'Aptery, nous le considérons vraiment comme un flux de travail de traitement des e-mails.

Ils avaient donc des équipes qui surveillaient manuellement les boîtes de réception, différents types de plans. Ils recevaient les e-mails, téléchargeaient les pièces jointes, extrayaient manuellement les données et les informations contenues dans ces pièces jointes, puis les transposaient dans un modèle Excel.

Nous avons donc pris un peu de recul et examiné les quatre piliers sur lesquels nous devions nous appuyer pour trouver une solution. Tout d'abord, il s'agit de l'automatisation de la surveillance continue de l'arrivée des e-mails dans la boîte de réception, de l'extraction et de l'analyse des pièces jointes à ces e-mails, puis de la décomposition des différentes règles de mappage associées à chacune de ces pièces jointes.

Nous avons alors obtenu un format JSON structuré, c'est-à-dire un format cohérent avec lequel nous pouvions travailler et qui a facilité la conversion en un modèle que l'équipe a pu ensuite présenter aux équipes commerciales. Il est donc important de souligner ici que la plupart des tâches initiales consistent simplement à extraire des données.

Et puis, nous avons les règles de mappage, où le LLM intervient pour prendre en charge une partie de cette activité. Ensuite, pour transposer cela dans la feuille de calcul Excel, nous utilisons également le LLM.

Et voilà, nous avons ainsi bouclé la boucle. Nous avons donc un flux complet de l'e-mail, du début à la fin.

Nous cherchons également à clôturer et à marquer cet e-mail initial comme lu. En ce qui concerne la représentation de cela dans SnapLogix, nous avons ici un pipeline que vous pouvez voir à l'écran et qui décompose en quelque sorte ces piliers dans les deux types de snaps.

Quelques points à souligner. Nous avons ici des snaps standard prêts à l'emploi pour surveiller la boîte de réception des e-mails au début.

Nous avons un routeur instantané qui nous permet de prendre les règles commerciales, la logique de routage pour chacun des différents types de plans et pièces jointes, puis d'y appliquer une logique différente. Et puis, vers la fin, nous avons la génération du résumé du plan, qui est le modèle Excel que nous obtenons, puis nous bouclons la boucle en terminant la génération des e-mails qui sont également envoyés à l'équipe.

D'accord. Excellent.

C'est donc ainsi que cela fonctionne. Nous avons donc quelques composants standard.

Nous avons quelques bonnes pratiques. Nous avons quelques modèles et gabarits que nous pouvons mettre en pratique.

Cela permet de traiter ce qui était auparavant un processus très manuel et de l'automatiser afin que ces personnes puissent se concentrer sur autre chose, comme mieux répondre aux besoins des patients en matière de soins de santé. Passons maintenant à un autre exemple, et j'espère que vous commencerez à voir se dessiner certains thèmes.

Cela correspond également à ce dont Ralph, de Boehringer Ingelheim, parlait tout à l'heure. Accor Plus est donc un programme de fidélité dédié aux voyages qui opère dans la région Asie-Pacifique.

Accra exploite donc plusieurs chaînes hôtelières. Elle compte environ 25 chaînes hôtelières, allant du Fairmont Sofitel et du Raffles Hotel, qui sont des établissements haut de gamme, à des hôtels où je pourrais séjourner, comme l'Ibis, le Mercure ou le Tribe, entre autres.

Mais en Asie-Pacifique, ils disposent également d'un fonds supplémentaire qui leur permet d'opérer dans 20 pays différents. Et bien sûr, dans chacun de ces pays, pour toutes ces marques, la matrice des compétences, des descriptions de poste, des rémunérations, des perspectives d'évolution de carrière, etc. était très complexe et loin d'être harmonisée.

Ils essayaient donc d'harmoniser cela avec l'initiative « One Hour ». Ainsi, dans toute la région, ils vont bénéficier d'une certaine cohérence, ce qui va les aider à obtenir la certification Hey Job Evaluation, qui est essentiellement une certification de cette standardisation et de cette prévisibilité en matière d'évolution de carrière, etc.

Le gros problème auquel était confronté le groupe Acarbel était que bon nombre de ces anciennes descriptions de poste étaient stockées dans des données non structurées. Il s'agissait donc de fichiers PDF, de documents Word, de ce genre de choses, voire de scans d'imprimés, parfois dans différentes langues.

Ainsi, le rôle, les responsabilités, les compétences, les attentes en matière de leadership sont complètement différents, définis différemment, décrits différemment et matériellement différents, même d'une région à l'autre, d'un pays à l'autre. Et ils ont cette volonté stratégique de tout standardiser pour que cela ait un sens, afin de faciliter leur recrutement, leur intégration, leur alignement des performances, pour que quelqu'un sache que je suis de niveau X, quelle que soit la signification de ce niveau dans tel ou tel pays.

Cela devrait être au moins quelque peu comparable. Ils avaient également cette culture très stricte, alors ils essaient de normaliser les langues, les descriptions de poste et ce genre de choses.

Encore une fois, nous sommes en train de normaliser tous ces systèmes. Et ils essayaient de faire tout cela à la main, ce qui n'est tout simplement pas évolutif.

Il y a des retards, des incohérences, beaucoup de retouches à faire. Et encore une fois, vous jouez avec les moyens de subsistance des gens, vous jouez avec leur salaire, avec leur progression de carrière, avec leurs chances de promotion ou, d'un point de vue entrepreneurial, avec votre capacité à retenir votre personnel qualifié plutôt que de le voir partir chez vos concurrents, ce qui n'est pas idéal.

Il vous faut donc un processus évolutif pour prendre en charge tout cela. Comment s'y prennent-ils ? Oui. Comme dans l'exemple d'Aptera, nous avons cherché à décomposer le problème.

Plutôt que de tout confier au grand modèle linguistique et d'attendre qu'il résolve le problème, nous avons examiné les éléments clés à prendre en compte ici. Nous avons donc commencé par l'extraction des données, ce qui va de soi, et nous avons voulu extraire les anciennes descriptions de poste de Google Drive.

Nous les avons en fait transférés dans un compartiment S3. Ils souhaitaient mieux exploiter leurs services AWS pour d'autres besoins basés sur ces données.

Nous avons ensuite lu cette description de poste, nous l'avons mise en pause, puis nous avons en quelque sorte résolu le premier ordre, qui est la normalisation de la matrice des postes. Comme Dominic l'a mentionné, ils avaient donc différents niveaux de cohérence des données entre les différentes zones géographiques et dans la manière dont ils classaient et structuraient ces données.

Il fallait donc trouver un moyen de normaliser cela. Nous savons bien sûr que les LLM excellent dans ce type de travail.

Donc, encore une fois, nous en arrivons à une sorte de schéma JSON formalisé pour ces données. Ensuite, nous cherchons à cartographier et à enrichir le type de culture d'entreprise dont Dominic a parlé, ainsi que la nouvelle cartographie des rôles et le nouveau schéma de description des postes.

De plus, nous aidons le LLM à définir ce qui constitue une bonne description de poste. En résumé, le résultat final est une description de poste transformée.

Et enfin, la dernière étape consiste à présenter ces informations de manière à pouvoir les montrer aux cadres et à la direction. Nous utilisons donc le LLM pour générer une présentation PowerPoint avec cette nouvelle description de poste, puis nous la transférons dans SuccessFactors, qui est également leur système RH interne.

Il s'agit donc vraiment de résoudre le processus de bout en bout, de réduire ce temps et, oui, d'être capable d'aller plus vite. Donc, le pipeline, encore une fois, est très, très similaire : il lit les données et les analyse initialement.

Ensuite, nous cherchons à augmenter les données supplémentaires concernant, oui, le type de culture d'entreprise, le nouveau schéma de description de poste. Nous informons le LLM à l'aide d'une invite système, en lui attribuant une tâche spécifique, un rôle, afin de le transformer en nouvelle description de poste, puis, à la fin, nous appelons la fonction Lambda et téléchargeons ces données dans S3.

Et je trouve celui-ci particulièrement intéressant, car je ne sais pas si vous avez remarqué que l'un des résultats est une présentation PowerPoint. Auparavant, le flux de travail classique aurait été acceptable : nous avions peut-être tout dans SuccessFactors, puis quelqu'un générait quelque chose et le copiait-collait dans PowerPoint, ce qui est un exemple classique de travail inutile.

Il faudrait maintenant quelqu'un qui possède une expertise dans le domaine et qui ait accès aux systèmes, mais si SnapLogic peut le faire, cela ne remplacera pas cette personne. Le fait est que cette personne a mieux à faire de son temps.

Et si nous pouvons les libérer de cette corvée, c'est là que vous obtenez l'impact, l'avantage. Passons donc à un troisième exemple dans notre tour du monde éclair.

Nous avions donc un client américain et un client asiatique. Celui-ci est le plus proche de chez nous. Il s'agit de Drax. C'est une entreprise de production d'énergie renouvelable basée ici même, au Royaume-Uni. Elle se concentre principalement sur la production d'énergie renouvelable, mais elle mène également d'importantes activités dans le domaine de la production durable de biomasse, ainsi que dans celui du captage et du stockage du carbone.

C'est une entreprise vraiment intéressante, car nous entendons sans cesse dire que les modèles linguistiques à grande échelle (LLM) consomment de plus en plus d'énergie. Il est bon d'apprendre que quelqu'un prévoit de fournir cette énergie de manière propre et durable.

Ils ont donc eu l'idée d'utiliser l'IA, non pas pour cela, mais pour gérer leurs feuilles de temps. Mais les feuilles de temps posent un problème important, car suivre le travail des gens, si vous avez déjà essayé de le faire, je veux dire, nous avons probablement tous déjà été soumis à un suivi de notre temps, vous devez aller saisir votre temps dans une sorte de portail de feuilles de temps, mais il y a aussi les événements du calendrier.

Il y a probablement un tableur quelque part. Il existe une sorte de système de domaine.

Dans ce cas, il s'agissait des sprints de tâches Azure DevOps, des tickets, des unités de travail DevOps, des projets et des allocations des centres de coûts, puis des catégories fourre-tout pour tout le reste. C'est là qu'interviennent les feuilles de calcul, les bouts de papier sur le bureau et tout le reste.

Il fallait donc rassembler toutes ces informations, car il faut payer les gens. Mais si vous le faites à la main, c'est très inefficace, cela manque de cohérence et les gens seront mécontents des résultats si vous ne les payez pas suffisamment. Vous risquez alors de les surpayer et de perdre beaucoup de temps.

Les retards dans la réalisation de ces tâches ont eux-mêmes un coût élevé. Ce n'est pas seulement coûteux en termes de temps pour les personnes qui les effectuent.

C'est coûteux en termes de résultats, car vous ne pouvez pas clôturer les comptes ni établir vos prévisions pour le prochain exercice financier. Cela signifie que vous risquez de ne pas obtenir le budget dont vous avez besoin pour mener à bien vos prochains projets.

Les répercussions sont énormes. Vous êtes donc directement impliqué dans cette affaire.

Pourquoi ne pas nous expliquer comment cela fonctionne ?

J'étais là et je crois que certains employés de Drax sont également présents dans cette salle, donc très près de chez moi. Donc, oui, c'était très intéressant.

Ayant une formation dans le domaine des services professionnels, je pouvais très bien m'identifier au type de travail que nous cherchions à transformer ici. Chaque vendredi, je rendais compte du temps que j'avais consacré à différents projets.

Cela prend beaucoup de temps et c'est la dernière chose que vous avez envie de faire un vendredi après-midi. Donc oui, pour ces cas-là, le sujet consistait vraiment à se pencher sur les différents systèmes sources.

Nous avons donc utilisé les API Microsoft Graph pour extraire toutes les données, les données structurées des invitations de calendrier, le temps passé sur place, et nous sommes également passés à DevOps pour les différentes activités professionnelles que l'équipe menait au quotidien. Il est intéressant de noter que Draxwear était très soucieux de fournir et d'exposer des informations sensibles au LLM.

Ils voulaient donc réfléchir à la manière d'atténuer les risques ou l'exposition des données sensibles. Nous avons donc envisagé d'intégrer les garde-fous NVIDIA NEMO, qui, pour ceux qui ne le savent pas, sont en fait un pare-feu LLM.

Nous pouvons donc lui donner une invite qui expose peut-être certaines données et il nous donnera, oui, une réussite ou un échec selon qu'il expose ou non les données. C'était donc la première phase.

Ensuite, nous passons au mappage dans le code du projet. À partir de leur portail de feuilles de temps, nous effectuons divers mappages et codes qu'ils souhaitent traduire en activités professionnelles provenant de la source à l'aide d'un LLM open source, Alarmah, hébergé sur site. Le résultat est une ébauche de feuille de temps. Là encore, nous voulons conserver la composante humaine dans la boucle, et ne pas nous contenter de soumettre une feuille de temps.

Nous voulons pouvoir vérifier la qualité de ce travail. La dernière étape consiste donc à permettre aux parties prenantes d'examiner le résultat et de l'approuver ou de le rejeter.

Il s'agit donc en fait d'un processus que nous avons pu intégrer dans une série de pipelines très simples, en récupérant les données à partir des différents points d'accès sources, en les consolidant, en les fusionnant, en les fournissant au LLM avec une invite système, puis en prenant cette réponse structurée et en la mappant dans la feuille de temps vers la fin. Encore une fois, nous avons utilisé les fonctionnalités prêtes à l'emploi dont nous disposons en matière d'extraction, de mappage et de transformation des données, ainsi que les nouveaux snaps IA.

Excellent. Qu'avons-nous appris ? L'une des choses que nous essayons de faire chez SnapLogic est d'améliorer, de progresser et d'aider nos clients à s'améliorer.

Nous avons donc mis en place diverses initiatives pour tenter de recueillir ces informations. Il ne s'agit pas simplement de livrer un projet Drax, AbbVie ou autre, puis de partir en laissant toutes les informations sur le disque dur de la personne concernée.

Nous voulons essayer de le documenter et de le partager, et veiller à ce que tout le monde en tire le meilleur parti possible. C'est donc l'objectif de cette session : vous donner, à petite échelle, un aperçu de ce que nous avons appris de ces initiatives, puis nous discuterons dans un instant de la manière dont nous procédons à un niveau plus structuré.

Tout à fait. Certains d'entre eux peuvent faire écho à la session précédente si vous êtes avec Ben de Spotify.

Je pense que l'un des thèmes récurrents que nous observons généralement dans ce domaine lorsque nous abordons et discutons de ces cas d'utilisation de l'IA est qu'il est essentiel d'avoir une vision claire des domaines dans lesquels nous pensons pouvoir développer un cas d'utilisation. Si vous avez participé à l'atelier Slalom tout à l'heure, vous savez qu'il était axé sur le retour sur investissement et qu'il visait à aider à élaborer un dossier commercial très clair basé sur la façon dont le travail est effectué aujourd'hui au sein de l'entreprise, sur les risques et sur les coûts que nous pouvons ensuite projeter et intégrer dans un modèle de retour sur investissement solide.

Cela nous aide à éviter de simplement introduire la technologie et de tout mettre en œuvre pour l'utiliser, et nous aide vraiment à nous concentrer sur un domaine précis de l'entreprise sur lequel nous pouvons nous concentrer. Ensuite, nous utilisons cela pour comprendre en détail à quoi ressemble ce flux de travail aujourd'hui, s'il existe, en nous asseyant avec l'entreprise et en parcourant le processus de bout en bout.

Nous avons fait cela avec CCB, l'un de nos clients qui mène un très grand projet de transformation IA dans le domaine du financement d'actifs. Nous investissons vraiment du temps dans cette démarche, ce qui nous aide à comprendre où se situent les principaux points de friction dans le processus et où nous pensons pouvoir apporter l'IA pour faire bouger les choses à cet égard.

La prochaine étape consiste à pouvoir réellement créer un prototype à partir d'autant de données réelles que possible, ce qui nous aide à mettre en évidence tous les cas limites susceptibles de se présenter en production. Ainsi, plutôt que de simplement simuler des données de test au départ pour aider à construire ce prototype initial, l'utilisation de données concrètes réelles nous aide à affiner la solution.

Ensuite, le processus de validation et d'affinage ne consiste pas seulement à livrer un produit, à le mettre en production et à le laisser tel quel. Les activités qui se déroulent dans un environnement de production avec ces cas d'utilisation de l'IA peuvent générer beaucoup de valeur.

Il s'agit vraiment de comprendre les résultats des invites et les réponses des LLM afin de réitérer et d'affiner le cas d'utilisation à l'avenir. Pour résumer tout cela et vous proposer une solution adaptée à vos besoins, nous avons mis en place le programme Identik Elite, un parcours de formation de douze mois qui vise à codifier et à rassembler toutes les meilleures pratiques que nous observons chez nos différents clients et dans les cas d'utilisation avec lesquels nous travaillons dans le domaine de l'IA.

Notre premier objectif est donc d'accélérer autant que possible ce premier cas d'utilisation en production, en vous accompagnant dans cette démarche, mais en le faisant de manière sécurisée, car nous voulons nous assurer que les garde-fous, l'observabilité et les discussions autour du retour sur investissement sont mis en place dès le début plutôt que plus tard. Ensuite, alors que nous cherchons également à développer les cas d'utilisation de l'IA, nous voulons nous lancer dans la mise à niveau des compétences, en permettant à un plus grand nombre de collaborateurs de participer au développement de cas d'utilisation de l'IA, là encore en utilisant les meilleures pratiques.

Nous disposons donc d'une bibliothèque Sigma Framework disponible dans notre communauté qui vise à documenter et à présenter bon nombre de ces bonnes pratiques ainsi que notre façon d'envisager les choses. N'hésitez pas à la consulter.

Nous avons également de superbes artefacts à vous présenter.

Oui. De quoi s'agit-il ?

Vous vous souvenez donc des statistiques de Dayle : 85 % des projets d'IA ne sont pas mis en production. C'est parce qu'ils échouent généralement à l'un de ces obstacles.

Soit ils prennent trop de temps à démarrer et ne donnent donc aucun résultat dans un délai raisonnable, soit ils ne sont pas considérés comme sûrs et quelqu'un du service juridique, du service conformité ou autre lève la main et dit « stop, stop, stop, stop, stop ». Cela ne sera pas mis en production.

Ou alors, ils ne sont tout simplement pas utilisés. Ils ne sont pas adoptés, et ils finissent donc par mourir dans l'œuf, en quelque sorte.

Nous avons donc eu la chance de travailler avec un certain nombre de clients dans le domaine de l'IA. Comme vous l'avez vu dans les diapositives de Jeremiah, nous avons été parmi les premiers à nous lancer dans l'IA.

Nous avons désormais une bonne idée de ce qui fonctionne et de ce qui ne fonctionne pas, et nous aimerions nous assurer que vos projets font partie de ceux qui fonctionnent. Ils font partie des 15 % qui réussissent, qui donnent des résultats concrets et qui nous permettent ensuite de déterminer la suite à donner, à quels collègues nous pouvons aller raconter l'histoire afin qu'ils puissent eux aussi en tirer profit.

Mais sur ce, Chris et moi sommes là pour répondre à vos questions pendant quelques minutes avant de rejoindre tout le monde pour la discussion informelle. Y a-t-il des questions dans la salle ? Juste ici, au premier rang.

C'est toujours comme ça. Désolé, on te fait courir aujourd'hui.

Lorsque vous utilisez des modèles de langage à grande échelle (LLM) pour remplir des modèles et envoyer des notifications et autres, comment les testez-vous afin d'être sûr de pouvoir les mettre en production ?

Excellente question. Oui, cela me touche de près.

J'ai donc travaillé sur de nombreux projets internes, et la première chose qui m'est venue à l'esprit, c'est comment instaurer la confiance dans les résultats et être en mesure de suivre les progrès à mesure que nous développons cela. Je pense donc que la clé réside dans la mise en place d'indicateurs clés de performance (KPI) sur lesquels nous pouvons ancrer la solution.

Il s'agirait donc de la qualité des résultats, de la cohérence des données, de l'intégration de ces éléments dans les évaluations, du cadre de test autour de ce que nous construisons et de l'évaluation constante de celui-ci. Donc oui, il s'agit d'avoir une vision claire de ce dont il s'agit.

Est-ce que nous prenons des données non structurées, les mappons dans un format JSON, vérifions l'exhaustivité de ce schéma et disposons également d'ensembles de données de test de référence auxquels nous pouvons nous référer pour orienter la qualité du résultat ? Mais oui, c'est quelque chose auquel nous devons vraiment réfléchir, dans la mesure où le cadre AgenTic Elite en est vraiment au début du projet, afin de comprendre quelles sont les mesures clés de la qualité et du succès.

Nous avons également intégré des fonctionnalités produit. Si vous regardez les premières versions de GenAI App Builder, vous verrez qu'il ne proposait qu'une zone de texte pour saisir votre invite.

Et c'est très bien, mais cela demande beaucoup de concentration. Le nouvel atelier Prompt Composer, disponible dans la dernière version AgentCreator, vous offre une bien meilleure visibilité, car vous disposez de vos données et du schéma des données d'entrée.

Vous avez vos invites parce que vous continuez à faire de l'ingénierie d'invites, mais vous disposez d'un assistant IA pour vous aider si vous le souhaitez. Et vous pouvez voir les résultats en temps réel.

Lorsque vous modifiez l'invite, vous pouvez voir le changement dans les données de sortie et le schéma de sortie. Cela aide déjà beaucoup.

Et puis, il y a les meilleures pratiques, les compétences que Chris et son équipe peuvent apporter. Et oui, nous continuons à travailler là-dessus.

Un autre élément est le visualiseur d'agent, qui vous permet de voir quand vous construisez quelque chose de véritablement agentique. le workflow donc pas déterministe.

Il s'agit en quelque sorte de déterminer de manière autonome quels outils utiliser et quels agents impliquer. Il est essentiel de pouvoir visualiser ce processus, tant au moment du développement pour comprendre comment le système accomplit ou n'accomplit pas la tâche, que plus tard pour fournir l'audibilité dont parlait Ben afin de comprendre comment il a obtenu un certain résultat ou pris une certaine décision.

Oui. Et j'ajouterais également qu'une solution rapide à envisager serait de demander au LLM de nous donner un niveau de confiance en fonction de la tâche que nous lui demandons d'effectuer.

Cela nous permet en quelque sorte de comprendre ce que pense l'IA, si cela correspond à ce que nous demandons. Nous pouvons ainsi faire remonter tout niveau de confiance inférieur à un certain seuil pour qu'il soit examiné par un humain.

Et cela ne vaut pas seulement pour la phase de construction, de test et d'itération, mais aussi pour la production. C'est utile, oui, c'est une tactique que vous pouvez utiliser.

Très bien. Question suivante.

D'accord. Encore un, puis on sera libres.

 Je travaille avec plusieurs clients qui connaissent très bien la plateforme SnapLogic. Que recommanderiez-vous pour les aider à élargir leur utilisation des agents et, en quelque sorte, à se lancer ?

Oui. Nous avons donc une communauté.

La bibliothèque Sigma dont nous avons parlé contient donc d'excellentes ressources qui permettent de comprendre comment tirer parti de la plateforme développer des cas d'utilisation de l'IA. Au-delà de cela, il existe une multitude de documents sur le web consacrés à des concepts tels que l'ingénierie des invites, l'ingénierie du contexte des données, etc.

Et vraiment, je pense qu'il faut se lancer, commencer à construire, à créer des prototypes, en quelque sorte utiliser la technologie pour comprendre comment l'utiliser pour résoudre les problèmes qui existent au sein de l'entreprise. Eh bien, c'est parti.

Non, mais je vais dire une chose. L'une des choses qui tue les projets d'IA dans l'œuf, c'est l'accès aux données.

Vous avez donc une démo plutôt sympa et vous pouvez coder quelque chose en un rien de temps. Ça va être génial et tout le monde va s'exclamer : « Oh, merveilleux ! ».

Pouvons-nous y intégrer des données de production ? Si vous utilisez déjà SnapLogic, vous avez une longueur d'avance sur la plupart des acteurs du marché, car vous disposez déjà de cette structure d'intégration, de cette structure de données. Vous pouvez la connecter à n'importe quel système.

Il peut donc s'agir d'un élément qui fonctionne en arrière-plan, comme toutes les démonstrations ou toutes les situations que nous avons présentées aujourd'hui, ou d'un élément beaucoup plus visible, comme celui que Jeremiah a courageusement présenté sur scène à l'aide cloud . Mais tous ces éléments nécessitent une interaction avec tous les systèmes back-end.

Comme je le disais, en tant qu'utilisateurs de SnapLogic, vous avez déjà une longueur d'avance sur vos collègues. Vous pouvez donc commencer par vous demander « Que pourrais-je faire avec l'IA ? » plutôt que « À quoi vais-je utiliser l'IA ? », étant donné que vous avez déjà accès à toutes les données nécessaires pour alimenter l'IA. Notre fondateur, Gaurav Dhillon, dit toujours que l'IA meurt de déshydratation des données, et nous ne voulons pas que cela arrive.

Nous voulons être bien hydratés.

Des entreprises leaders dans le monde entier nous font confiance