Cette année, je n'ai pas pu me rendre à Las Vegas en personne, mais notre équipe SnapLogic était présente en force pour discuter avec les clients et partenaires qui s'étaient réunis dans cette ville fabuleuse afin d'entendre les dernières nouvelles concernant l'état du secteur. Les conversations ont porté sur l'IA, l'intégration des données et des applications, la gouvernance, les lignées et l'automatisation, ce qui correspond bien aux thèmes abordés par les dirigeants d'AWS dans leurs discours.
Le MCP est sans aucun doute au centre des préoccupations de nombreuses personnes. Cet intérêt devrait perdurer maintenant qu'Anthropic a décidé de rendre le protocole open source et de le donner à une nouvelle fondation dédiée à l'IA agentique.
Ce qui suit ne sera pas un résumé exhaustif de tout ce qui a été discuté dans les discours d'ouverture ; certaines informations resteront confidentielles, mais il y avait tellement de choses à dire que certaines annonces ont même commencé à filtrer avant le salon. Je vais essayer ici de mentionner certaines des annonces qui concernent le plus directement les utilisateurs de SnapLogic.
L'année de l'IA
2025 a sans aucun doute été l'année de l'IA à AWS re:Invent. L'année dernière, la première mention de l'IA n'est apparue qu'à la moitié du discours d'ouverture de Matt Garman. Cette année, nous avons abordé le sujet presque immédiatement, avec la promesse que les agents pourraient multiplier leur impact par 10. Cette affirmation audacieuse s'explique par un regain d'intérêt pour les développeurs, qui a été le fil conducteur des trois grands discours de cette année.
La promesse est qu'AWS s'occupera de l'infrastructure afin que les développeurs puissent créer, dans le cadre d'une mise à jour de ce qui a toujours été la promesse de la marque AWS depuis le premier jour, mais actualisée pour l'ère de l'IA. Il ne suffit plus de fournir une infrastructure importante, même si celle-ci était déjà très présente, mais il faut désormais s'engager à fournir « une infrastructure IA évolutive et puissante pour alimenter les charges de travail IA au coût le plus bas possible ».
De nombreux autres clients AWS ont rejoint SnapLogic pour développer sur AWS Bedrock, soit deux fois plus que l'année dernière, selon nos informations. Toutes sortes de nouveaux modèles sont disponibles, proposés par AWS et par des partenaires tels que Mistral.
Ce que beaucoup de ces développeurs constatent, c'est que les modèles ne suffisent pas à eux seuls. Pour être utiles, ils ont besoin de connaissances contextuelles spécifiques sur le processus qu'ils doivent mettre en œuvre. Cette intégration profonde entre le modèle et les données est la clé du succès. Le secteur pratique depuis un certain temps déjà la génération augmentée par la recherche (RAG), mais AWS propose d'aller encore plus loin avec son nouveau modèle de « formation ouverte » Nova Forge.
Le Dr Swami Sivasubramanian nous en a dit plus sur ce nouveau modèle. Fondamentalement, le problème consiste à donner aux modèles le contexte spécifique du domaine dans lequel ils doivent fonctionner. Il existe historiquement deux approches :
- Entraîner un modèle à partir de zéro. Cette approche est extrêmement coûteuse, car outre une puissance de calcul considérable, elle nécessite également une expertise et des compétences approfondies, ainsi qu'un certain temps pour le processus d'entraînement.
- Commencez à partir d'un modèle pré-entraîné et utilisez le réglage fin ou l'apprentissage par renforcement. Cette approche fonctionne jusqu'à un certain point, mais son efficacité a ses limites. Il existe également un risque que le modèle se concentre trop sur une tâche spécifique en raison d'un entraînement excessif et perde ses capacités d'origine.
La nouvelle approche de Nova Forge utilise ce qu'AWS appelle le « réglage fin par renforcement » pour éviter la complexité et le coût d'une formation personnalisée. Ces « novellas » offrent une amélioration moyenne de 66 % de la précision par rapport aux modèles de base, offrant au moins certains des avantages d'un modèle formé sur mesure, mais sans le temps et les dépenses qui seraient autrement nécessaires.
Construire, puis déployer
La création de modèles avec des connaissances contextuelles plus spécifiques a été l'un des facteurs qui ont freiné le déploiement de l'IA dans la production, mais un autre facteur qui a maintenu l'IA dans la « prison de la preuve de concept » a été la gouvernance et le contrôle. Comme l'a dit Matt Garman, « les limites apportent de la confiance ». Signe de la maturation du marché de l'IA, de nombreuses annonces ont été faites concernant la définition de politiques et l'observation du comportement des agents.
Les nouvelles politiques de Bedrock Agent Core permettent aux utilisateurs de limiter le comportement des agents, et pas seulement les outils et les données auxquels ils peuvent accéder. L'exemple utilisé dans le discours d'ouverture était celui d'un agent qui ne peut traiter que les retours d'articles coûtant moins de 1 000 dollars, la politique étant spécifiée dans une syntaxe très naturelle.
Même les systèmes qui reposent sur des modèles d'IA uniques peuvent modifier leur comportement au fil du temps à mesure que le modèle sous-jacent évolue. Ce problème est bien sûr exacerbé dans les systèmes agentifs qui combinent de manière dynamique plusieurs modèles et outils. Les nouvelles fonctionnalités d'observabilité permettent de comprendre comment ces agents fonctionnent et communiquent, ce qui est une condition essentielle pour les déployer dans des environnements de production où ils interagiront avec de vrais clients et des systèmes réels.
L'IA arrive à maturité
La dernière des trois grandes allocutions a été prononcée par le Dr Werner Vogel, le très apprécié directeur technique et gourou d'Amazon. Il s'agissait en fait de sa toute dernière intervention, puisqu'il cédera la place à des voix plus jeunes à partir de l'année prochaine. Il a conclu de manière tout à fait appropriée par une digression philosophique sur le passé et l'avenir de l'informatique, soulignant à quel point l'IA exige des techniciens qu'ils deviennentdes « développeurs de la Renaissance ».
Même si Werner s'adressait explicitement aux développeurs « pro-code », et non aux utilisateurs de plateformes low-code/no-code telles que SnapLogic, la plupart de ses conseils restent valables pour nous. L'intérêt d'un environnement de développement graphique tel que celui de SnapLogic réside dans le fait qu'il ne nécessite pas que les utilisateurs aient des connaissances approfondies en technologie (devenir « en forme de I », selon l'exemple de Werner), mais qu'il accueille plutôt des utilisateurs possédant une expertise étendue et une compréhension globale.
Comme l'a dit Werner, ce qu'on appelle le « vibe coding » se heurte à un problème de « dette de vérification » : l'IA peut générer du code plus rapidement que vous ne pouvez le comprendre. Une représentation graphique aide grandement un plus grand nombre d'utilisateurs à comprendre la logique d'un pipeline. Les assistants IA tels que SnapGPT peuvent aider à la fois à générer des pipelines, mais aussi à les comprendre et à les faire évoluer, aidant ainsi les utilisateurs de SnapLogic à devenir des centaures : des humains experts chevauchant des machines puissantes.
L'IA se généralise. Matt Garman a indiqué que plus de cinquante clients AWS ont traité plus d'un trillion de jetons chacun via Bedrock. C'est une utilisation considérable, mais pour la transformer en valeur réelle, il faut que les modèles soient connectés aux données et aux systèmes de l'entreprise, observés et améliorés en action, et régis par les politiques de l'entreprise tout au long du processus. Voyons comment SnapLogic y parvient.
Découvrez le plan d'action pour l'automatisation basée sur l'IA dans ce rapport de la Harvard Business Review, «Exploiter la puissance de l'IA générative et des agents IA».






