Si vous avez suivi les discussions sur l'IA d'entreprise cette année, vous avez certainement entendu la même question revenir sans cesse : devons-nous créer des agents autonomes... ou miser davantage sur l'IA avec intervention humaine ?
C'est précisément cette tension qui a poussé Jordan Millhausen (l'un de nos ingénieurs solutions) et moi-même à organiser récemment webinar Augmented Intelligence vs. Autonomous Agents » (Intelligence augmentée contre agents autonomes). Nous ne voulions pas d'une nouvelle campagne publicitaire. Nous voulions offrir aux équipes un guide pratique pour déployer l'automatisation de l'IA dans le monde réel, où les humains, les contrôles des risques et les données désordonnées font partie intégrante du travail.
La réalité du secteur : l'ère des agents est arrivée, mais celle du « lavage d'agents » aussi.
Commençons par présenter honnêtement le contexte du secteur. L'IA agentique est sans aucun doute l'une des principales tendances actuelles dans le monde de l'entreprise. Mais Gartner prévient également qu'une grande partie des projets « agentics » seront annulés d'ici 2027 en raison de leur coût, de leur valeur incertaine ou de la faiblesse des contrôles des risques. Et ils ont dénoncé le « agent washing », cette pratique qui consiste pour les fournisseurs à apposer cette étiquette sur des produits qui ne sont en réalité que des chatbots avec quelques fonctionnalités supplémentaires.
La question n'est donc pas « Les agents sont-ils réels ? » Ils le sont. La question est « Où ont-ils leur place et comment les intégrer en toute sécurité dans des opérations qui fonctionnent déjà ? »
C'est la question que Jordan et moi avons décidé d'aborder.
Ce que nous entendons par agents vs intelligence augmentée
Au début de la session, je me suis appuyé sur une définition de Gartner qui me plaît : les agents IA sont des entités logicielles autonomes ou semi-autonomes qui perçoivent, décident et agissent en vue d'atteindre des objectifs. En d'autres termes, ils ne se contentent pas de suivre un script fixe. Ils peuvent choisir des outils, s'adapter aux conditions et poursuivre leur objectif même lorsque la réalité (ou les données d'entrée) ne coopère pas.
En revanche, l'intelligence augmentée est ce que de nombreuses organisations font déjà aujourd'hui : utiliser l'IA pour des étapes distinctes au sein les workflows prévisibles. Pensez à résumer un document, extraire des champs ou rédiger une recommandation... puis faire une pause pour qu'une personne puisse le vérifier ou l'approuver.
Aucun des deux modèles n'est « meilleur » que l'autre. Ce sont deux instruments différents. L'astuce consiste à savoir lequel utiliser et à quel moment.
Pourquoi la plupart des projets d'IA échouent avant la mise en production
Nous avons également abordé le sujet qui fâche : les preuves de concept sont légion, mais les déploiements en production sont rares. J'ai cité des données montrant que la majorité des initiatives en matière d'IA ne franchissent jamais ce cap, et que les obstacles sont toujours les mêmes : accès aux données, confidentialité, sécurité, gouvernance et conformité.
Dans notre propre enquête, 94 % des personnes interrogées ont déclaré rencontrer des obstacles à une utilisation efficace de l'IA, même si beaucoup l'utilisent déjà quotidiennement. La raison ? Il est facile de faire une démonstration de l'IA sur des données hors ligne propres. Il est difficile de connecter l'IA à de véritables systèmes d'entreprise sans ouvrir de failles de sécurité.
C'est également la raison pour laquelle des normes telles que le Model Context Protocol (MCP) font leur apparition partout : le MCP crée un moyen client-serveur cohérent permettant aux modèles d'appeler des outils et des sources de données sans intégrations personnalisées ponctuelles. Pensez à « l'USB-C pour l'IA ».
Ce qui nous amène au cœur du webinar: comment choisir entre l'augmentation et l'agentivité dans la pratique.
Les 3 points à retenir du webinar
1) Utilisez une règle de décision simple : auditabilité ou rapidité
Voici la règle empirique que j'ai partagée :
« Une auditabilité déterministe là où cela compte, une vitesse probabiliste là où cela importe. »
Si le résultat doit être parfaitement traçable (c'est-à-dire les étapes réglementaires, les autorisations à haut risque, tout ce qui nécessite un enregistrement infaillible « qui/quoi/pourquoi »), vous avez besoin d'une intelligence augmentée avec des points de contrôle humains clairs.
Si la tâche concerne davantage le débit et la résilience, où le coût de l'attente humaine est plus élevé que le coût des exceptions occasionnelles, cela plaide fortement en faveur d'une exécution par un agent, à condition qu'elle s'inscrive dans le cadre des règles établies.
En d'autres termes : ne demandez pas « Un agent peut-il faire cela ? », mais « Un agent devrait-il faire cela, compte tenu du risque commercial ? ».
2) « Human in the loop » est un cadran, pas un interrupteur.
L'une des idées fausses les plus courantes que je constate : les gens considèrent la supervision comme un système binaire. Soit un agent est totalement autonome, soit les humains approuvent tout. Ces deux extrêmes sont voués à l'échec.
Au cours de la session, nous avons discuté de la définition de seuils de confiance et de chemins d'exception afin que l'agent ne passe à l'échelon supérieur qu'en cas d'incertitude ou lorsque la politique l'exige. De cette façon, les humains restent concentrés sur les cas limites, sans avoir à surveiller l'automatisation.
Le véritable indicateur clé de performance (KPI) n'est pas « le nombre d'étapes automatisées ». Il s'agit d'une combinaison des éléments suivants :
- taux de résolution automatique
- taux d'exception
- amélioration du temps de cycle
- charge de révision humaine
Si vous transformez la surveillance en une boucle de rétroaction, le système s'améliore. Si vous transformez la surveillance en un contrôle à chaque étape, vous ne faites que recréer un travail manuel avec de nouveaux outils.
3) La gouvernance et l'interopérabilité sont la voie vers une expansion sécurisée.
La démonstration de Jordan l'a clairement montré. Nous avons commencé par un flux augmenté : le traitement intelligent des documents (IDP) a extrait un PDF dans un JSON structuré, puis a fait une pause pour révision. Ensuite, nous sommes passés à un flux agentique qui a mis à jour Salesforce, géré les conditions d'échec réelles (comme les limites de longueur des champs) et continué sans interrompre le workflow.
Ce qui rendait cela sûr, ce n'était pas le modèle. C'était la couche des outils régulés :
- Outils créés une seule fois et réutilisés par tous les agents
- Enveloppé avec les politiques APIM et les autorisations RBAC
- Entièrement observable avec trace/télémétrie
Et c'est là que le MCP prend toute son importance dans les environnements d'entreprise. Les pipelines SnapLogic peuvent agir comme des serveurs MCP (exposant des outils régis à tout agent externe) et comme des clients MCP (appelant des outils hébergés dans des serveurs MCP externes). Cela vous offre une interopérabilité sans sacrifier le contrôle.
En bref : la sécurité à grande échelle découle d'un accès standardisé aux outils et à la gouvernance d'entreprise, et non de l'espoir qu'un LLM se comporte comme vous le pensez, et ce de manière cohérente, même face à des données désordonnées.
Où aller à partir d'ici ?
Si vous ne devez retenir qu'une seule chose de cette session, retenez ceci :
Les agents et l'intelligence augmentée sont complémentaires. Le modèle d'entreprise gagnant est augmenté là où la confiance est importante , agentique là où la rapidité est importante, le tout régi par des outils et des politiques réutilisables.
Le cycle médiatique continuera de tourner. Certains projets d'agents échoueront. Mais les équipes qui réussiront seront celles qui considèrent l'autonomie comme une capacité à acquérir, et non comme une case à cocher pour acheter.
Si vous souhaitez revoir la démonstration ou la partager avec votre équipe, procurez-vous l'enregistrement. Et si vous êtes en train de réfléchir à la décision « augmenté ou agentique » pour un flux de travail réel, je suis toujours ravi de comparer nos notes.





