Repensez à la première génération d'agents d'intelligence artificielle de votre équipe. La création d'une intégration point à point sur mesure directement avec un système clé unique comme Salesforce ou Dropbox a probablement nécessité un effort d'ingénierie considérable. Le résultat était un outil puissant, conçu à cet effet, dont la planification, la conception, les tests et le déploiement ont demandé beaucoup de temps et d'efforts.
Nous sommes aujourd'hui à la veille de l'événement. Votre équipe vient de lancer un nouvel agent à l'aide du protocole de contexte de modèle (MCP). Le développement a été encore plus rapide grâce à l'utilisation d'un protocole standardisé au lieu de créer de nouvelles connexions personnalisées à vos applications d'entreprise telles que Salesforce, Jira, Slack et autres. Le résultat a été une réduction du temps de déploiement de la production, un rêve pour les développeurs.
Cette agilité change la donne, mais comme toute technologie puissante, elle s'accompagne de compromis. Ce billet jettera un coup d'œil sous les couvertures pour expliquer exactement ce que fait MCP pour simplifier l'intégration, utilisera une analogie réaliste pour clarifier sa fonction, et explorera les coûts d'infrastructure et les considérations de performance qui en découlent.
Enfin, nous fournirons des recommandations concrètes pour exploiter toute la puissance du MCP sans laisser ses coûts cachés compromettre votre réussite globale.
Que fait MCP ?
Comprenons ce qui alimente cette agilité en regardant sous le capot et en nous rappelant ce que fait MCP. À toutes fins utiles, MCP fait ce qui suit :
- Normalisation d'une interface et d'un environnement pour les modèles d'IA
- Le LLM est axé sur la communication des données, la sélection et l'utilisation des outils.
- Modularité et interopérabilité pour la conception des flux de travail et des lignes de conduite (écosystème "prêt à l'emploi")
- Fournit aux développeurs l'abstraction et la simplicité nécessaires pour accélérer les efforts de développement.
L'idée est de simplifier le processus de construction d'intégrations avec LLM et de faciliter la consommation de données et de ressources, tout en simplifiant la logique et les règles commerciales en utilisant le langage naturel. Cela signifie qu'un LLM à usage général doit maintenant être dynamiquement chargé avec des données, des attentes et des contraintes pour prendre des décisions. Les informations doivent être chargées pour chaque tâche en fonction du contexte.
Fait amusant : il y a plus de 16K serveurs MCP accessibles au public.
MCP : le concierge du modèle d'IA
Pour expliquer le MCP, j'aime utiliser l'analogie réelle du concierge d'un hôtel. Imaginez que vous venez de vous enregistrer dans un grand hôtel dans une ville étrangère. Vous vous adressez au bureau du concierge et demandez de l'aide pour organiser une soirée romantique avec votre conjoint, au cours de laquelle vous pourrez dîner et assister à un spectacle de théâtre.
Le concierge ne fait pas personnellement la cuisine, ne possède pas le théâtre et ne vous conduit pas sur place. Il utilise plutôt son réseau de services locaux de confiance pour passer des appels, vérifier les systèmes et recueillir des informations, sans impliquer le client. Tout cela dans le but de trouver les bons restaurants, d'obtenir le bon spectacle et les bonnes places de théâtre, et de déterminer si un taxi, un service de covoiturage ou une limousine peut répondre à votre demande.
Ils comprennent vos préférences ("Je préfère les endroits français traditionnels et romantiques avec de la musique"), appliquent des règles d'accès ("Ce restaurant ne prend des réservations que par l'intermédiaire d'un certain système") et vous renvoient une réponse adaptée : une réservation pour un dîner, des billets de spectacle et une voiture de ville pour le transport. Vous n'avez pas besoin de comprendre le fonctionnement de chaque entreprise ni de vous préoccuper des moindres détails. Le concierge se contente de gérer la complexité en coulisses.
MCP fonctionne de la même manière pour les modèles d'IA. Lorsqu'un LLM reçoit une demande du type "résumez les derniers chiffres de vente de l'entreprise", MCP récupère les bonnes données à partir de sources approuvées (par exemple, des bases de données, des API ou des disques cloud ), gère les contrôles d'accès et fournit les informations pertinentes dans un format cohérent.
Il masque la complexité de la connexion à de multiples systèmes, en veillant à ce que le modèle dispose toujours du bon contexte, qu'il soit sécurisé et qu'il fonctionne à la demande. Tout comme un concierge qui s'assure que les clients obtiennent ce dont ils ont besoin sans effort.
Les coûts cachés de l'agilité
Toutefois, cette efficacité a des contreparties. Comme pour le concierge d'un hôtel, une conversation initiale est nécessaire pour définir les besoins, les restrictions et les préférences du modèle d'IA. Cela nécessite souvent un va-et-vient conversationnel, où les recommandations initiales donnent lieu à un retour d'information et où la requête est affinée. Cela peut entraîner une certaine latence dans l'obtention d'une réponse finale satisfaisante.
La clé du succès réside dans la compréhension des compromis impliqués et dans l'optimisation de la solution pour vos besoins particuliers. Le MCP contribue à résoudre les problèmes d'intégration technique, mais ce faisant, il introduit de nouveaux coûts d'infrastructure et de nouvelles considérations en matière de performances.
Nous allons examiner pourquoi ces agents peuvent être gourmands en ressources et fournir des recommandations concrètes pour exploiter la puissance du MCP sans laisser ses coûts cachés compromettre votre réussite globale.
Ce que MCP fait pour l'entreprise
L'objectif principal du MCP est de réduire la complexité de la conception, de diminuer le temps de développement et d'améliorer l'évolutivité de l'ingénierie.
Du point de vue de l'entreprise, il débloque les silos de données et connecte les applications de manière dynamique, ce qui permet une meilleure visibilité des modèles de données, une prise de décision plus rapide et des opérations dynamiques en temps réel.
Le monde avant le MCP
Pour comprendre l'impact du MCP, considérez le cauchemar classique de l'intégration. Imaginez que votre équipe évalue 3 LLM différents (de Google, OpenAI et Anthropic) et doive les connecter à 4 outils internes (Jira, Salesforce, Confluence et une base de données de produits).
Il s'agit d'un problème "N x M" qui nécessite la construction et la maintenance de 3 x 4 = 12 intégrations point à point uniques. L'ajout d'un nouvel outil signifie que vos ingénieurs doivent écrire du code ou créer de nouveaux pipelines pour le connecter aux trois modèles, ce qui représente un temps considérable consacré à une "logique de collage" unique.
Le défi s'étend à la gestion des changements. Par exemple, si une intégration utilise Dropbox pour le stockage de fichiers cloud (connecté via une API directe ou des SnapLogic Snaps préconstruits (la méthode la plus rapide pour abstraire la complexité de l'API), une décision stratégique ultérieure de consolidation vers OneDrive nécessite des ajustements importants pour prendre en compte les différences de contrôle d'accès et de fonctionnalité dans toutes les intégrations existantes.
Le monde avec MCP
Avec MCP, l'équipe met en œuvre un "serveur MCP" standard pour gérer les opérations de fichiers pour tous les systèmes de stockage cloud souhaités, ou crée un seul serveur MCP de stockage de fichiers cloud . L'avantage principal est une interface unique et inchangée pour l'interaction du LLM avec le système de fichiers, ce qui élimine la nécessité de modifier le "code de collage". Cela simplifie considérablement le processus pour les agents et les développeurs lorsqu'ils échangent différents LLM ou intègrent de nouveaux outils.
Cette réduction des frictions techniques est le principal avantage. Avant MCP, la complexité même de l'intégration rendait les équipes très sélectives en matière de connexions, ce qui nécessitait une spécification manuelle des outils et un mappage détaillé des fonctionnalités de l'API avec les capacités du LLM.
Le MCP réduit les frictions et les efforts nécessaires, ce qui accélère la mise sur le marché de la solution et le déploiement auprès des clients.
Les capacités dynamiques favorisent l'agilité
Pour mieux comprendre pourquoi cela fonctionne, examinons l'interaction avec les serveurs MCP. Après avoir établi la connectivité, les capacités du serveur MCP sont annoncées de manière dynamique au point d'extrémité du client MCP.
Cette capacité de découverte automatique est l'un des principaux avantages : les développeurs n'ont pas besoin de cartographier ou de définir manuellement les capacités d'un outil à chaque fois, car le LLM décide dynamiquement de celles qu'il convient d'exploiter. C'est comme le concierge d'un hôtel qui sait qu'il doit ignorer les forfaits non pertinents et se concentrer uniquement sur les billets de spectacle. Le MCP simplifie la création d'agents complexes en facilitant la construction d'un écosystème multi-outils.
Les entreprises intelligentes savent que chaque intégration est importante et que l'agilité est essentielle. Il y a deux façons de réaliser la valeur de MCP :
- L'utilisation de serveurs MCP disponibles dans le commerce pour l'interfaçage avec des applications standard (SaaS et sur site).
- La création de serveurs MCP personnalisés pour exposer les processus d'entreprise propriétaires, les pipelines de données, les applications spécifiques, les rapports et les informations sur les données spécifiques à l'entreprise, ce qui permet de débloquer le véritable avantage concurrentiel.
Des connexions de données plus intelligentes
Un iPaaS holistique comme SnapLogic, qui gère les données, les applications et la gestion des API tout en restant agnostique en matière de LLM, facilite les choix de type "best-of-breed".
Les connecteurs prédéfinis et les modèles de pipeline accélèrent la création de nouveaux pipelines, ce qui réduit les efforts et donne un coup de fouet au développement d'agents et d'automatismes. Ces automatismes et pipelines de données personnalisés peuvent ensuite être exposés en tant que serveurs MCP pour les les workflows et agents AI les workflows .
L'augmentation de la vitesse de conception, de déploiement et d'itération conduit à des décisions commerciales plus rapides et à un meilleur accès aux données commerciales.
Ces gains d'efficacité permettent de dégager une valeur souvent inaccessible aujourd'hui. Au moment de décider où construire votre premier serveur MCP, concentrez-vous sur les domaines d'activité clés suivants :
- Zones à forte intensité de temps et de ressources où il est difficile de relier les points de données
- Des capacités de données qui favorisent directement la prise de décision au sein de l'entreprise
- Les processus et les procédures sont souvent bloqués dans l'attente de données
- Domaines dans lesquels le manque d'informations ralentit les gens (par exemple, "Si seulement j'avais ces informations, je pourrais faire cela plus vite ou mieux").
S'il est correctement exécuté, l'investissement dans ces domaines "difficiles à connecter" peut avoir un effet multiplicateur important, en améliorant l'expérience des clients, en augmentant les revenus et en permettant de proposer des offres personnalisées sur le marché.
Des pistes de réflexion : FAQ
Oui, avec la capacité de serveur MCP de la plateformeintégration SnapLogic, n'importe quel pipeline peut être converti en un serveur MCP personnalisé. Cela simplifie, étend et permet de réutiliser les capacités personnalisées que vous avez déjà construites.
La sécurité de l'utilisateur et le contrôle d'accès concernant l'authentification et l'autorisation avec les serveurs MCP peuvent être gérés par deux mécanismes différents :
- Jeton de support : un seul jeton d'accès est utilisé pour toutes les demandes. Généralement utilisé pour les contrôles d'accès de base.
- OAuth 2.0 : chaque utilisateur est authentifié et autorisé individuellement à l'aide d'un jeton d'accès unique basé sur une session afin de permettre un suivi et des contrôles d'accès affinés.
Oui, l'évolutivité et l'utilisation doivent être planifiées et dimensionnées correctement. Ce n'est pas différent de ce qui se passe avec l'accès à l'API.
Cela dépend de l'objectif et de la conception de votre serveur MCP, mais il n'est pas rare que plusieurs pipelines SnapLogic soient mappés sur un seul serveur MCP. Les fonctions individuelles de MCP peuvent correspondre à des pipelines différents.
Exploiter le pouvoir des agents de manière responsable
MCP est un protocole révolutionnaire qui simplifie la création d'agents puissants capables d'avoir un impact réel sur les entreprises. La clé du succès réside dans une conception adéquate et une compréhension de la technologie sous-jacente.
En mettant en œuvre une surveillance appropriée, des garde-fous et des contrôles en temps réel, les équipes peuvent exploiter la puissance des agents MCP en toute sécurité, de manière durable et rentable. Avec une compréhension claire de la technologie, de ses cas d'utilisation et le choix d'une solution de création d'agents agnostique et flexible, les besoins de votre entreprise dicteront efficacement la bonne approche.
Visitez la plateforme intégration SnapLogic pour en savoir plus.





