Par secteur d'activité
Par fonction
Par workflows populaires
Par solution
Plateforme tout-en-un d'intégration de données et d'applications.
Transférez vos données dans et vers le cloud avec le visual ETL/ELT et le reverse ETL.
Connectez toutes les applications grâce à nos solutions iPaaS no-code/low-code.
Créez, gérez et sécurisez efficacement toutes vos API à grande échelle.
Faites l'expérience de la première plateforme d'intégration en self-service.
Créez des applications et des automatismes alimentés par LLM en quelques minutes.
L'automatisation s'applique à tous les domaines de votre entreprise.
Favoriser la rentabilité et la croissance grâce à des stratégies conjointes de vente et de marketing.
Partenariats pour les fournisseurs ISV, MSP, OEM et intégrés.
Accédez à un écosystème de partenaires de première classe.
Accédez au portail SnapLogic Partner Connect.
Accédez gratuitement aux ressources des partenaires SnapLogic.
Recherchez des partenaires dans notre réseau mondial de premier ordre.
Les succès de nos clients continuent de façonner celui de SnapLogic.
Notre communauté de réflexion, d'entraide, de formation des clients et de reconnaissance.
Reconnaître les individus pour leurs contributions à la communauté SnapLogic.
Améliorer votre expertise en matière d'intégration intelligente et d'automatisation de l'entreprise.
Mise en avant des clients et partenaires qui ont transformé leurs organisations grâce à SnapLogic.
En savoir plus sur les avantages que nos clients tirent de l'utilisation de SnapLogic.
La section où retrouver les eBook, les livres blancs, les vidéos et plus encore.
SnapLogic est là pour vous accompagner tout au long de votre expérience.
Regardez les sessions à la demande !
Les points de vue de plus de 900 personnes interrogées
Recherchez un terme ou une expression qui vous intéresse !
ADLS dans Azure fait référence à Azure Data Lake Storage, une solution de stockage de données évolutive et sécurisée fournie par Microsoft Azure.
Apache Hive est un logiciel libre conçu pour l'entreposage de données. Il permet d'analyser et d'interroger de grandes quantités de données.
Une API permet à différentes applications logicielles de communiquer et de partager des données.
Un développeur API est un ingénieur logiciel spécialisé dans la création, la maintenance et la mise en œuvre d'API (interfaces de programmation d'applications).
La fonctionnalité de l'API fait référence aux méthodes spécifiques et aux formats de données qu'une API peut gérer.
La gouvernance des API comprend l'ensemble des pratiques qui garantissent la gestion et l'utilisation efficaces des API.
Une API (Application Programming Interface) est un ensemble d'outils de programmation utilisés par les ingénieurs pour intégrer des fonctionnalités offertes par des tiers. L'utilisation d'une API permet aux ingénieurs de développer des logiciels plus rapidement, avec un ensemble de fonctionnalités plus riche et moins de besoins de maintenance continue.
Le cycle de vie d'une API comprend les étapes par lesquelles passe une API, de sa création à sa suppression.
La gestion des API permet de créer, d'évaluer et d'analyser les API. Découvrez les plateformes d'API et leur utilisation dans les entreprises.
Un gestionnaire d'API est un outil qui gère et sécurise le trafic API, facilitant ainsi la connexion entre différentes applications.
Un portail API est un centre centralisé de gestion et d'accès aux API.
La rationalisation des applications est le processus d'évaluation et d'optimisation des applications logicielles d'une organisation.
Un flux de travail automatisé est une série d'actions automatisées qui remplacent les étapes manuelles d'un processus d'entreprise.
AWS Redshift est un service d'entrepôt de données et d'analyse basé sur cloud et géré par Amazon Web Services. Voici pourquoi AWS Redshift est si important.
Découvrez l'objectif du stockage Blob et la manière dont il est couramment utilisé par les entreprises pour stocker une variété de fichiers.
Azure Data Lake fait partie de l'offre publique de Microsoft cloud et permet le stockage de données volumineuses.
L'architecture big data est la structure qui sous-tend les systèmes big data. Pour en savoir plus sur les composants communs de l'architecture big data, cliquez ici.
L'ingestion de big data permet de collecter des données et de les introduire dans un système de traitement de données où elles peuvent être stockées, analysées et consultées.
L'intégration des big data est l'utilisation de logiciels, de services et/ou de processus d'entreprise pour extraire des données de sources multiples afin d'obtenir des informations cohérentes et significatives.
Les modèles de maturité du big data (et les modèles de maturité de l'analyse) aident les organisations à exploiter les tendances et les informations des données pour atteindre des mesures spécifiques de succès.
Le stockage Blob, abréviation de Binary Large Object storage, est une solution conçue pour stocker des quantités massives de données non structurées.
Le logiciel d'intégration d'entreprise est un système d'applications et d'outils qui vise à unifier les ensembles de données et les vecteurs d'activité pour une meilleure supervision et une centralisation de la gouvernance.
La capture des données de changement est le processus de capture des modifications apportées à une base de données en vue d'une analyse ou d'une réplication ultérieure.
Un entrepôt de données cloud est un référentiel en ligne pour toutes les données qu'une organisation consolide à partir de diverses sources - des données qui peuvent ensuite être consultées et analysées pour gérer l'entreprise.
Découvrez la stratégie d'intégration de cloud avant de transférer vos données professionnelles sur cloud.
Cloud speak est une terminologie qui se réfère à la technologie cloud , y compris les acronymes et le jargon.
Découvrez ce qu'est l'intégration basée sur cloud et comment elle peut aider votre entreprise.
L'analyse de cohorte est un sous-ensemble de l'analyse comportementale qui regroupe les données d'un ensemble de données donné en groupes apparentés en vue de leur analyse.
L'intégration CRM implique le processus de connexion d'un système de gestion de la relation client avec d'autres applications.
Le service client de l'ère des données a dû s'adapter à l'évolution des besoins des entreprises. Avec la transformation numérique de l'entreprise, les services fournis doivent comprendre, prévoir et répondre aux besoins des clients. Les nouveaux processus et l'évolution rapide des technologies signifient que le service d'assistance doit être plus perspicace et jouer un rôle plus proactif dans l'éducation et la prise en charge de la réussite des clients.
Acquérir une compréhension de base de l'analyse des données et du rôle qu'elle joue dans les entreprises.
Déterminer ce qui est une donnée de valeur et ce qui ne l'est pas est un processus complexe. Il est de plus en plus facilité par des programmes et des processus automatisés qui permettent de trier des téraoctets de données volumineuses.
L'automatisation des données fait référence à l'automatisation des tâches liées aux données afin d'améliorer l'efficacité et de réduire les interventions manuelles.
Un catalogue de données agit comme un glossaire de big data, contenant des références de métadonnées pour les différentes tables, bases de données et fichiers contenus dans les lacs de données ou les entrepôts de données.
La consolidation des données est le processus qui consiste à combiner des données provenant de sources multiples en une vue unique et unifiée.
L'extraction de données est le processus qui consiste à récupérer des données à partir de diverses sources en vue de leur traitement ou de leur stockage.
Le tissu de données est une autre variante d'un cadre distribué et décentralisé d'analyse et de gestion des données, tel qu'il a été présenté par Gartner, et il est largement considéré comme un cadre concurrent du maillage de données.
La gouvernance des données fait référence à la gestion et à la protection des données au sein d'une organisation.
L'hydratation des données, ou l'hydratation du lac de données, est l'importation de données dans un objet. Lorsqu'un objet attend que des données le remplissent, cet objet attend d'être hydraté. La source de cette hydratation peut être un lac de données ou une autre source de données.
L'ingestion de données recueille les données et les introduit dans les systèmes de traitement des données. La couche d'ingestion des données traite les données entrantes, en hiérarchisant les sources, en validant les données et en les acheminant vers le meilleur emplacement pour qu'elles soient stockées et prêtes à être immédiatement accessibles.
Découvrez ce qu'est un pipeline d'ingestion de données et comment l'exploiter pour répondre aux besoins de votre entreprise en matière de données.
L'intégration des données est un élément fondamental de la science et de l'analyse des données. Les données peuvent être écrasantes, fournissant trop de données à travers les sources à trier pour prendre des décisions d'affaires opportunes et efficaces. L'intégration des données permet de trier de vastes ensembles de données structurées et non structurées et de sélectionner des ensembles de données, en structurant les données pour fournir des informations et des renseignements ciblés.
L'intégration des données est une tâche en soi. Elle nécessite souvent de reprendre les processus hérités d'une entreprise qui sont au cœur d'un système actuel, puis de mettre à jour le système pour les utilisateurs numériques modernes.
Découvrez les obstacles auxquels le secteur des soins de santé est confronté lorsqu'il transfère ses données sur le site cloud et comment il peut les surmonter.
Découvrez quels sont les principaux modèles d'intégration de données et lesquels utiliser pour la migration des données de votre entreprise vers le site cloud.
Une plateforme d'intégration de données est principalement utilisée et gérée par des professionnels de l'informatique. Elle permet de collecter, de trier et de transformer des données provenant de sources multiples afin de les appliquer à diverses fins commerciales ou de les acheminer vers des utilisateurs, des unités commerciales, des partenaires, des applications ou des solutions potentielles spécifiques.
Le processus d'intégration des données est la méthode par laquelle une entreprise combine des données provenant de plusieurs plateformes et ensembles de données différents pour créer une architecture numérique cohérente et globale.
Un plan d'intégration des données permet de définir un cadre pour la transformation numérique en incorporant les délais, les objectifs, les attentes, les règles et les rôles qui engloberont une intégration complète des données.
Les stratégies d'intégration des données permettent de découvrir et de mettre en œuvre les solutions les plus efficaces et les plus intelligentes pour stocker, extraire et connecter les informations aux systèmes et plates-formes de l'entreprise.
Un exemple de stratégie d'intégration de données est une vue d'ensemble du fonctionnement des stratégies d'intégration de données. Il comprend généralement une liste de certains éléments des stratégies d'intégration de données.
Un lac de données est un type de système de stockage de données de grande capacité qui conserve des données "brutes" (semi- et non structurées, c'est-à-dire en continu, IoT, etc.) dans leur format natif jusqu'à ce qu'elles soient nécessaires. Contrairement aux architectures de stockage de données hiérarchiques, qui stockent les données structurées dans des dossiers, un lac de données emploie une architecture plate.
Découvrez les produits disponibles pour gérer le lac de données afin de tirer le meilleur parti des données de votre entreprise.
Un Data Lakehouse est un site hybride plateforme qui combine les caractéristiques des lacs de données et des entrepôts de données.
Un datamart est un sous-ensemble spécifique de données conservées dans un entrepôt de données et permet à des départements spécifiques de trouver plus facilement et plus rapidement les données dont ils ont besoin.
Le maillage de données est un cadre de gestion des données d'entreprise qui définit la manière de gérer les données spécifiques à un domaine d'activité d'une manière qui permet aux domaines d'activité de posséder et d'exploiter leurs données.
Le maillage et le tissu de données sont des cadres d'analyse et de gestion des données qui sont largement similaires et se chevauchent, mais avec quelques domaines de distinction.
Les outils de migration de données aident les équipes dans leurs efforts de migration de données, y compris la migration de données sur site, la migration de données basée sur cloud et la migration de données open-source.
L'exploration de données est une technique clé de la science des données qui consiste à extraire des informations précieuses de vastes ensembles de données. Il est essentiel pour la reconnaissance des formes, l'extraction d'informations et la découverte de connaissances, jouant un rôle critique dans la prise de décision basée sur les données dans diverses industries.
Un pipeline de données est un service ou un ensemble d'actions qui traitent les données en séquence. La fonction habituelle d'un pipeline de données est de déplacer des données d'un état ou d'un emplacement à un autre.
Une architecture de pipeline de données est un système qui capture, organise et achemine les données afin qu'elles puissent être utilisées pour obtenir des informations. Les données brutes contiennent trop de points de données qui peuvent ne pas être pertinents.
Une plateforme de données est une solution technologique conçue pour stocker, gérer et analyser des données.
La réplication des données est le processus qui consiste à copier les données afin d'assurer la cohérence entre plusieurs sites ou systèmes.
La virtualisation des données consiste à créer une couche virtuelle entre les sources de données et les applications qui utilisent ces données.
Découvrez quelles entreprises technologiques peuvent fournir des services d'entrepôt de données pour répondre aux besoins de votre entreprise en matière de stockage de données.
La grande popularité des entrepôts de données et les possibilités qu'ils offrent ont encouragé le développement de nombreux outils d'entreposage de données.
Une base de données est un ensemble structuré de données qui peuvent être facilement consultées, gérées et mises à jour.
La réplication des bases de données consiste à créer et à maintenir des versions dupliquées d'une base de données afin de garantir la cohérence et la disponibilité des données.
Un schéma de base de données est un plan qui décrit la structure d'une base de données, y compris les tables, les champs et les relations.
Apprenez tout sur l'apprentissage profond - de sa relation avec l'apprentissage automatique à la façon dont ses applications se développent dans de nombreux domaines.
Un client exclusivement numérique est exactement ce qu'il semble être : un client avec lequel une entreprise s'engage à un niveau non physique. Les clients numériques s'accompagnent d'un ensemble de bonnes pratiques propres à l'entreprise.
L'analyse du marketing numérique implique la mesure, la collecte et l'analyse des données marketing afin d'optimiser les stratégies de marketing numérique.
L'EAI, ou intégration des applications d'entreprise, est un cadre permettant de connecter différentes applications d'entreprise afin de permettre le partage des données et l'automatisation des processus.
L'EDI, ou échange de données informatisées, est une méthode de transfert de données entre différents systèmes sans intervention humaine.
L'architecte d'entreprise est un professionnel chargé de concevoir et de gérer le cadre informatique d'une organisation.
Un entrepôt de données d'entreprise est une base de données à grande échelle qui consolide les données d'entreprise provenant de diverses sources à des fins de reporting et d'analyse.
La planification des ressources de l'entreprise (ERP) est un type de logiciel qui permet à une organisation de gérer et d'automatiser un grand nombre de ses activités quotidiennes.
Un bus de service d'entreprise (ESB) est une architecture qui permet la communication entre différents environnements, tels que des applications logicielles.
Processus d'intégration de données impliquant l'extraction, la transformation et le chargement.
Un pipeline ETL est un ensemble de processus permettant d'extraire, de transformer et de charger des données d'un système à un autre.
Le processus ETL consiste à extraire les données des systèmes sources, à les transformer dans un format qui peut être analysé et à les charger dans un entrepôt de données.
Le test ETL implique le processus de validation, de vérification et de qualification des données tout en évitant les enregistrements en double et les pertes de données.
Les entrepôts de données relationnels traditionnels sont de plus en plus souvent complétés par des données non relationnelles (big data) ou remplacés par ces dernières. Le passage au big data nécessite de nouvelles compétences, approches et technologies.
La GenAI, abréviation de Generative Artificial Intelligence, désigne les systèmes d'IA capables de générer de nouveaux contenus, idées ou données qui imitent la créativité humaine.
Les applications de la GenAI font référence à l'utilisation pratique des technologies d'intelligence artificielle générative dans divers secteurs et industries.
L'IA générative est une forme d'intelligence artificielle capable de créer de nouvelles données similaires à celles sur lesquelles elle a été formée.
L'intégration générative est une approche avancée de l'intégration des données et des applications qui s'appuie sur l'IA générative et les grands modèles de langage (LLM).
Guidewire est un site plateforme qui propose un logiciel de base pour le secteur de l'assurance dommages.
Un lac de données Hadoop est construit sur un site plateforme composé de clusters Hadoop et est particulièrement populaire dans l'architecture des lacs de données car il s'agit d'un logiciel libre.
L'absorption de données, ou ingestion, pour le stockage, le tri et l'analyse des données est un processus continu à la base de l'architecture du système et de la gestion des données. Le taux d'ingestion fait partie de la création de données en temps réel et d'un avantage concurrentiel pour la stratégie de l'entreprise.
Les avantages de Hive permettent une intégration plus facile avec des éléments personnalisés, tels que des extensions, des programmes et des applications. Il est également mieux adapté à l'ingestion et au traitement de données par lots.
L'hyperautomatisation implique l'utilisation de technologies avancées telles que l'IA et l'apprentissage automatique pour automatiser des processus métier complexes.
L'intégration est le processus qui consiste à combiner différents systèmes et applications pour qu'ils fonctionnent ensemble.
Les logiciels d'intégration d'applications, généralement classés comme "middleware", c'est-à-dire les logiciels qui forment le lien entre les systèmes d'exploitation, les logiciels et les bases de données qui s'interfacent.
Découvrez les meilleures pratiques pour l'intégration de cloud et comment elles peuvent aider votre entreprise.
La plateforme d'intégration en tant que service (IPaaS) est un système d'intégration basé sur cloud qui connecte des applications logicielles provenant de différents environnements, y compris des appareils, l'IoT, des applications, etc.
Un document d'exigences d'intégration évalue et décrit les exigences d'une intégration de données réussie. À l'instar d'une spécification des exigences des systèmes/logiciels (SRS), les exigences d'intégration articulent le comportement et les caractéristiques attendus du projet d'intégration et des systèmes connexes. La plupart des documents d'exigences d'intégration font partie d'un plan plus large d'exigences d'intégration de données et de normes de qualité de service.
Découvrez ce qu'est l'architecture iPaaS et comment elle peut vous aider à transférer l'infrastructure numérique de votre entreprise sur le site cloud.
Un test de performance Java vérifie la vitesse et l'efficacité d'une application Java.
Découvrez ce qu'est un code de test de vitesse Java et à quoi il sert.
Dans cet article, nous fournissons une brève description de JSON et expliquons comment il est principalement utilisé.
Le JSON Web Token (JWT) est un objet JSON utilisé pour envoyer des informations vérifiables et fiables. Il s'agit d'une norme ouverte, basée sur la RFC 7519.
Un modèle de langage étendu (LLM) est un type d'intelligence artificielle qui traite et génère des textes semblables à ceux d'un être humain sur la base de grandes quantités de données.
Oracle E-Business Suite est un ensemble d'applications commerciales intégrées fournies par Oracle.
Voici tout ce que vous avez toujours voulu savoir sur un algorithme d'apprentissage automatique.
Les logiciels de gestion des données de référence nettoient et normalisent les données, créant ainsi une source unique de vérité. Découvrez les nombreux avantages de l'utilisation d'un logiciel de gestion des données.
Découvrez où sont situés les serveurs Microsoft Azure Storage et comment leur regroupement peut aider votre entreprise.
La pile de données moderne est un ensemble de technologies optimisées pour l'intégration, la transformation et l'analyse rapides des données.
MongoDB est une base de données NoSQL utilisée pour traiter de grands volumes de données non structurées.
Le transfert de données vers le site cloud, également connu sous le nom de migration Cloud , consiste à transférer des données conservées sur des serveurs nationaux, des serveurs personnels/physiques, vers un site de stockage entièrement numérique plateforme.
Une application réseau est un logiciel qui exécute des fonctions sur un réseau, comme le partage de fichiers.
L'orchestration implique l'organisation et la coordination automatisées de tâches complexes au sein de un workflow.
L'analyse prescriptive est un type d'analyse qui utilise des données et des algorithmes pour fournir des recommandations sur la manière de gérer des situations futures potentielles.
Extraire des données de Salesforce avec Informatica n'est peut-être pas la meilleure solution d'extraction et d'intégration de données.
Python et Java sont deux des langages de programmation les plus populaires et les plus robustes. Découvrez les différences dans cette comparaison des performances entre Java et Python.
Python contre Java : Python et Java sont deux langages de programmation, chacun ayant ses avantages. La différence la plus importante entre les deux est la façon dont chacun utilise les variables. Les variables Python sont typées dynamiquement alors que les variables Java sont typées statiquement.
Le transfert d'état représentationnel est un style architectural pour les logiciels qui fournit un ensemble de principes, de propriétés et de contraintes pour normaliser les opérations basées sur http.
L'automatisation des processus robotiques (RPA) implique l'utilisation de robots logiciels pour automatiser les tâches répétitives dans les processus d'entreprise.
La RPA dans le secteur de la santé fait référence à l'application de l'automatisation des processus robotiques dans le secteur de la santé pour des tâches telles que la facturation et la saisie de données.
SAP Analytics est un système qui utilise l'analyse prédictive cloud pour prévoir les résultats futurs, ce qui permet aux analystes de données et aux parties prenantes de l'entreprise de prendre des décisions éclairées.
Les intégrations SAP prennent des données d'une source (telle qu'une application ou un logiciel) et les rendent lisibles et utilisables dans SAP.
La base de données Snowflake est un entrepôt de données dans la solution cloud alimentée par le logiciel Snowflake.
L'intégration logicielle permet de réunir plusieurs types de sous-systèmes logiciels pour créer un seul système unifié.
Découvrez comment Spark SQL rend l'utilisation de Spark plus rapide et plus facile.
Qu'est-ce qu'une requête Splunk ? Découvrez comment elle rend les données machine accessibles, utilisables et précieuses pour tout le monde.
SQL Azure est un service de base de données relationnelle géré fourni par Microsoft Azure.
SQL en analyse de données fait référence à l'utilisation de SQL (Structured Query Language) pour l'interrogation et la manipulation de données à des fins d'analyse.
Les fonctions du serveur SQL sont des ensembles d'instructions SQL qui exécutent des tâches spécifiques, ce qui permet de reproduire facilement des tâches communes.
L'authentification SSL (Secure Sockets Layer) est un protocole permettant de créer une connexion sécurisée pour les interactions entre l'utilisateur et le serveur.
Le cadre REST utilisé pour les applications basées sur le réseau. Il repose sur un serveur sans état basé sur le client. Une authentification SSL garantit que les interactions entre le client et le serveur sont sécurisées en chiffrant le lien qui les relie.
La base de données transactionnelle est un type de base de données spécialisé, conçu pour traiter un volume élevé de transactions. Elle garantit l'intégrité des données et prend en charge le traitement en temps réel, ce qui la rend indispensable pour des applications telles que la banque en ligne et le commerce électronique.
Dans le cas du SSL bidirectionnel, ou SSL mutuel, le client confirme l'identité du serveur et le serveur confirme l'identité du client.
Un VPC, ou Virtual Private Cloud, est un réseau virtuel sécurisé et isolé dans un environnement public cloud .
Le Workday EIB (Enterprise Interface Builder) est un outil qui fournit aux utilisateurs une interface guidée et graphique.
Workday Cloud Connect for Benefits est une suite de gestion d'entreprise qui offre un système unique pour gérer les avantages sociaux de vos employés.
Workday propose des applications d'entreprise et des suites de gestion basées sur une architecture unique, à l'adresse cloud, qui combinent les finances, les ressources humaines et l'analyse en un seul système.