Par secteur d'activité
Par fonction
Par workflows populaires
Par solution
Plateforme tout-en-un d'intégration de données et d'applications.
Transférez vos données dans et vers le cloud avec le visual ETL/ELT et le reverse ETL.
Connectez toutes les applications grâce à nos solutions iPaaS no-code/low-code.
Créez, gérez et sécurisez efficacement toutes vos API à grande échelle.
Faites l'expérience de la première plateforme d'intégration en self-service.
Surmontez les challenges causés par la fragmentation de votre stack de données modernes.
L'automatisation s'applique à tous les domaines de votre entreprise.
Favoriser la rentabilité et la croissance grâce à des stratégies conjointes de vente et de marketing.
Partenariats pour les fournisseurs ISV, MSP, OEM et intégrés.
Accédez à un écosystème de partenaires de première classe.
Accédez au portail SnapLogic Partner Connect.
Accédez gratuitement aux ressources des partenaires SnapLogic.
Recherchez des partenaires dans notre réseau mondial de premier ordre.
Les succès de nos clients continuent de façonner celui de SnapLogic.
Notre communauté de réflexion, d'entraide, de formation des clients et de reconnaissance.
Reconnaître les individus pour leurs contributions à la communauté SnapLogic.
Améliorer votre expertise en matière d'intégration intelligente et d'automatisation de l'entreprise.
Mise en avant des clients et partenaires qui ont transformé leurs organisations grâce à SnapLogic.
En savoir plus sur les avantages que nos clients tirent de l'utilisation de SnapLogic.
La section où retrouver les eBook, les livres blancs, les vidéos et plus encore.
SnapLogic est là pour vous accompagner tout au long de votre expérience.
Les points de vue de plus de 1 000 personnes interrogées
Rejoignez-nous pour des ateliers, des sessions en petits groupes, des démonstrations et du réseautage !
Recherchez un terme ou une expression qui vous intéresse !
Apache Hive est un logiciel libre conçu pour l'entreposage de données. Il permet d'analyser et d'interroger de grandes quantités de données.
Une API (Application Programming Interface) est un ensemble d'outils de programmation utilisés par les ingénieurs pour intégrer des fonctionnalités offertes par des tiers. L'utilisation d'une API permet aux ingénieurs de développer des logiciels plus rapidement, avec un ensemble de fonctionnalités plus riche et moins de besoins de maintenance continue.
La gestion des API permet de créer, d'évaluer et d'analyser les API. Découvrez les plateformes d'API et leur utilisation dans les entreprises.
AWS Redshift est un service d'entrepôt de données et d'analyse basé sur cloud et géré par Amazon Web Services. Voici pourquoi AWS Redshift est si important.
Découvrez l'objectif du stockage Blob et la manière dont il est couramment utilisé par les entreprises pour stocker une variété de fichiers.
Azure Data Lake fait partie de l'offre publique de Microsoft cloud et permet le stockage de données volumineuses.
L'architecture big data est la structure qui sous-tend les systèmes big data. Pour en savoir plus sur les composants communs de l'architecture big data, cliquez ici.
L'ingestion de big data permet de collecter des données et de les introduire dans un système de traitement de données où elles peuvent être stockées, analysées et consultées.
L'intégration des big data est l'utilisation de logiciels, de services et/ou de processus d'entreprise pour extraire des données de sources multiples afin d'obtenir des informations cohérentes et significatives.
Les modèles de maturité du big data (et les modèles de maturité de l'analyse) aident les organisations à exploiter les tendances et les informations des données pour atteindre des mesures spécifiques de succès.
Le logiciel d'intégration d'entreprise est un système d'applications et d'outils qui vise à unifier les ensembles de données et les vecteurs d'activité pour une meilleure supervision et une centralisation de la gouvernance.
Un entrepôt de données cloud est un référentiel en ligne pour toutes les données qu'une organisation consolide à partir de diverses sources - des données qui peuvent ensuite être consultées et analysées pour gérer l'entreprise.
Découvrez la stratégie d'intégration de cloud avant de transférer vos données professionnelles sur cloud.
Cloud speak est une terminologie qui se réfère à la technologie cloud , y compris les acronymes et le jargon.
Découvrez ce qu'est l'intégration basée sur cloud et comment elle peut aider votre entreprise.
Le service client de l'ère des données a dû s'adapter à l'évolution des besoins des entreprises. Avec la transformation numérique de l'entreprise, les services fournis doivent comprendre, prévoir et répondre aux besoins des clients. Les nouveaux processus et l'évolution rapide des technologies signifient que le service d'assistance doit être plus perspicace et jouer un rôle plus proactif dans l'éducation et la prise en charge de la réussite des clients.
Acquérir une compréhension de base de l'analyse des données et du rôle qu'elle joue dans les entreprises.
Déterminer ce qui est une donnée de valeur et ce qui ne l'est pas est un processus complexe. Il est de plus en plus facilité par des programmes et des processus automatisés qui permettent de trier des téraoctets de données volumineuses.
Un catalogue de données agit comme un glossaire de big data, contenant des références de métadonnées pour les différentes tables, bases de données et fichiers contenus dans les lacs de données ou les entrepôts de données.
Le tissu de données est une autre variante d'un cadre distribué et décentralisé d'analyse et de gestion des données, tel qu'il a été présenté par Gartner, et il est largement considéré comme un cadre concurrent du maillage de données.
La gouvernance des données fait référence à la gestion et à la protection des données au sein d'une organisation.
L'hydratation des données, ou l'hydratation du lac de données, est l'importation de données dans un objet. Lorsqu'un objet attend que des données le remplissent, cet objet attend d'être hydraté. La source de cette hydratation peut être un lac de données ou une autre source de données.
L'ingestion de données recueille les données et les introduit dans les systèmes de traitement des données. La couche d'ingestion des données traite les données entrantes, en hiérarchisant les sources, en validant les données et en les acheminant vers le meilleur emplacement pour qu'elles soient stockées et prêtes à être immédiatement accessibles.
Découvrez ce qu'est un pipeline d'ingestion de données et comment l'exploiter pour répondre aux besoins de votre entreprise en matière de données.
L'intégration des données est un élément fondamental de la science et de l'analyse des données. Les données peuvent être écrasantes, fournissant trop de données à travers les sources à trier pour prendre des décisions d'affaires opportunes et efficaces. L'intégration des données permet de trier de vastes ensembles de données structurées et non structurées et de sélectionner des ensembles de données, en structurant les données pour fournir des informations et des renseignements ciblés.
L'intégration des données est une tâche en soi. Elle nécessite souvent de reprendre les processus hérités d'une entreprise qui sont au cœur d'un système actuel, puis de mettre à jour le système pour les utilisateurs numériques modernes.
Découvrez les obstacles auxquels le secteur des soins de santé est confronté lorsqu'il transfère ses données sur le site cloud et comment il peut les surmonter.
Découvrez quels sont les principaux modèles d'intégration de données et lesquels utiliser pour la migration des données de votre entreprise vers le site cloud.
Une plateforme d'intégration de données est principalement utilisée et gérée par des professionnels de l'informatique. Elle permet de collecter, de trier et de transformer des données provenant de sources multiples afin de les appliquer à diverses fins commerciales ou de les acheminer vers des utilisateurs, des unités commerciales, des partenaires, des applications ou des solutions potentielles spécifiques.
Le processus d'intégration des données est la méthode par laquelle une entreprise combine des données provenant de plusieurs plateformes et ensembles de données différents pour créer une architecture numérique cohérente et globale.
Un plan d'intégration des données permet de définir un cadre pour la transformation numérique en incorporant les délais, les objectifs, les attentes, les règles et les rôles qui engloberont une intégration complète des données.
Les stratégies d'intégration des données permettent de découvrir et de mettre en œuvre les solutions les plus efficaces et les plus intelligentes pour stocker, extraire et connecter les informations aux systèmes et plates-formes de l'entreprise.
Un exemple de stratégie d'intégration de données est une vue d'ensemble du fonctionnement des stratégies d'intégration de données. Il comprend généralement une liste de certains éléments des stratégies d'intégration de données.
Un lac de données est un type de système de stockage de données de grande capacité qui conserve des données "brutes" (semi- et non structurées, c'est-à-dire en continu, IoT, etc.) dans leur format natif jusqu'à ce qu'elles soient nécessaires. Contrairement aux architectures de stockage de données hiérarchiques, qui stockent les données structurées dans des dossiers, un lac de données emploie une architecture plate.
Découvrez les produits disponibles pour gérer le lac de données afin de tirer le meilleur parti des données de votre entreprise.
Un datamart est un sous-ensemble spécifique de données conservées dans un entrepôt de données et permet à des départements spécifiques de trouver plus facilement et plus rapidement les données dont ils ont besoin.
Le maillage de données est un cadre de gestion des données d'entreprise qui définit la manière de gérer les données spécifiques à un domaine d'activité d'une manière qui permet aux domaines d'activité de posséder et d'exploiter leurs données.
Le maillage et le tissu de données sont des cadres d'analyse et de gestion des données qui sont largement similaires et se chevauchent, mais avec quelques domaines de distinction.
Les outils de migration de données aident les équipes dans leurs efforts de migration de données, y compris la migration de données sur site, la migration de données basée sur cloud et la migration de données open-source.
L'exploration de données est une technique clé de la science des données qui consiste à extraire des informations précieuses de vastes ensembles de données. Il est essentiel pour la reconnaissance des formes, l'extraction d'informations et la découverte de connaissances, jouant un rôle critique dans la prise de décision basée sur les données dans diverses industries.
Un pipeline de données est un service ou un ensemble d'actions qui traitent les données en séquence. La fonction habituelle d'un pipeline de données est de déplacer des données d'un état ou d'un emplacement à un autre.
Une architecture de pipeline de données est un système qui capture, organise et achemine les données afin qu'elles puissent être utilisées pour obtenir des informations. Les données brutes contiennent trop de points de données qui peuvent ne pas être pertinents.
La virtualisation des données consiste à créer une couche virtuelle entre les sources de données et les applications qui utilisent ces données.
Découvrez quelles entreprises technologiques peuvent fournir des services d'entrepôt de données pour répondre aux besoins de votre entreprise en matière de stockage de données.
La grande popularité des entrepôts de données et les possibilités qu'ils offrent ont encouragé le développement de nombreux outils d'entreposage de données.
Apprenez tout sur l'apprentissage profond - de sa relation avec l'apprentissage automatique à la façon dont ses applications se développent dans de nombreux domaines.
Un client exclusivement numérique est exactement ce qu'il semble être : un client avec lequel une entreprise s'engage à un niveau non physique. Les clients numériques s'accompagnent d'un ensemble de bonnes pratiques propres à l'entreprise.
La planification des ressources de l'entreprise (ERP) est un type de logiciel qui permet à une organisation de gérer et d'automatiser un grand nombre de ses activités quotidiennes.
Un bus de service d'entreprise (ESB) est une architecture qui permet la communication entre différents environnements, tels que des applications logicielles.
Le processus ETL consiste à extraire les données des systèmes sources, à les transformer dans un format qui peut être analysé et à les charger dans un entrepôt de données.
Les entrepôts de données relationnels traditionnels sont de plus en plus souvent complétés par des données non relationnelles (big data) ou remplacés par ces dernières. Le passage au big data nécessite de nouvelles compétences, approches et technologies.
L'intégration générative est une approche avancée de l'intégration des données et des applications qui s'appuie sur l'IA générative et les grands modèles de langage (LLM).
Un lac de données Hadoop est construit sur un site plateforme composé de clusters Hadoop et est particulièrement populaire dans l'architecture des lacs de données car il s'agit d'un logiciel libre.
L'absorption de données, ou ingestion, pour le stockage, le tri et l'analyse des données est un processus continu à la base de l'architecture du système et de la gestion des données. Le taux d'ingestion fait partie de la création de données en temps réel et d'un avantage concurrentiel pour la stratégie de l'entreprise.
Les avantages de Hive permettent une intégration plus facile avec des éléments personnalisés, tels que des extensions, des programmes et des applications. Il est également mieux adapté à l'ingestion et au traitement de données par lots.
Les logiciels d'intégration d'applications, généralement classés comme "middleware", c'est-à-dire les logiciels qui forment le lien entre les systèmes d'exploitation, les logiciels et les bases de données qui s'interfacent.
Découvrez les meilleures pratiques pour l'intégration de cloud et comment elles peuvent aider votre entreprise.
La plateforme d'intégration en tant que service (IPaaS) est un système d'intégration basé sur cloud qui connecte des applications logicielles provenant de différents environnements, y compris des appareils, l'IoT, des applications, etc.
Un document d'exigences d'intégration évalue et décrit les exigences d'une intégration de données réussie. À l'instar d'une spécification des exigences des systèmes/logiciels (SRS), les exigences d'intégration articulent le comportement et les caractéristiques attendus du projet d'intégration et des systèmes connexes. La plupart des documents d'exigences d'intégration font partie d'un plan plus large d'exigences d'intégration de données et de normes de qualité de service.
Découvrez ce qu'est l'architecture iPaaS et comment elle peut vous aider à transférer l'infrastructure numérique de votre entreprise sur le site cloud.
Un test de performance Java vérifie la vitesse et l'efficacité d'une application Java.
Découvrez ce qu'est un code de test de vitesse Java et à quoi il sert.
Java et Python sont deux des langages de programmation les plus populaires, mais leurs structures linguistiques différentes présentent des avantages et des inconvénients distincts. Chacun dispose de nombreux outils d'écosystème conçus pour améliorer la convivialité et les performances. Cependant, leurs vitesses varient.
Dans cet article, nous fournissons une brève description de JSON et expliquons comment il est principalement utilisé.
Le JSON Web Token (JWT) est un objet JSON utilisé pour envoyer des informations vérifiables et fiables. Il s'agit d'une norme ouverte, basée sur la RFC 7519.
Oracle E-Business Suite est un ensemble d'applications commerciales intégrées fournies par Oracle.
Voici tout ce que vous avez toujours voulu savoir sur un algorithme d'apprentissage automatique.
Les logiciels de gestion des données de référence nettoient et normalisent les données, créant ainsi une source unique de vérité. Découvrez les nombreux avantages de l'utilisation d'un logiciel de gestion des données.
Découvrez où sont situés les serveurs Microsoft Azure Storage et comment leur regroupement peut aider votre entreprise.
Le transfert de données vers le site cloud, également connu sous le nom de migration Cloud , consiste à transférer des données conservées sur des serveurs nationaux, des serveurs personnels/physiques, vers un site de stockage entièrement numérique plateforme.
Extraire des données de Salesforce avec Informatica n'est peut-être pas la meilleure solution d'extraction et d'intégration de données.
Python contre Java : Python et Java sont deux langages de programmation, chacun ayant ses avantages. La différence la plus importante entre les deux est la façon dont chacun utilise les variables. Les variables Python sont typées dynamiquement alors que les variables Java sont typées statiquement.
Python et Java sont deux des langages de programmation les plus populaires et les plus robustes. Découvrez les différences dans cette comparaison des performances entre Java et Python.
Le transfert d'état représentationnel est un style architectural pour les logiciels qui fournit un ensemble de principes, de propriétés et de contraintes pour normaliser les opérations basées sur http.
SAP Analytics est un système qui utilise l'analyse prédictive cloud pour prévoir les résultats futurs, ce qui permet aux analystes de données et aux parties prenantes de l'entreprise de prendre des décisions éclairées.
Les intégrations SAP prennent des données d'une source (telle qu'une application ou un logiciel) et les rendent lisibles et utilisables dans SAP.
La base de données Snowflake est un entrepôt de données dans la solution cloud alimentée par le logiciel Snowflake.
L'intégration logicielle permet de réunir plusieurs types de sous-systèmes logiciels pour créer un seul système unifié.
Découvrez comment Spark SQL rend l'utilisation de Spark plus rapide et plus facile.
Qu'est-ce qu'une requête Splunk ? Découvrez comment elle rend les données machine accessibles, utilisables et précieuses pour tout le monde.
Les fonctions du serveur SQL sont des ensembles d'instructions SQL qui exécutent des tâches spécifiques, ce qui permet de reproduire facilement des tâches communes.
L'authentification SSL (Secure Sockets Layer) est un protocole permettant de créer une connexion sécurisée pour les interactions entre l'utilisateur et le serveur.
Le cadre REST utilisé pour les applications basées sur le réseau. Il repose sur un serveur sans état basé sur le client. Une authentification SSL garantit que les interactions entre le client et le serveur sont sécurisées en chiffrant le lien qui les relie.
La base de données transactionnelle est un type de base de données spécialisé, conçu pour traiter un volume élevé de transactions. Elle garantit l'intégrité des données et prend en charge le traitement en temps réel, ce qui la rend indispensable pour des applications telles que la banque en ligne et le commerce électronique.
Dans le cas du SSL bidirectionnel, ou SSL mutuel, le client confirme l'identité du serveur et le serveur confirme l'identité du client.
Workday Cloud Connect for Benefits est une suite de gestion d'entreprise qui offre un système unique pour gérer les avantages sociaux de vos employés.
Le Workday EIB (Enterprise Interface Builder) est un outil qui fournit aux utilisateurs une interface guidée et graphique.
Workday propose des applications d'entreprise et des suites de gestion basées sur une architecture unique, à l'adresse cloud, qui combinent les finances, les ressources humaines et l'analyse en un seul système.