Per settore
Per funzione
Per workflow comuni
Per soluzione
Piattaforma di integrazione di dati e applicazioni all-in-one.
Mobilitare i dati su cloud con ETL/ELT visuali e reverse ETL.
Collegate ogni applicazione con le nostre soluzioni iPaaS no-code/low-code.
Create, gestite e proteggete in modo efficiente tutte le vostre API su scala.
Provate voi stessi la principale piattaforma di integrazione self-service.
Superate le sfide della frammentazione del vostro moderno stack di dati.
Portate l'automazione in ogni parte della vostra organizzazione.
Guidare la redditività e la crescita attraverso strategie di vendita e marketing congiunte.
Partnership per ISV, MSP, OEM e fornitori embedded.
Ottenere l'accesso a un ecosistema di partner di livello mondiale.
Accedere al portale SnapLogic Partner Connect.
Ottenete l'accesso gratuito alle risorse dei partner SnapLogic.
Cercate i partner nella nostra solida rete globale.
I risultati dei nostri clienti continuano a determinare il successo di SnapLogic.
La nostra comunità per la leadership di pensiero, il supporto tra pari, la formazione dei clienti e il riconoscimento.
Riconoscere gli individui per il loro contributo alla comunità SnapLogic.
Migliorate le vostre competenze in materia di integrazione intelligente e automazione aziendale.
In evidenza i clienti e i partner che hanno trasformato le loro organizzazioni con SnapLogic.
Scoprite come i nostri clienti traggono vantaggio dall'utilizzo di SnapLogic.
La nostra casa per eBook, white paper, video e altro ancora.
SnapLogic è qui per supportarvi durante tutta la vostra esperienza.
Approfondimenti da oltre 1.000 intervistati
Unitevi a noi per workshop, sessioni di approfondimento, dimostrazioni e networking!
Cercate un termine o una frase che vi incuriosisce!
Apache Hive è un software open-source creato per l'utilizzo nel data warehousing. Consente di analizzare e interrogare grandi quantità di dati.
Un'API (Application Programming Interface) è un insieme di strumenti di programmazione utilizzati dagli ingegneri per integrare funzionalità offerte da terzi. L'uso di un'API consente agli ingegneri di sviluppare il software più rapidamente, con una serie più ricca di funzionalità e una minore necessità di manutenzione continua.
La gestione delle API consente di creare, valutare e analizzare le API. Scoprite le piattaforme API e come vengono utilizzate nelle aziende.
AWS Redshift è un servizio di data warehouse e analisi basato su cloud e gestito da Amazon Web Services. Ecco perché AWS Redshift è così importante.
Scoprite lo scopo dello storage Blob e come viene comunemente utilizzato dalle aziende per archiviare una serie di file.
Azure Data Lake fa parte dell'offerta pubblica di Microsoft cloud e consente l'archiviazione di big data.
L'architettura dei big data è la struttura che sta alla base dei sistemi di big data. Per saperne di più sui componenti comuni dell'architettura dei big data, cliccate qui.
L'ingestione dei big data raccoglie i dati e li porta in un sistema di elaborazione dati dove possono essere archiviati, analizzati e consultati.
L'integrazione dei big data è l'uso di software, servizi e/o processi aziendali per estrarre i dati da più fonti e trasformarli in informazioni coerenti e significative.
I modelli di maturità dei big data (e i modelli di maturità analitica) aiutano le organizzazioni a sfruttare le tendenze e le informazioni dei dati per ottenere misure specifiche di successo.
Il software di integrazione aziendale è un sistema di applicazioni e strumenti che mirano a unificare i set di dati e i vettori aziendali per una migliore supervisione e centralizzazione della governance.
Un data warehouse cloud è un archivio online per tutti i dati che un'organizzazione consolida da varie fonti, dati che possono essere consultati e analizzati per gestire l'azienda.
Scoprite la strategia di integrazione di cloud prima di trasferire i vostri dati aziendali su cloud.
Cloud parlare è la terminologia che si riferisce alla tecnologia di cloud , compresi gli acronimi e il gergo.
Scoprite cos'è l'integrazione basata su cloud e come può aiutare la vostra azienda.
Il servizio clienti dell'era dei dati ha dovuto adattarsi alle mutevoli esigenze delle aziende. Con la trasformazione digitale dell'impresa, i servizi forniti devono comprendere, prevedere e soddisfare le esigenze dei clienti. I nuovi processi e la tecnologia in rapida evoluzione implicano che l'assistenza deve avere una maggiore conoscenza e assumere un ruolo più proattivo nell'educazione e nella cura del successo dei clienti.
Acquisire una conoscenza di base dell'analisi dei dati e del ruolo che svolge nel business.
Determinare cosa sia una risorsa di dati di valore e cosa no è un processo complesso. Sempre più spesso è aiutato da programmi e processi automatizzati che permettono di selezionare i terabyte di big data.
Un catalogo di dati funge da glossario dei big data e contiene riferimenti ai metadati per le varie tabelle, database e file contenuti nei data lake o nei data warehouse.
Il Data Fabric è un'altra variante di un framework di analisi e gestione dei dati distribuito e decentralizzato, come proposto da Gartner, ed è in gran parte considerato un framework concorrente del Data Mesh.
La Data Governance si riferisce alla gestione e alla protezione delle risorse di dati all'interno di un'organizzazione.
L'idratazione dei dati, o idratazione del data lake, è l'importazione di dati in un oggetto. Quando un oggetto è in attesa di essere riempito di dati, è in attesa di essere idratato. La fonte dell'idratazione può essere un data lake o un'altra fonte di dati.
L'ingestione dei dati raccoglie i dati e li porta nei sistemi di elaborazione dei dati. Il livello di ingestione dei dati elabora i dati in arrivo, dando priorità alle fonti, convalidando i dati e instradandoli nella posizione migliore per essere archiviati e pronti per l'accesso immediato.
Scoprite cos'è una pipeline di ingestione dei dati e come sfruttarla per le esigenze aziendali.
L'integrazione dei dati è una parte fondamentale della scienza e dell'analisi dei dati. I dati possono essere sovraccarichi, fornendo una quantità eccessiva di dati tra le varie fonti da analizzare per prendere decisioni aziendali tempestive ed efficaci. L'integrazione dei dati consente di selezionare i set di dati strutturati e non strutturati, strutturandoli per fornire informazioni e approfondimenti mirati.
L'integrazione dei dati è un compito a sé stante. Spesso richiede di prendere i processi legacy di un'azienda che sono centrali in un sistema attuale e di aggiornarlo per gli utenti digitali moderni.
Scoprite quali sono gli ostacoli che il settore sanitario deve affrontare nel passaggio dei dati al sito cloud e come superarli.
Scoprite quali sono i principali modelli di integrazione dei dati e quali utilizzare per il passaggio dei dati aziendali a cloud.
Una piattaforma di integrazione dati è utilizzata e gestita principalmente da professionisti IT. Consente di raccogliere, ordinare e trasformare i dati provenienti da più fonti, in modo da poterli applicare a vari scopi aziendali o indirizzarli a utenti specifici, unità aziendali, partner, applicazioni o soluzioni prospettiche.
Il processo di integrazione dei dati è il metodo con cui un'azienda combina i dati provenienti da diverse piattaforme e set di dati per creare un'architettura digitale coesa e globale.
Un piano di integrazione dei dati aiuta a definire un quadro di riferimento per la trasformazione digitale, incorporando le tempistiche, gli obiettivi, le aspettative, le regole e i ruoli che comprenderanno la completa integrazione dei dati.
Le strategie di integrazione dei dati aiutano a scoprire e implementare le soluzioni più efficienti e intelligenti per archiviare, estrarre e collegare le informazioni ai sistemi e alle piattaforme aziendali.
Un esempio di strategia di integrazione dei dati è una panoramica del funzionamento delle strategie di integrazione dei dati. In genere, comprende un elenco di alcuni elementi delle strategie di integrazione dei dati.
Un data lake è un tipo di sistema di archiviazione dei dati di grande capacità che conserva i dati "grezzi" (semi-strutturati e non strutturati, ad esempio streaming, IoT, ecc.) nel loro formato nativo fino a quando non sono necessari. A differenza delle architetture di archiviazione dati gerarchiche, che archiviano i dati strutturati in cartelle, un data lake utilizza un'architettura piatta.
Scoprite quali sono i prodotti disponibili per gestire il data lake e sfruttare al meglio i dati aziendali.
Un data mart è un sottoinsieme specifico di dati conservati in un data warehouse e consente a reparti specifici di trovare i dati di cui hanno bisogno in modo più semplice e veloce.
Il Data Mesh è un framework di gestione dei dati aziendali che definisce come gestire i dati specifici del dominio aziendale in modo da consentire ai domini aziendali di possedere e gestire i propri dati.
Data mesh e data fabric sono strutture di analisi e gestione dei dati in gran parte simili e sovrapponibili, ma con alcune aree di distinzione.
Gli strumenti di migrazione dei dati assistono i team nelle loro attività di migrazione dei dati, compresa la migrazione dei dati on-premises, la migrazione dei dati basata su cloud e la migrazione dei dati open-source.
Il data mining è una tecnica chiave della scienza dei dati che prevede l'estrazione di informazioni preziose da grandi insiemi di dati. È essenziale per il riconoscimento dei modelli, l'estrazione delle informazioni e la scoperta della conoscenza, svolgendo un ruolo fondamentale nel processo decisionale guidato dai dati in diversi settori.
Una pipeline di dati è un servizio o un insieme di azioni che elaborano i dati in sequenza. La funzione abituale di una pipeline di dati è quella di spostare i dati da uno stato o da una posizione a un'altra.
L'architettura di una pipeline di dati è un sistema che cattura, organizza e instrada i dati in modo che possano essere utilizzati per ottenere approfondimenti. I dati grezzi contengono troppi punti di dati che potrebbero non essere rilevanti.
La virtualizzazione dei dati comporta la creazione di un livello virtuale che si colloca tra le fonti di dati e le applicazioni che li utilizzano.
Scoprite quali aziende tecnologiche possono fornire servizi di data warehouse per le esigenze di archiviazione dei dati della vostra azienda.
La grande popolarità e le opportunità derivanti dai data warehouse hanno incoraggiato lo sviluppo di numerosi strumenti di data warehousing.
Scoprite tutto sull'apprendimento profondo, dalla sua relazione con l'apprendimento automatico a come la sua applicazione sta aumentando in molti campi.
Un cliente solo digitale è esattamente quello che sembra: un cliente con cui un'azienda si impegna a qualsiasi livello non fisico. A loro volta, i clienti digitali hanno una propria serie di best practice aziendali.
L'Enterprise Resource Planning (ERP) è un tipo di software che consente a un'organizzazione di gestire e automatizzare molte delle attività aziendali quotidiane.
Un enterprise service bus (ESB) è un'architettura che consente la comunicazione tra ambienti diversi, come le applicazioni software.
Il processo ETL prevede l'estrazione dei dati dai sistemi di origine, la loro trasformazione in un formato analizzabile e il loro caricamento in un data warehouse.
I tradizionali magazzini di dati relazionali sono sempre più spesso affiancati da big data non relazionali, o in fase di transizione verso questi ultimi. Il passaggio ai big data richiede nuove competenze, approcci e tecnologie.
L'integrazione generativa è un approccio avanzato all'integrazione di dati e applicazioni che sfrutta l'intelligenza artificiale generativa e i modelli linguistici di grandi dimensioni (LLM).
Un data lake Hadoop è costruito su una piattaforma composta da cluster Hadoop ed è particolarmente popolare nell'architettura dei data lake perché è open source.
L'acquisizione dei dati, o ingestione, per l'archiviazione, lo smistamento e l'analisi dei dati è un processo continuo alla base dell'architettura di sistema e della gestione dei dati. La velocità di ingestione è parte integrante della creazione di approfondimenti sui dati in tempo reale e di un vantaggio competitivo per la strategia aziendale.
I vantaggi di Hive consentono una più facile integrazione con elementi personalizzati, come estensioni, programmi e applicazioni. Inoltre, è più adatto per l'ingestione e l'elaborazione dei dati in batch.
Software di integrazione delle applicazioni, generalmente classificato come "middleware", cioè software che costituisce il collegamento tra sistemi operativi, software e database interfacciati.
Scoprite le best practice per l'integrazione di cloud e come possono aiutare la vostra azienda.
Integration Platform as a Service (IPaaS) è un sistema di integrazione basato su cloud che collega applicazioni software provenienti da ambienti diversi, tra cui dispositivi, IoT, applicazioni e così via.
Un documento sui requisiti di integrazione valuta e descrive i requisiti per il successo dell'integrazione dei dati. In modo simile a una Specifica dei requisiti di sistema/software (SRS), i Requisiti di integrazione articolano il comportamento e le caratteristiche attese del progetto di integrazione e dei sistemi correlati. La maggior parte dei documenti sui requisiti di integrazione fa parte di un più ampio piano di requisiti di integrazione dei dati e di standard di qualità del servizio.
Scoprite cos'è l'architettura iPaaS e come può aiutarvi a spostare l'infrastruttura digitale della vostra azienda su cloud.
Un test delle prestazioni Java verifica le prestazioni di un'applicazione Java in termini di velocità ed efficienza.
Scoprite cos'è e a cosa serve il codice Java per i test di velocità.
Java e Python sono due dei linguaggi di programmazione più diffusi, ma le loro diverse strutture linguistiche presentano vantaggi e svantaggi distinti. Ciascuno di essi dispone di numerosi strumenti dell'ecosistema costruiti per migliorare l'usabilità e le prestazioni. Tuttavia, le loro velocità variano.
In questo articolo forniamo una breve descrizione di JSON e spieghiamo come viene utilizzato principalmente.
JSON Web Token (JWT) è un oggetto JSON utilizzato per inviare informazioni che possono essere verificate e affidabili. Lo standard è open-source e si basa sull'RFC 7519.
Oracle E-Business Suite è un insieme di applicazioni aziendali integrate fornite da Oracle.
Ecco tutto quello che avreste voluto sapere su un algoritmo di apprendimento automatico.
Il software di gestione dei dati master pulisce e standardizza i dati, creando un'unica fonte di verità. Scoprite i numerosi vantaggi dell'utilizzo di un software di gestione dei dati.
Scoprite dove si trovano i server di Microsoft Azure Storage e come le loro co-locazioni possono aiutare la vostra azienda.
Lo spostamento dei dati sul sito cloud, noto anche come migrazione Cloud , avviene quando i dati conservati su server statali, server personali/fisici, vengono trasferiti su una piattaforma di archiviazione completamente digitale.
L'estrazione dei dati da Salesforce con Informatica potrebbe non essere la soluzione migliore per l'estrazione e l'integrazione dei dati.
Python vs. Java: Python e Java sono entrambi linguaggi di programmazione, ognuno dei quali ha i suoi vantaggi. La differenza più significativa tra i due è l'uso delle variabili. Le variabili di Python sono tipizzate dinamicamente, mentre quelle di Java sono tipizzate staticamente.
Python e Java sono due dei più popolari e robusti linguaggi di programmazione. Scoprite le differenze in questo confronto delle prestazioni tra Java e Python.
Il Representational State Transfer è uno stile architettonico per il software che fornisce un insieme di principi, proprietà e vincoli per standardizzare le operazioni costruite su http.
SAP Analytics è un sistema che utilizza l'analisi predittiva di cloud per prevedere i risultati futuri, consentendo agli analisti di dati e agli stakeholder aziendali di prendere decisioni informate.
Le integrazioni SAP prendono i dati da una fonte (come un'applicazione o un software) e li rendono leggibili e utilizzabili in SAP.
Il database Snowflake è un data warehouse nella soluzione cloud alimentato dal software Snowflake.
L'integrazione software consente di unire più tipi di sottosistemi software per creare un unico sistema unificato.
Scoprite come Spark SQL rende l'uso di Spark più veloce e più facile.
Che cos'è una query Splunk? Scoprite come rende i dati macchina accessibili, utilizzabili e preziosi per tutti.
Le funzioni di SQL server sono insiemi di istruzioni SQL che eseguono compiti specifici, consentendo di replicare facilmente i compiti comuni.
L'autenticazione SSL è l'acronimo di Secure Sockets Layer ed è un protocollo per la creazione di una connessione sicura per le interazioni tra utente e server.
Il framework REST utilizzato per le applicazioni basate sulla rete. Si basa su un server stateless basato sul client. L'autenticazione SSL garantisce la sicurezza delle interazioni tra client e server, criptando il collegamento.
Il database transazionale è un tipo specializzato di database progettato per gestire un elevato volume di transazioni. Garantisce l'integrità dei dati e supporta l'elaborazione in tempo reale, rendendolo indispensabile per applicazioni come l'online banking e l'e-commerce.
Nell'SSL bidirezionale, detto anche SSL reciproco, il client conferma l'identità del server e il server conferma l'identità del client.
Workday Cloud Connect for Benefits è una suite di gestione aziendale che offre un unico sistema per gestire i benefit dei dipendenti.
Workday EIB (Enterprise Interface Builder) è uno strumento che fornisce agli utenti un'interfaccia guidata e grafica.
Workday offre applicazioni aziendali e suite di gestione basate su un'unica architettura, cloud, che combinano finanza, risorse umane e analisi in un unico sistema.