Glossar


Apache Hive

Apache Hive ist eine Open-Source-Software, die für den Einsatz im Data Warehousing entwickelt wurde. Sie ermöglicht die Analyse und Abfrage großer Datenmengen.

API-Integrationssoftware

Eine API (Application Programming Interface) ist eine Reihe von Programmierwerkzeugen, die von Ingenieuren zur Integration von Funktionen verwendet werden, die von Dritten angeboten werden. Die Verwendung einer API ermöglicht es Ingenieuren, Software schneller zu entwickeln, mit einem größeren Funktionsumfang und geringerem Bedarf an laufender Wartung.

API-Verwaltung

Die API-Verwaltung ermöglicht die Erstellung, Bewertung und Analyse von APIs. Erfahren Sie mehr über API-Plattformen und wie sie in Unternehmen eingesetzt werden.

AWS Redshift

AWS Redshift ist ein cloudbasierter Data Warehouse- und Analysedienst, der von Amazon Web Services betrieben wird. Hier erfahren Sie, warum AWS Redshift so wichtig ist.

Azure Blob-Speicher

Erfahren Sie mehr über den Zweck des Blob-Speichers und wie er von Unternehmen zum Speichern einer Vielzahl von Dateien verwendet wird.

Azure Data Lake

Azure Data Lake ist ein Teil des öffentlichen Cloud-Angebots von Microsoft und ermöglicht die Speicherung von Big Data.

Architektur für große Daten

Die Big-Data-Architektur ist das Layout, das Big-Data-Systemen zugrunde liegt. Erfahren Sie hier mehr über die gemeinsamen Komponenten der Big-Data-Architektur.

Big Data-Ingestion

Big Data Ingestion sammelt Daten und bringt sie in ein Datenverarbeitungssystem, wo sie gespeichert, analysiert und abgerufen werden können.

Werkzeuge zur Integration großer Datenmengen

Big Data-Integration ist der Einsatz von Software, Diensten und/oder Geschäftsprozessen zur Extraktion von Daten aus verschiedenen Quellen in kohärente und aussagekräftige Informationen.

Reifegradmodell für große Daten (BDMM)

Big-Data-Reifegradmodelle (und Analyse-Reifegradmodelle) helfen Unternehmen dabei, Datentrends und -informationen zu nutzen, um bestimmte Erfolgsmaßstäbe zu erreichen.

Software zur Unternehmensintegration

Software zur Unternehmensintegration ist ein System von Anwendungen und Werkzeugen, die darauf abzielen, Datensätze und Geschäftsvektoren zu vereinheitlichen, um eine bessere Übersicht und Zentralisierung der Verwaltung zu ermöglichen.

Strategie zur Cloud-Integration

Informieren Sie sich über die Strategie der Cloud-Integration, bevor Sie Ihre Geschäftsdaten in die Cloud verlagern.

Cloud Speak

Cloud-Speak ist die Terminologie, die sich auf die Cloud-Technologie bezieht, einschließlich Akronyme und Fachausdrücke.

Cloud-basiertes Data Warehouse

Erfahren Sie, was ein Cloud-basiertes Data Warehouse ist und wie es Ihr Unternehmen unterstützen kann.

Cloud-basierte Integration

Erfahren Sie, was Cloud-basierte Integration ist und wie sie Ihr Unternehmen unterstützen kann.

Data Age Kundenservice

Der Kundenservice im Datenzeitalter musste sich an die veränderten Bedürfnisse der Unternehmen anpassen. Im Zuge der digitalen Transformation des Unternehmens müssen die angebotenen Dienstleistungen die Bedürfnisse der Kunden verstehen, vorhersagen und erfüllen. Neue Prozesse und sich schnell entwickelnde Technologien bedeuten, dass der Support mehr Einblicke haben muss und ...

Datenanalyse

Verschaffen Sie sich ein grundlegendes Verständnis der Datenanalyse und der Rolle, die sie in Unternehmen spielt.

Daten als Vermögenswert

Die Bestimmung, welche Daten wertvoll sind und welche nicht, ist ein komplexer Prozess. Zunehmend wird er durch automatisierte Programme und Prozesse unterstützt, um Terabytes von Big Data zu sortieren.

Datenkatalog

Ein Datenkatalog fungiert als Big Data-Glossar, das Metadaten-Referenzen für die verschiedenen Tabellen, Datenbanken und Dateien in Data Lakes oder Data Warehouses enthält.

Daten-Gewebe

Data Fabric ist eine weitere Variante eines verteilten, dezentralen Datenanalyse- und -management-Frameworks, wie es von Gartner vorgestellt wurde, und wird weitgehend als konkurrierendes Framework zu Data Mesh angesehen.

Daten Hydratation

Datenhydration oder Data Lake Hydration ist der Import von Daten in ein Objekt. Wenn ein Objekt darauf wartet, mit Daten gefüllt zu werden, wartet dieses Objekt darauf, hydriert zu werden. Die Quelle dieser Hydration kann ein Data Lake oder eine andere Datenquelle sein.

Schicht für die Datenaufnahme

Die Datenaufnahme sammelt Daten und bringt sie in die Datenverarbeitungssysteme. Die Datenaufnahmeschicht verarbeitet die eingehenden Daten, indem sie den Quellen Priorität einräumt, die Daten validiert und sie an den besten Speicherort weiterleitet, damit sie dort gespeichert werden und für den sofortigen Zugriff bereitstehen.

Pipeline für die Datenübernahme

Erfahren Sie, was eine Dateneingabe-Pipeline ist und wie Sie sie für die Datenanforderungen Ihres Unternehmens nutzen können.

Integration von Daten

Die Datenintegration ist ein grundlegender Bestandteil der Datenwissenschaft und -analyse. Daten können überwältigend sein und zu viele Daten aus verschiedenen Quellen bereitstellen, die sortiert werden müssen, um zeitnahe, effektive Geschäftsentscheidungen zu treffen. Die Datenintegration sortiert große strukturierte und unstrukturierte Datensätze, wählt Datensätze aus und strukturiert die Daten, um gezielte Erkenntnisse zu gewinnen...

Bewährte Praktiken der Datenintegration

Die Datenintegration ist eine Aufgabe für sich. Sie erfordert oft, dass die alten Prozesse eines Unternehmens, die für ein aktuelles System von zentraler Bedeutung sind, übernommen werden und das System dann für moderne digitale Nutzer aktualisiert wird.

Herausforderungen bei der Datenintegration im Gesundheitswesen

Erfahren Sie, auf welche Hindernisse die Gesundheitsbranche bei der Verlagerung von Daten in die Cloud stößt und wie sie diese überwinden kann.

Muster für die Datenintegration

Lernen Sie die wichtigsten Datenintegrationsmuster kennen und erfahren Sie, welche Sie für die Verlagerung Ihrer Unternehmensdaten in die Cloud verwenden sollten.

Plattform zur Datenintegration

Eine Datenintegrationsplattform wird in erster Linie von IT-Experten genutzt und verwaltet. Sie ermöglicht es, Daten aus verschiedenen Quellen zu sammeln, zu sortieren und umzuwandeln, so dass sie für verschiedene Geschäftszwecke verwendet oder an bestimmte Benutzer, Geschäftseinheiten, Partner, Anwendungen oder künftige Lösungen weitergeleitet werden können.

Prozess der Datenintegration

Der Datenintegrationsprozess ist die Methode, mit der ein Unternehmen Daten aus verschiedenen Plattformen und Datensätzen zu einer kohärenten, übergreifenden digitalen Architektur kombiniert.

Projektplan zur Datenintegration

Ein Datenintegrationsplan hilft dabei, einen Rahmen für die digitale Transformation zu schaffen, indem er die Zeitpläne, Ziele, Erwartungen, Regeln und Rollen enthält, die eine vollständige Datenintegration umfassen werden.

Strategie zur Datenintegration

Datenintegrationsstrategien helfen dabei, die effizientesten und intelligentesten Lösungen zum Speichern, Extrahieren und Verbinden von Informationen mit Geschäftssystemen und Plattformen zu finden und zu implementieren.

Beispiel für eine Datenintegrationsstrategie

Ein Beispiel für eine Datenintegrationsstrategie gibt einen Überblick darüber, wie Datenintegrationsstrategien funktionieren. Dazu gehört in der Regel eine Liste bestimmter Elemente von Datenintegrationsstrategien.

Datensee

Ein Data Lake ist eine Art von Datenspeichersystem mit großer Kapazität, das "rohe" (halb- und unstrukturierte, d. h. Streaming, IoT usw.) Daten in ihrem nativen Format speichert, bis sie benötigt werden. Im Gegensatz zu hierarchischen Datenspeicherarchitekturen, bei denen strukturierte Daten in Ordnern gespeichert werden, wird bei einem Data Lake eine flache Architektur verwendet.

Data Lake Produkte

Erfahren Sie, welche Produkte für die Verwaltung des Data Lake zur Verfügung stehen, um das Beste aus den Daten Ihres Unternehmens herauszuholen.

Datenmarkt

Ein Data Mart ist eine spezifische Teilmenge von Daten, die in einem Data Warehouse gespeichert sind, und ermöglicht es bestimmten Abteilungen, die von ihnen benötigten Daten einfacher und schneller zu finden.

Datengeflecht

Data Mesh ist ein Schlagwort der Branche und ein umfassender Designansatz für die Implementierung einer modernen, verteilten Datenanalyse- und Datenfreigabe-Architektur in großem Maßstab.

Data Mesh vs. Data Fabric

Data Mesh und Data Fabric sind Rahmenwerke für die Datenanalyse und -verwaltung, die sich weitgehend ähneln und überschneiden, sich aber in einigen Bereichen unterscheiden.

Werkzeuge zur Datenmigration

Datenmigrationstools unterstützen Teams bei der Datenmigration, einschließlich der Migration von Daten vor Ort, der Cloud-basierten Datenmigration und der Migration von Open-Source-Daten.

Daten-Pipeline

Eine Datenpipeline ist ein Dienst oder eine Reihe von Aktionen, die Daten nacheinander verarbeiten. Die übliche Funktion einer Datenpipeline besteht darin, Daten von einem Zustand oder Ort in einen anderen zu verschieben.

Daten-Pipeline-Architektur

Eine Datenpipeline-Architektur ist ein System, das Daten erfasst, organisiert und so weiterleitet, dass sie zur Gewinnung von Erkenntnissen genutzt werden können. Rohdaten enthalten zu viele Datenpunkte, die möglicherweise nicht relevant sind.

Anbieter von Data Warehouse-Dienstleistungen

Erfahren Sie, welche Technologieunternehmen Data-Warehouse-Dienste für die Datenspeicherung in Ihrem Unternehmen anbieten können.

Data Warehousing-Tools

Die große Popularität und die Möglichkeiten, die sich aus Data Warehouses ergeben, haben die Entwicklung zahlreicher Data Warehousing-Tools gefördert.

Tiefes Lernen

Erfahren Sie alles über Deep Learning - von der Beziehung zum maschinellen Lernen bis hin zur zunehmenden Anwendung in vielen Bereichen.

Unternehmensressourcenplanung

Enterprise Resource Planning (ERP) ist eine Art von Software, die es einem Unternehmen ermöglicht, viele seiner täglichen Geschäftsaktivitäten zu verwalten und zu automatisieren.

Unternehmens-Service-Bus

Ein Enterprise Service Bus (ESB) ist eine Architektur, die die Kommunikation zwischen verschiedenen Umgebungen, z. B. Softwareanwendungen, ermöglicht.

Hadoop-Datensee

Ein Hadoop Data Lake basiert auf einer Plattform, die aus Hadoop-Clustern besteht, und ist in der Data-Lake-Architektur besonders beliebt, da es sich um Open Source handelt.

Hochgeschwindigkeits-Google

Die Aufnahme von Daten für die Datenspeicherung, -sortierung und -analyse ist ein fortlaufender Prozess, der die Grundlage der Systemarchitektur und des Datenmanagements bildet. Die Geschwindigkeit der Datenaufnahme ist Teil der Schaffung von Echtzeit-Dateneinblicken und ein Wettbewerbsvorteil für die Geschäftsstrategie.

Integrationsarchitektur

Application integration Software, die im Allgemeinen als "Middleware" eingestuft wird, d. h. Software, die das Bindeglied zwischen den Schnittstellen von Betriebssystemen, Software und Datenbanken bildet.

Bewährte Praktiken der Integration

Erfahren Sie mehr über bewährte Verfahren für die Cloud-Integration und wie sie Ihrem Unternehmen helfen können.

Integrationsplattform als Dienstleistung (IPaaS)

Integration Platform as a Service (IPaaS) ist ein Cloud-basiertes Integrationssystem, das Softwareanwendungen aus verschiedenen Umgebungen wie Geräten, IoT, Anwendungen usw. miteinander verbindet.

Dokument zu den Integrationsanforderungen

Ein Integrationsanforderungsdokument bewertet und beschreibt die Anforderungen für eine erfolgreiche Datenintegration. Ähnlich wie bei einer Systems/Software Requirements Specification (SRS) werden in den Integrationsanforderungen das erwartete Verhalten und die Funktionen des Integrationsprojekts und der zugehörigen Systeme formuliert. Die meisten Integrationsanforderungsdokumente sind Teil eines größeren Datenintegrations-Anforderungsplans ...

iPaaS-Architektur

Erfahren Sie, was die iPaaS-Architektur ist und wie sie Ihnen helfen kann, die digitale Infrastruktur Ihres Unternehmens in die Cloud zu verlagern.

Java-Leistungstest

Ein Java-Leistungstest prüft die Leistung einer Java-Anwendung auf Geschwindigkeit und Effizienz.

Java-Geschwindigkeitstest-Code

Erfahren Sie, was Java Speed Test Code ist und wofür er verwendet wird.

Leistungsvergleich Java vs. Python

Java und Python sind zwei der beliebtesten Programmiersprachen, aber ihre unterschiedlichen Sprachstrukturen haben deutliche Vor- und Nachteile. Beide verfügen über zahlreiche Ökosystem-Tools, die für eine bessere Benutzerfreundlichkeit und Leistung sorgen. Allerdings sind sie unterschiedlich schnell.

JSON (JavaScript-Objekt-Notation)

In diesem Artikel geben wir eine kurze Beschreibung von JSON und erklären, wie es hauptsächlich verwendet wird.

JSON-Web-Token

JSON Web Token (JWT) ist ein JSON-Objekt, das zum Senden von Informationen verwendet wird, die überprüft und als vertrauenswürdig eingestuft werden können. Der Standard ist quelloffen und basiert auf RFC 7519

Nutzen Sie Oracle EBS unternehmensweit mit SnapLogic

Die Oracle E-Business Suite ist eine Reihe von integrierten Geschäftsanwendungen, die von Oracle bereitgestellt werden.

Algorithmus für maschinelles Lernen

Hier finden Sie alles, was Sie schon immer über einen Algorithmus für maschinelles Lernen wissen wollten.

Software zur Verwaltung von Stammdaten

Stammdatenverwaltungssoftware bereinigt und standardisiert Daten und schafft so eine einzige Quelle der Wahrheit. Erfahren Sie mehr über die vielen Vorteile der Datenverwaltungssoftware.

Verlagerung von Daten in die Cloud

Die Verlagerung von Daten in die Cloud, auch bekannt als Cloud-Migration, bedeutet, dass Daten, die auf staatlichen Servern, persönlichen/physischen Servern gespeichert sind, auf eine vollständig digitale Speicherplattform verlagert werden.

Probleme beim Extrahieren von Daten aus Salesforce in Informatica PowerCenter

Die Extraktion von Daten aus Salesforce mit Informatica ist möglicherweise nicht die beste Lösung für die Datenextraktion und -integration.

Python vs. Java

Python vs. Java: Python und Java sind beides Programmiersprachen, von denen jede ihre Vorteile hat. Der wichtigste Unterschied zwischen den beiden Sprachen ist die Art und Weise, wie sie Variablen verwenden. Python-Variablen sind dynamisch typisiert, während Java-Variablen statisch typisiert sind.

Python vs. Java Leistung

Python und Java sind zwei der beliebtesten und robustesten Programmiersprachen. Lernen Sie die Unterschiede in diesem Leistungsvergleich zwischen Java und Python kennen.

REST-API

Representational State Transfer ist ein architektonischer Stil für Software, der eine Reihe von Prinzipien, Eigenschaften und Einschränkungen für die Standardisierung von Operationen auf der Grundlage von http bereitstellt.

SAP-Analytik

SAP Analytics ist ein System, das mit Hilfe von Predictive Cloud Analytics zukünftige Ergebnisse vorhersagt und es Datenanalysten und Unternehmensvertretern ermöglicht, fundierte Entscheidungen zu treffen.

SAP-Integration

SAP-Integrationen übernehmen Daten aus einer Quelle (z. B. einer Anwendung oder Software) und machen sie in SAP lesbar und nutzbar.

Schneeflocken-Datenbank

Die Snowflake-Datenbank ist eine Data-Warehouse-Lösung in der Cloud, die auf der Software von Snowflake basiert.

Software-Integration

Die Software-Integration ermöglicht es, mehrere Arten von Software-Teilsystemen zu einem einzigen, einheitlichen System zu verbinden.

Spark-SQL

Erfahren Sie, wie Spark SQL die Verwendung von Spark schneller und einfacher macht.

Splunk-Abfrage

Was ist eine Splunk-Abfrage? Erfahren Sie, wie sie Maschinendaten zugänglich, nutzbar und wertvoll für jedermann macht.

SQL-Server-Funktionen

SQL-Server-Funktionen sind Sätze von SQL-Anweisungen, die bestimmte Aufgaben ausführen und es ermöglichen, allgemeine Aufgaben einfach zu replizieren.

SSL-Authentifizierung

SSL-Authentifizierung steht für Secure Sockets Layer und ist ein Protokoll zur Herstellung einer sicheren Verbindung für die Interaktion zwischen Benutzer und Server.

SSL-Authentifizierung in Restful Web Services

Das REST-Framework, das für netzbasierte Anwendungen verwendet wird. Es stützt sich auf einen clientbasierten zustandslosen Server. Eine SSL-Authentifizierung stellt sicher, dass die Interaktionen zwischen Client und Server sicher sind, indem die Verbindung zwischen ihnen verschlüsselt wird.

Der Übergang von Data Warehousing zu Big Data

Traditionelle relationale Data Warehouses werden zunehmend durch nicht-relationale Big Data ergänzt oder auf diese umgestellt. Mit dem Wechsel zu Big Data sind neue Fähigkeiten, Ansätze und Technologien erforderlich.

Zwei-Wege-SSL-Java-Beispiel

Bei bidirektionalem SSL, auch bekannt als gegenseitiges SSL, bestätigt der Client die Identität des Servers und der Server die Identität des Clients.

Was ist ein digitaler Kunde?

Ein rein digitaler Kunde ist genau das, wonach es klingt - ein Kunde, mit dem ein Unternehmen auf irgendeiner nicht-physischen Ebene in Kontakt tritt. Für digitale Kunden gelten wiederum eigene Best Practices des Unternehmens.

Was ist Hive und Hive Data Lake?

Die Vorteile von Hive ermöglichen eine einfachere Integration mit benutzerdefinierten Elementen, wie Erweiterungen, Programmen und Anwendungen. Außerdem ist es besser für die Batch-Dateneingabe und -verarbeitung geeignet.

Was ist die Workday-Integration?

Workday bietet cloudbasierte Unternehmensanwendungen und Management-Suiten mit einer einzigen Architektur, die Finanz-, Personal- und Analysefunktionen in einem einzigen System vereinen.

Wo werden die Daten in Azure gespeichert?

Erfahren Sie, wo sich die Microsoft Azure Storage-Server befinden und wie deren Standorte Ihr Unternehmen unterstützen können.

Workday Cloud Connect für Leistungen

Workday Cloud Connect for Benefits ist eine Unternehmensmanagement-Suite, die ein einziges System für die Verwaltung Ihrer Mitarbeiterleistungen bietet.

Arbeitstag EIB

Der Workday EIB (Enterprise Interface Builder) ist ein Werkzeug, das den Benutzern sowohl eine geführte als auch eine grafische Schnittstelle bietet.