Tre motivi per cui è necessario modernizzare l'architettura dei dati aziendali legacy

6 minuti di lettura

Pubblicato in precedenza su itproportal.com.

Un sistema deve essere "modernizzato" quando non è più in grado di affrontare in modo sufficiente i problemi attuali. Molti sistemi che ora devono essere revisionati erano un tempo le migliori opzioni disponibili per affrontare determinate sfide. Ma le sfide che risolvevano erano limitate agli ambienti aziendali, tecnologici e normativi in cui erano stati concepiti. Informatica, ad esempio, è stata fondata prima di Internet. Va da sé che l'integrazione aziendale è cambiata profondamente da allora.

Un insieme di sistemi che ha un disperato bisogno di essere modernizzato è la tradizionale architettura dei dati on-premises. L'enorme aumento del volume, della varietà e della velocità dei dati oggi lascia perplessi i sistemi tradizionali. Attualmente, le architetture di dati tradizionali si stanno piegando sotto il peso di queste tre sfide. Presto potrebbero rompersi.

Volume: I dati stanno diventando troppo grandi per le tasche dei legacy

Il nostro mondo è affollato da quantità cosmiche di dati. Ogni giorno vengono effettuate 3,5 miliardi di ricerche su Google, 300 milioni di foto vengono caricate su Facebook e vengono creati 2,5 quintilioni di byte di dati. IDC prevede che i dati globali cresceranno di dieci volte tra il 2016 e il 2025, raggiungendo l'incredibile cifra di 163 zettabyte.[1] Uno dei clienti di SnapLogic nel settore delle biotecnologie elabora ben cinque miliardi di documenti al giorno.[2] E si tratta di una sola azienda.

La gestione di questi volumi crescenti di dati in un ambiente on-premise è insostenibile. L'IT finisce per investire tempo e risorse preziose nell'acquisto, nell'installazione e nella gestione dell'hardware. Inoltre, deve scrivere un mucchio di codice per far funzionare i sistemi in cui risiedono i dati (ad esempio, database, data warehouse, ecc.). Le organizzazioni che consentono un tale approccio alla gestione dei dati non raggiungeranno mai la profondità di analisi necessaria nell'economia digitale. Saranno come i surfisti che remano all'infinito vicino alla riva senza mai superare i frangenti.

Varietà: I dati sono troppo eterogenei per i rigidi sistemi legacy

In passato la maggior parte dei dati era di tipo simile. In linea di massima, erano strutturati e facili da raccogliere. Oggi non è più così. Oggi, alcuni dati risiedono in database on-premises mentre altri risiedono in applicazioni cloud . Una determinata azienda può raccogliere dati strutturati, non strutturati e semi-strutturati. La varietà continua ad aumentare.

Secondo un'indagine, le aziende utilizzano circa 1.180 servizi cloud , molti dei quali producono dati unici. In un altro esempio, noi (SnapLogic) abbiamo integrato oltre 400 applicazioni per una grande azienda IT.

Il processo di integrazione di tutti questi dati estremamente eterogenei è un compito troppo arduo per i sistemi legacy. All'interno di un'architettura di dati legacy, è spesso necessario codificare a mano le pipeline di dati, che poi devono essere riparate non appena un'API cambia. Potreste anche dover supervisionare un amalgama di soluzioni di integrazione, che vanno da strumenti limitati point-to-point a piattaforme ingombranti che devono essere alimentate tramite script. Questi approcci tradizionali sono lenti, complicati e inadeguati alla crescente varietà di dati odierni. I sistemi legacy ostacolano in larga misura gli sforzi delle aziende per utilizzare i dati raccolti.

Velocità: I dati devono muoversi più velocemente di quanto possano fare i sistemi tradizionali.

Negli anni passati gli scenari in cui era necessaria un'elaborazione dei dati ad alta velocità erano molto meno numerosi di quelli attuali. Oggi le operazioni mission-critical si basano sempre più sull'elaborazione dei dati in tempo reale. Anche un ritardo di 10 secondi nella consegna dei dati può rappresentare una minaccia se si tratta di dati "ipercritici" (dati da cui dipendono la salute e il benessere delle persone). È interessante notare che IDC stima che il 10% di tutti i dati sarà di natura ipercritica entro il 2025. In alcuni casi, se questi dati non vengono elaborati istantaneamente, le conseguenze possono essere disastrose. Mi vengono in mente i casi dei viaggi aerei, delle auto a guida autonoma e dell'assistenza sanitaria.

Le architetture di dati legacy faticano a elaborare i big data con la velocità e la coerenza necessarie in situazioni mission-critical. Uno dei motivi è che, in un ambiente on-premises, l'IT deve essenzialmente indovinare la potenza di calcolo di cui avrà bisogno in un determinato momento. Se fornisce troppo pochi server per un evento di "picco di carico", il sistema potrebbe subire un'interruzione. Inoltre, il volume e la varietà dei dati in entrata mettono a dura prova il sistema di gestione dei database tradizionali, ostacolando anche la velocità di elaborazione dei dati.

La moderna architettura dei dati aziendali: Risolvere i problemi di oggi ... e quelli di domani

A quanto pare, le architetture di dati legacy sono in procinto di diventare obsolete. La velocità con cui ciò avverrà varierà a seconda del settore. Ma tra non molto la maggior parte delle organizzazioni, se non tutte, sarà costretta a fare i conti con sfide legate ai dati per le quali i sistemi legacy non hanno una risposta.

Le organizzazioni devono modernizzare la loro architettura dei dati per trionfare nel frenetico mondo dei big data di oggi. Questo cambiamento è probabilmente ancora più critico per prosperare nell'era che deve ancora venire.

Una moderna architettura dei dati aziendali (MEDA) affonda le sue radici in cloud. Con un data lake cloud al suo centro, un'architettura moderna vieta di riversare le risorse in attività non strategiche come la manutenzione dei server e l'acquisto di hardware. Anzi, è in grado di sopportare montagne di dati in entrata e di farlo su scala.

Anche il self-service è un segno distintivo di una moderna architettura dei dati. In questo ambiente, i nuovi strumenti di gestione dei dati a basso codice riducono notevolmente il tempo necessario per eseguire le attività di manipolazione dei dati di base. Automatizzano il processo di spostamento, pulizia e trasformazione dei dati, indipendentemente dal loro formato. Al contempo, diminuisce la necessità di eseguire noiosi script manuali.

In questo contesto, gli analisti e i data scientist non devono più dedicare l'80% della loro giornata alla preparazione dei dati. Possono invece dedicarsi all'estrazione di valore dai dati attraverso l'analisi. Inoltre, i lavoratori della conoscenza di tutta l'organizzazione, non solo dell'IT, possono disporre di dati utilizzabili. E sono in grado di sfruttarli per prendere decisioni aziendali di grande impatto. A differenza dei sistemi legacy, un'architettura moderna crea un immenso valore da dati complessi ed eterogenei.

Infine, un'architettura moderna è progettata per elaborare i dati in tempo reale, anche quando si verificano picchi di traffico di dati. In questo modo si evitano fastidiosi intoppi e devastanti interruzioni di servizio. Un'architettura di dati moderna offre alle aziende la garanzia di poter contare sempre più sull'elaborazione dei dati ad alta velocità per le loro operazioni più critiche.

L'inesorabile aumento del volume, della varietà e della velocità dei dati sarà la fine dei sistemi legacy. Se si aspetta a modernizzare l'architettura dei dati fino a quando i sistemi legacy non avranno raggiunto la fine, potrebbe essere troppo tardi.

Per saperne di più sulla moderna architettura dei dati aziendali, scaricate il nostro ebook "The State of Modern Enterprise Data Architecture for Big Data Analytics".


[1] 1 zettabyte = 1 trilione di gigabyte

[2] Un singolo documento spesso contiene più unità di dati.

Ex responsabile dei dati di SnapLogic

Stiamo assumendo!

Scoprite la vostra prossima grande opportunità di carriera.