Perché cloud può salvare i big data

4 lettura minima
Riassumere questo con l'AI

Questo articolo è apparso originariamente su computable.nl.

Molte aziende desiderano utilizzare i big data per prendere decisioni migliori, rafforzare le relazioni con i clienti e aumentare l'efficienza all'interno dell'azienda. Si trovano di fronte a una serie vertiginosa di tecnologie - da progetti open source a software commerciali - che possono aiutare a gestire meglio le grandi quantità di dati. Ad esempio, servizi come Hadoop, Spark e Redshift possono essere utilizzati come base per lavorare con i big data.

In ultima analisi, la maggior parte delle aziende vuole semplicemente dati migliori e risposte più rapide, senza i problemi che derivano dall'applicazione di tecnologie diverse. Mentre Hadoop e altre piattaforme di big data si sono sviluppate lentamente, cloud è cresciuto più rapidamente. Pertanto, cloud può ora risolvere molti dei problemi che in precedenza impedivano il progresso dei big data.

Utilizzo ottimale

Negli ultimi anni la promessa dei big data è stata soddisfatta principalmente dalle grandi aziende con ampi reparti di ingegneria e data science. I sistemi utilizzati erano complessi, difficili da gestire e soggetti a cambiamenti. Questo è fattibile per le grandi aziende della Silicon Valley, ma l'azienda media olandese non può permettersi tali sistemi. Un'azienda media vuole i dati migliori nel più breve tempo possibile e nel posto giusto, senza dover assumere decine di ingegneri Java perché conoscono la tecnologia dalla A alla Z.

I problemi incontrati dai clienti con la piattaforma Hadoop on-premises sono spesso gli stessi che hanno riscontrato con i sistemi legacy locali: il personale non è sufficientemente qualificato per portare a termine tutto. Le aziende vogliono funzionalità avanzate, ma non vogliono doversi confrontare con bug, integrazioni fallite e nuove versioni. Inoltre, i modelli di consumo stanno cambiando: vogliamo consumare, archiviare ed elaborare i dati in ogni momento. Non vogliamo una capacità eccessiva. Vogliamo accedere all'infrastruttura in qualsiasi momento e in qualsiasi modo, e vogliamo sempre qualcosa in più di quello che ci serve.

In breve, i big data possono essere utilizzati in modo ottimale solo utilizzando cloud. La prima ondata di "big data via cloud" è stata semplice: aziende come Cloudera hanno messo il loro software su Amazon. Ma "il vero cloud" significa che le aziende non devono gestire Hadoop o Spark, ma spostare la complessità in un'infrastruttura ospitata, dove qualcun altro si occupa della gestione. A tal fine, Amazon, Microsoft e Google forniscono ora "Hadoop gestito" e "Spark gestito". Le aziende devono solo pensare ai dati che hanno, alle domande che hanno e alle risposte che vogliono. Non è necessario gestire un cluster, ricercare nuovi prodotti o preoccuparsi della gestione delle versioni. È sufficiente caricare i dati e iniziare a elaborarli.

Motivi per gestire i big data

Ci sono tre importanti ragioni, forse non sempre ovvie, per gestire i big data nel sito cloud:

  • Prevedibilità: L'infrastruttura e la sua gestione sono a carico del fornitore cloud . Di conseguenza, le aziende possono scalare in base alle proprie intuizioni e necessità, senza trovarsi di fronte a sorprese (finanziarie).
  • Efficienza dei costi: A differenza di Hadoop on-premise, dove la potenza di calcolo e lo storage si influenzano a vicenda, in cloud le aziende possono distribuire individualmente secondo le necessità e beneficiare di costi inferiori.
  • Innovazione: i fornitori di Cloud implementano continuamente il software, l'infrastruttura e le best practice più recenti. Di conseguenza, le aziende possono sfruttare al meglio i vantaggi di cloud senza investire tempo e denaro.

Naturalmente c'è ancora molto lavoro da fare, ma è più incentrato sui dati e sulle operazioni, e non sull'infrastruttura. La buona notizia per le aziende è che esiste una "nuova" tendenza nel campo dell'integrazione e dell'utilizzo dei dati, ovvero il passaggio al self-service. Grazie a nuovi strumenti e piattaforme, la "self-service integration" consente di creare rapidamente e facilmente piani di dati automatizzati senza l'uso di codice. La "self-service analytics" facilita la modifica dei dati da parte di analisti e utenti aziendali senza l'intervento dell'IT.

Nel complesso, queste tendenze sono responsabili della democratizzazione dei dati, e ciò è promettente. Ciò avrà un impatto significativo sulle funzioni orizzontali e sui settori verticali. I dati diventano così una fonte più fluida, dinamica e accessibile per tutte le organizzazioni. L'IT non detiene più le chiavi del regno e gli sviluppatori non determinano più il flusso di lavoro. Giusto in tempo, perché il volume e la velocità dei dati provenienti dai media digitali e sociali, dagli strumenti mobili e dai dispositivi edge minacciano di sommergerci. Non appena la promessa dell'Internet delle cose, dell'IA e del Machine Learning diventerà realtà, saremo sommersi da enormi quantità di dati.

Ex vicepresidente delle vendite EMEA di SnapLogic

Scoprite SnapLogic in azione con un tour interattivo!

Immagine dimostrativa del tour interattivo