"Cacher la technologie" pour généraliser le Big Data

3 minutes de lecture

Publié à l'origine sur InsideBigData.

Les données massives (big data) sont une affaire importante - et une grande opportunité. Le problème est que la plupart des progrès en matière de big data ont été limités aux grandes entreprises dotées de grandes équipes d'ingénierie et de science des données. Les systèmes peuvent être complexes, immatures et difficiles à gérer. Cela peut être acceptable si vous êtes un développeur bien formé dans la Silicon Valley, mais ce n'est pas le cas si vous êtes un responsable informatique polyvalent dans une banque à Atlanta ou un chef d'entreprise en déplacement à Amsterdam. Comment pouvez-vous exploiter le big data si vous ne disposez pas d'une armée d'ingénieurs au fait des dernières technologies ?

Heureusement, l'aide est en route grâce à plusieurs tendances qui font passer la technologie de l'avant-plan à l'arrière-plan.

Tout d'abord, le big data se déplace vers le site cloud. Amazon, Microsoft et Google proposent désormais Hadoop et Spark "en tant que service", éliminant ainsi la nécessité d'installer un cluster, de rechercher de nouveaux produits logiciels ou de se préoccuper de la gestion des versions. Les entreprises déplacent de plus en plus leurs charges de travail de big data sur le site cloud, dissimulant la complexité à leurs utilisateurs tout en s'appuyant sur les meilleurs professionnels des centres de données du monde pour gérer la technologie. Elles veulent avoir accès à l'infrastructure quand et comme elles le souhaitent, avec juste ce dont elles ont besoin, mais plus encore.

La prochaine étape est l'émergence de l'informatique "sans serveur". Elle s'appuie sur la tendance cloud , tout en supprimant encore plus de dépendances techniques. Il suffit de charger vos données et de commencer le traitement. Dites à votre fournisseur cloud ce que vous voulez faire, combien de données vous voulez traiter et où vous voulez l'exécuter - et il fera tourner l'infrastructure quand vous en aurez besoin, et la fera tourner quand vous n'en aurez pas besoin. C'est incroyable pour les détaillants et les entreprises de produits de grande consommation, par exemple, qui peuvent avoir des activités saisonnières et donc des besoins en données fluctuants tout au long de l'année. Ils peuvent effectuer des analyses de données critiques en fonction de leurs besoins sans avoir à payer pour une infrastructure robuste pendant les périodes creuses.

La troisième grande tendance est le passage au libre-service, alimenté par de nouveaux outils et plateformes qui démocratisent à la fois l'intégration et la consommation des données. "L'intégration en libre-service permet de connecter rapidement et facilement des systèmes, de créer des pipelines de données et d'automatiser des processus sans avoir recours à un codage intensif. De même, l'analyse en libre-service permet aux analystes et aux utilisateurs professionnels de manipuler facilement les données sans intervention du service informatique. Sur les deux fronts, le libre-service abaisse la barre des compétences techniques requises, ouvrant la porte des données à des millions de nouveaux utilisateurs.

Enfin, l'apprentissage automatique et l'intelligence artificielle sont utilisés pour intégrer de plus en plus d'intelligence dans les applications. Les systèmes apprennent simplement à partir des données qui circulent - et fournissent des informations prédictives ou recommandent des actions en conséquence. Par exemple, nous pouvons désormais proposer une intégration "autoguidée" qui apprend à partir de millions d'éléments de métadonnées et de milliards de flux de données pour donner aux utilisateurs des instructions expertes étape par étape dans la construction de leurs pipelines de données. Cela raccourcit la courbe d'apprentissage pour les utilisateurs professionnels et les analystes, tout en libérant les équipes techniques pour une innovation et une gouvernance à plus forte valeur ajoutée.

Ces quatre tendances s'appuient sur des technologies très avancées, mais ce qui est remarquable, c'est à quel point elles "cachent" la technologie pour se concentrer sur les données et l'entreprise - exactement là où l'accent doit être mis. Cela ressemble beaucoup à ce que nous observons avec les logiciels grand public incroyablement intuitifs qui fonctionnent sans formation ni intervention manuelle. À l'instar de ces consommateurs, les entreprises veulent accomplir plus de choses plus rapidement, avec commodité et rapidité d'accès. Elles veulent des fonctionnalités de pointe, mais ne veulent pas être confrontées à des bogues, à des intégrations défectueuses et à des versions qui changent rapidement.

En fin de compte, la plupart des entreprises souhaitent simplement obtenir de meilleures données et des réponses plus rapides, sans avoir à se préoccuper de la technologie. "Je devrais simplement pouvoir écrire la requête et obtenir une réponse en retour". Grâce au site cloud, à l'informatique sans serveur, aux plateformes en libre-service et aux technologies d'auto-apprentissage, nous nous rapprochons de cet objectif. Si le big data n'a pas encore atteint le niveau de simplicité d'une recherche Google ou d'une compétence Alexa, nous devrions tous aspirer à l'y amener.

Ancien responsable mondial de la réussite des clients et de l'architecture d'entreprise chez SnapLogic

Nous recrutons !

Découvrez votre prochaine grande opportunité de carrière.