Aucun résultat trouvé

Votre recherche n’a donné aucun résultat.

Data Lake : Définition

Lorsqu'il s'agit de stocker des données, plusieurs options peuvent s’offrir à vous : une base de données ou encore un Data Warehouse. Cependant, vous pouvez également envisager d'utiliser un Data Lake comme dépôt de données. Tous les types de données générées par l’entreprise peuvent être chargés dans un Data Lake et être analysées ultérieurement.

Data Lake : Qu’est-ce que c’est ?

Temps de lecture : 4 mn

Certains croient à tort qu'un Data Lake n'est qu’une version améliorer d'un entrepôt de données (Data Warehouse). Bien qu'ils soient semblables, ce sont des outils différents qui devraient être utilisés à des fins différentes.

Un Data Lake contient des données de manière non structurée. Il n'y a pas de hiérarchie ou d'organisation entre les différents éléments de données. Les données sont conservées sous leur forme la plus brute et ne sont ni traitées ni analysées. Un Data Lake accepte et conserve toutes les données provenant de différentes sources et supporte tous les types de données.

Un Data Lake utilise une architecture plate pour stocker les données. Chaque élément de données d'un Lake se voit attribuer un identifiant unique et est marquée avec un ensemble de balises de métadonnées étendues.

Par la suite, le Data Lake peut être interrogé pour obtenir des données pertinentes, et ce plus petit ensemble de données peut ensuite être analysé pour aider à répondre à des problématiques d’entreprise.

L’architecture d’un Data Lake

Les Data Lakes sont construits à partir d'un modèle de données schema-on-read. Un schéma est essentiellement le squelette d'une base de données décrivant son modèle et la façon dont les données y seront structurées.

Le modèle de données schema-on-read vous permet de charger vos données dans le Lake sans avoir à vous soucier de sa structure. Ce qui rend la structure très flexible.

Il existe deux types de traitement pour un intégrer des données à un Data Lake :

  • Batch processing (traitement par lots) : Des millions d’amas de données traitées sur de longues périodes. C’est la méthode la moins sensible au facteur temps pour le traitement des données volumineuses.
  • Stream processing (traitement des flux) : Des petits lots de données traités en temps réel. Le traitement des flux devient de plus en plus précieux pour les entreprises qui exploitent l'analyse en temps réel.

Certains outils sont particulièrement utiles pour le traitement de données non structurées telles que l'activité des capteurs, les images, les messages des médias sociaux et l'activité du parcours de navigation sur Internet. D'autres outils donnent la priorité à la vitesse de traitement et à l'utilité des programmes de Machine Learning.

Big Data Analytics et les Data Lakes

Le Big Data Analytics parcourt le Data Lake pour tenter de découvrir des schémas, les tendances du marché et les préférences des clients afin d'aider les entreprises à prendre des décisions plus rapidement. Pour ce faire, on procède à quatre analyses différentes :

  • L’analyse descriptive permet d’examiner rétrospectivement "où" un problème a pu survenir au sein de l’entreprise.
  • L’analyse diagnostique est une autre analyse rétrospective qui examine "pourquoi" un problème spécifique est survenu dans une entreprise. C'est un peu plus approfondi que l'analyse descriptive.
  • Lorsque l'IA et les logiciels de Machine Learning sont appliqués, l’analyse prédictive peut fournir à une organisation des modèles prédictifs de ce qui peut se produire ensuite. En raison de la complexité de la génération d'analyses prédictives, elle n'est pas encore largement adoptée.
  • L'analyse prescriptive permet de déterminer la meilleure solution entre divers scénarios. En identifiant la meilleure approche, il permet à l’entreprise de prendre de meilleure décision.

Les enjeux du Data Lake

L’accumulation de toutes sortes de données non structurées provenant de diverses sources peut devenir une réelle problématique pour l’entreprise. Sans gouvernance, un Data Lake peut nuire à la qualité et la fiabilité des données.

Une mauvaise utilisation des métadonnées ou des processus pour garder le Data Lake sous contrôle peut mener à ce qu'on appelle un marécage de données.

Les Data Lake sont un concept relativement nouveau dans l’IT. La question de la sécurité des données est encore relativement importante car le Data Lake peut contenir des données sensibles. Il est donc important de s'assurer que seules les bonnes personnes ont accès aux données sensibles chargées dans le lac.

Vous souhaitez en savoir plus sur Autonomous Database?