Aucun résultat trouvé

Votre recherche n’a donné aucun résultat.

Nous vous suggérons d’essayer ce qui suit pour trouver ce que vous recherchez :

  • Vérifiez l’orthographe de votre recherche par mot clé.
  • Utilisez des synonymes pour le mot clé que vous avez tapé, par exemple, essayez “application” au lieu de “logiciel”.
  • Essayez l’une des recherches populaires ci-dessous.
  • Lancer une nouvelle recherche.
Questions tendances

Data Lake : Définition

Lorsqu'il s'agit de stocker des données, plusieurs options peuvent s’offrir à vous : une base de données ou encore un Data Warehouse. Cependant, vous pouvez également envisager d'utiliser un Data Lake comme dépôt de données. Tous les types de données générées par l’entreprise peuvent être chargés dans un Data Lake et être analysées ultérieurement.

Data Lake : Qu’est-ce que c’est ?

Temps de lecture : 4 mn

Certains croient à tort qu'un Data Lake n'est qu’une version améliorer d'un entrepôt de données (Data Warehouse). Bien qu'ils soient semblables, ce sont des outils différents qui devraient être utilisés à des fins différentes.

Un Data Lake contient des données de manière non structurée. Il n'y a pas de hiérarchie ou d'organisation entre les différents éléments de données. Les données sont conservées sous leur forme la plus brute et ne sont ni traitées ni analysées. Un Data Lake accepte et conserve toutes les données provenant de différentes sources et supporte tous les types de données.

Un Data Lake utilise une architecture plate pour stocker les données. Chaque élément de données d'un Lake se voit attribuer un identifiant unique et est marquée avec un ensemble de balises de métadonnées étendues.

Par la suite, le Data Lake peut être interrogé pour obtenir des données pertinentes, et ce plus petit ensemble de données peut ensuite être analysé pour aider à répondre à des problématiques d’entreprise.

L’architecture d’un Data Lake

Les Data Lakes sont construits à partir d'un modèle de données schema-on-read. Un schéma est essentiellement le squelette d'une base de données décrivant son modèle et la façon dont les données y seront structurées.

Le modèle de données schema-on-read vous permet de charger vos données dans le Lake sans avoir à vous soucier de sa structure. Ce qui rend la structure très flexible.

Il existe deux types de traitement pour un intégrer des données à un Data Lake :

  • Batch processing (traitement par lots) : Des millions d’amas de données traitées sur de longues périodes. C’est la méthode la moins sensible au facteur temps pour le traitement des données volumineuses.
  • Stream processing (traitement des flux) : Des petits lots de données traités en temps réel. Le traitement des flux devient de plus en plus précieux pour les entreprises qui exploitent l'analyse en temps réel.

Certains outils sont particulièrement utiles pour le traitement de données non structurées telles que l'activité des capteurs, les images, les messages des médias sociaux et l'activité du parcours de navigation sur Internet. D'autres outils donnent la priorité à la vitesse de traitement et à l'utilité des programmes de Machine Learning.

Big Data Analytics et les Data Lakes

Le Big Data Analytics parcourt le Data Lake pour tenter de découvrir des schémas, les tendances du marché et les préférences des clients afin d'aider les entreprises à prendre des décisions plus rapidement. Pour ce faire, on procède à quatre analyses différentes :

  • L’analyse descriptive permet d’examiner rétrospectivement "où" un problème a pu survenir au sein de l’entreprise.
  • L’analyse diagnostique est une autre analyse rétrospective qui examine "pourquoi" un problème spécifique est survenu dans une entreprise. C'est un peu plus approfondi que l'analyse descriptive.
  • Lorsque l'IA et les logiciels de Machine Learning sont appliqués, l’analyse prédictive peut fournir à une organisation des modèles prédictifs de ce qui peut se produire ensuite. En raison de la complexité de la génération d'analyses prédictives, elle n'est pas encore largement adoptée.
  • L'analyse prescriptive permet de déterminer la meilleure solution entre divers scénarios. En identifiant la meilleure approche, il permet à l’entreprise de prendre de meilleure décision.

Les enjeux du Data Lake

L’accumulation de toutes sortes de données non structurées provenant de diverses sources peut devenir une réelle problématique pour l’entreprise. Sans gouvernance, un Data Lake peut nuire à la qualité et la fiabilité des données.

Une mauvaise utilisation des métadonnées ou des processus pour garder le Data Lake sous contrôle peut mener à ce qu'on appelle un marécage de données.

Les Data Lake sont un concept relativement nouveau dans l’IT. La question de la sécurité des données est encore relativement importante car le Data Lake peut contenir des données sensibles. Il est donc important de s'assurer que seules les bonnes personnes ont accès aux données sensibles chargées dans le lac.

Vous souhaitez en savoir plus sur Autonomous Database?

Le Capacity Planning : Un exercice d’optimisation indispensable pour les DSI

Temps de lecture : 3 mn

Le Capacity Planning est un terme générique employé pour désigner la gestion de la capacité. Ce processus vise à déterminer la capacité de production nécessaire à une organisation pour répondre à une demande. Ce besoin de gestion de la capacité s’applique à de nombreux secteurs d’activité tels que l’industrie, le retail ou l’informatique.

Pour une DSI, le Capacity Planning consiste à estimer le besoin en ressources nécessaires (CPU, Mémoire, Stockage, Réseaux, Heap…) Par exemple, dans le cas des ressources réseau, le network monitoring va détecter les composants du réseau lents ou défaillants, tels que les serveurs surchargés ou en panne ou gelés, les routeurs défaillants, les commutateurs défaillants ou d'autres dispositifs problématiques. En cas de panne de réseau ou de panne similaire, le système de surveillance du réseau alerte l'administrateur réseau.

Le Capacity Planning

Pour une DSI, le Capacity Planning consiste à estimer le besoin en ressources nécessaires (CPU, Mémoire, Stockage, Réseaux, Heap…) pour soutenir une charge d’activité sur une période à venir. Le Capacity Planning devient un exercice critique lorsqu’il s’agit de faire face à une augmentation du nombre d'utilisateurs, une croissance ou un ralentissement d’activité imprévu ou difficile à mesurer. Le Capacity Planning doit également tenir compte des évolutions fréquentes de l’infrastructure. Ainsi, le Capacity Planning est un exercice de prévision difficile mais indispensable pour la DSI.

Pourquoi faire du capacity planning ?

Une mauvaise anticipation du besoin en capacité peut engendrer de sérieuses dégradations de performance, voir une interruption de service lorsqu’une instance a été sous-dimensionnée. Les conséquences peuvent alors être lourdes pour le métier : retard sur la chaîne de production, insatisfaction client, perte des sessions en cours…


A l’inverse, surdimensionner un environnement informatique, par principe de précaution, entraîne un gaspillage évitable des ressources.

L’enjeu du Capacity Planning consiste à assurer la disponibilité et la performance des environnements tout en optimisant autant que possible les ressources et les coûts.

Le Capacity Planning est une question d'optimisation ; il s'agit de maximiser l’allocation des ressources tout en garantissant la performance et la disponibilité des environnements. Tout DSI devrait être motivée à faire du Capacity Planning pour :

  • Prédire le moment où une infrastructure ne sera plus en mesure de faire face à la charge d’activité.
  • Anticiper l’achat de nouvelles machines ou l’approvisionnement de nouvelles ressources.
  • Identifier les goulots d’étranglement.
  • Comparer le coût d’un environnement On Premise à celui d’un Cloud public.
  • Anticiper et savoir faire face aux pics de charge qu'ils soient prévus ou inattendus.
  • Prévoir la configuration de production la plus optimisée avant le déploiement d'une nouvelle application.

Comment faire du Capacity Planning ?

Le Capacity Planner, à l'aide de business plans et de prédictions, tente d'imaginer ce que seront les besoins futurs. Il s’appuie souvent sur sa connaissance de l’historique et de la saisonnalité.

Dans beaucoup d’organisations, le Capacity Planning est un exercice encore fastidieux réalisé sur des feuilles de calcul. Celui-ci est à la fois long et peu précis.

Créer une base de données permet d’éviter les erreurs et de maximiser les opportunités de croissance de l’entreprise, à condition d’avoir élaboré une stratégie de Data Management adéquate.

Les outils de modélisation analytique comme les outils OLAP, via une application OLTP,(ou grâce au data mining) peuvent aider à obtenir des réponses à des scénarios "What if" afin d’explorer un éventail de possibilités. Le Big Data Analytics parcourt le data lake pour réaliser des analyses prédictives et ainsi aider les entreprises à prendre des décisions plus efficacement.  Cette analyse est réalisée à partir de diverses sources de données stockées dans des data warehouses et organisées en cubes OLAP. Le Capacity Planner doit également tenir compte de l’évolution des nouvelles technologiques.

Il est désormais possible d’automatiser son Capacity Planning grâce à l’Intelligence Artificielle. Des algorithmes avancés de régression linéaire, quadratique, elliptique etc… permettent anticiper de manière précise les besoins CPU, mémoire, stockage, I/O, heap et d’optimiser l’allocation des ressources.

Pour en savoir plus, découvrez IT Analytics et son principal cas d’utilisation : Comment anticiper vos besoins en CPU, mémoire, stockage... ?

Découvrez en davantage sur le Capacity Planning...

Super Héros de l’IT

Essayez gratuitement Oracle Management Cloud !

Essai Gratuit

Machine Learning

Découvrez les algorithmes de Machine Learning développés par Oracle !

Voir la solution

Use Case

Comment anticiper vos besoins en CPU, mémoire, stockage… ?

Capacity Planning prédictif

Testez

Devenez un Super Héros de l’IT

Essai Gratuit

 

“Le Capacity Planning doit également tenir compte des évolutions fréquentes de l’infrastructure. Ainsi, le Capacity Planning est un exercice de prévision difficile mais indispensable pour la DSI.”

Découvrez les secrets de l'ITOM

Découvrez les solutions d’IT Operations Management & Analytics

ITOM & Analytics