Oracle Big Data

Qu’est-ce que le Big Data ?
Qu’est-ce que le Big Data ?
 

Définition du Big Data

 

Qu’est-ce que le Big Data ? (2:32)

Qu’est-ce exactement que le Big Data ?

Afin de bien comprendre ce qu’est le Big Data, il est utile d’en connaître le contexte historique. En voici la définition de Gartner, qui date de 2001 (mais qui reste la définition de référence) : le Big Data regroupe des données présentant une grande variété, arrivant en volumes croissants, à grande vitesse. C’est ce que l’on appelle les trois « V ».

En d’autres termes, le Big Data est composé de jeux de données complexes, provenant essentiellement de nouvelles sources. Ces jeux de données sont si volumineux que les logiciels de traitement des données classiques sont incapables de les traiter. Ces volumes massifs de données permettent néanmoins de résoudre des problèmes commerciaux qui auraient été impossibles à aborder auparavant.

Les trois « V » du Big Data

Volume

La quantité de données a son importance. Le Big Data vous oblige à traiter d’énormes volumes de données non structurées de faible densité. Il peut s’agir de données de valeur inconnue, comme des flux de données Twitter, des flux de clics sur une page Internet ou une application mobile ou d’un appareil équipé d’un capteur. Pour certaines organisations, cela peut correspondre à des dizaines de téraoctets de données. Pour d’autres, il peut s’agir de centaines de pétaoctets.

Vitesse

La vitesse à laquelle les données sont reçues et éventuellement traitées. Normalement, les données haute vitesse sont transmises directement à la mémoire, plutôt que d’être écrites sur le disque. Certains produits intelligents accessibles via Internet opèrent en temps réel ou quasi réel et nécessitent une évaluation et une action en temps réel.

Variété

La variété fait allusion aux nombreux types de données disponibles. Les types de données traditionnels ont été structurés et trouvent naturellement leur place dans une base de données relationnelle. Avec l’augmentation du Big Data, les données ne sont pas nécessairement structurées. Les types de données non structurées et semi-structurées, telles que les données texte, audio et vidéo requièrent un prétraitement supplémentaire pour dégager du sens et prendre en charge les métadonnées.

La valeur et la vérité du Big Data

Deux autres « V » ont vu le jour ces dernières années : la valeur et la véracité.

Les données possèdent une valeur intrinsèque. Elles ne présentent cependant aucune utilité tant que leur valeur n’est pas découverte. Tout aussi important : Quelle est la véracité de vos données et leur fiabilité ?

À l’heure actuelle, le Big Data revêt une importance capitale. Prenons l’exemple des entreprises technologiques de premier plan au niveau mondial. Une grande partie de la valeur qu’elles offrent provient de leurs données, qu’elles analysent en permanence afin de produire plus efficacement et mettre au point de nouveaux produits.

Les avancées technologiques récentes ont réduit de manière exponentielle le coût de stockage et de calcul des données, ce qui facilite plus que jamais leur stockage. Un plus grand volume de Big Data étant maintenant plus économique et accessible, vous êtes en mesure de prendre des décisions commerciales plus précises.

Trouver de la valeur au Big Data ne se résume pas à l’analyser (ce qui constitue un autre avantage). C’est un processus de découverte à part entière qui implique des analystes, utilisateurs d’entreprise et dirigeants perspicaces, qui posent les bonnes questions, détectent des tendances, émettent des hypothèses informées et anticipent des comportements.

Mais comment en sommes-nous arrivés à cet état de fait ?

Télécharger le livre blanc gratuite :

Histoire du Big Data

Même si le concept de Big Data est relativement nouveau, les grands jeux de données ont vu le jour dans les années 1960 et 70, au moment de l’émergence de l’univers des données, avec les premiers data centers et le développement de la base de données relationnelle.

En 2005, on assista à une prise de conscience de la quantité de données que les utilisateurs généraient sur Facebook, YouTube et autres services en ligne. Hadoop (une infrastructure open source créée spécifiquement pour stocker et analyser les jeux de Big Data) fut développé cette même année. NoSQL commença également à être de plus en plus utilisé à cette époque.

Le développement d’infrastructures open source telle que Hadoop (et, plus récemment, Spark) a été primordial pour la croissance du Big Data, car celles-ci facilitent l’utilisation du Big Data et réduisent les coûts de stockage. Depuis, le volume du Big Data a explosé. Les utilisateurs continuent de générer des quantités phénoménales de données, mais ils ne sont plus désormais les seuls.

En effet, grâce à l’avènement de l’Internet des objets (IoT), de plus en plus d’objets et d’appareils sont connectés à Internet. Ils collectent des données concernant les habitudes d’utilisation des clients et les performances des produits. L’émergence de l’apprentissage automatique a favorisé encore davantage l’augmentation du volume des données.

Alors que le Big Data a fait beaucoup de chemin, son utilité commence à peine à se faire sentir. Le Cloud computing a encore décuplé ses possibilités. Le cloud offre une évolutivité considérable, les développeurs peuvent simplement faire fonctionner rapidement des clusters dédiés pour tester un sous-ensemble de données.

Avantages du Big Data et de l’analyse de données :

  • Le Big Data permet d’obtenir des réponses plus complètes, car le volume d’informations est plus important.
  • L’exhaustivité des réponses augmente la confiance dans les données. Cela permet d’adopter une méthode de résolution des problèmes radicalement différente.
 

Découvrez d’autres ressources concernant le Big Data :


Cas d’utilisation du Big Data

Le Big Data peut vous aider à réaliser diverses activités commerciales, de l’expérience client aux analyses. En voici quelques-unes. Vous trouverez d’autres cas d’utilisation dans Solutions Oracle Big Data.

Développement de produit
Les entreprises telles que Netflix et Procter & Gamble utilisent le Big Data pour anticiper la demande client. Elles créent des modèles prédictifs pour de nouveaux produits et services, en classant les principaux attributs de produits ou services passés et présents et en modélisant la relation entre ces attributs et le succès commercial de leurs offres. De plus, P&G utilise les données et analyses émanant de groupes cibles, réseaux sociaux, marchés test et présentations en avant-première pour prévoir, produire et lancer de nouveaux produits.

Maintenance prédictive
Les facteurs permettant de prévoir des défaillances mécaniques peuvent être profondément enfouis dans les données structurées, par exemple, l’année de fabrication de l’équipement, la marque et le modèle d’une machine. On peut également les trouver dans des données non structurées couvrant des millions d’entrées de journaux, de données de capteurs, de messages d’erreur et de relevés de température de moteurs. En analysant ces indications de problèmes potentiels avant que ceux-ci surgissent, les entreprises sont à même de déployer leur maintenance de manière plus rentable et d’optimiser le temps de fonctionnement de leurs pièces et équipements.

Expérience client
La course aux clients est lancée. Il est désormais possible d’avoir une meilleure vue d’ensemble de l’expérience client qu’auparavant. Le Big Data permet de recueillir des données des réseaux sociaux, des visites de sites Internet, des journaux d’appels et d’autres sources de données, afin d’améliorer l’expérience d’interaction et d’optimiser la valeur offerte. Commencez à proposer des offres personnalisées, à réduire la perte de clients et à traiter les problèmes de manière proactive.

Fraude et mise en conformité
En matière de sécurité, vous n’avez pas affaire à simplement une poignée de hackers, vous êtes sous la menace d’équipes de spécialistes. Les paysages de la sécurité et les exigences de conformité sont en évolution constante. Le Big Data vous aide à identifier des modèles dans les données qui indiquent une fraude et à agréger de grands volumes d’informations permettant d’accélérer le reporting réglementaire.

Apprentissage automatique
L’apprentissage automatique est un sujet d’actualité. Les données, plus particulièrement le Big Data, l’ont rendu possible. Nous sommes désormais capables d’enseigner aux machines, plutôt que de simplement les programmer. La disponibilité du Big Data pour créer des modèles d’apprentissage automatique rend cela possible.

Efficacité opérationnelle
L’efficacité opérationnelle n’est pas un sujet brûlant, mais c’est dans ce domaine que l’impact du Big Data est le plus important. Grâce au Big Data, vous pouvez analyser et évaluer la production, les commentaires et retours des clients, ainsi que d’autres facteurs, afin de réduire les pannes et d’anticiper les demandes à venir. Le Big Data permet également d’améliorer la prise de décision, en adéquation avec la demande du marché.

Stimuler l’innovation
Le Big Data peut vous aider à innover en étudiant les interdépendances entre les êtres humains, les institutions, les entités et les processus, puis en déterminant de nouvelles manières d’utiliser ces informations. Exploiter les informations pour améliorer les décisions dans les domaines financiers et de planification. Examiner les tendances et les souhaits des clients pour offrir de nouveaux produits et services. Mettre en place une tarification dynamique. Les possibilités sont infinies.


Les défis liés au Big Data

Si le Big Data ouvre des perspectives intéressantes, il n’en présente pas moins certains écueils.

Tout d’abord, le Big Data est volumineux. Même si de nouvelles technologies ont été mises au point pour le stockage des données, les volumes de données doublent environ tous les deux ans. Les entreprises éprouvent toujours des difficultés à maîtriser leur croissance et à trouver des moyens de les stocker efficacement.

Il ne suffit toutefois pas de stocker les données. Pour être utiles, celles-ci doivent être exploitées et, en amont, organisées. Disposer de données « propres », qui soient pertinentes pour le client et organisées de sorte à permettre une analyse utile, nécessite une somme de travail colossale. Les spécialistes des données passent 50 à 80 % de leur temps à organiser et à préparer les données avant leur utilisation.

Enfin, la technologie du Big Data évolue rapidement. Il y a quelques années, Apache Hadoop était la technologie la plus utilisée pour traiter le Big Data. Puis, Apache Spark fit son apparition en 2014. Actuellement, l’association des deux infrastructures semble constituer la meilleure approche. Maîtriser la technologie du Big Data est un enjeu continu.

Découvrez d’autres ressources concernant le Big Data :

 

Fonctionnement du Big Data

Le Big Data offre de nouvelles perspectives, qui ouvrent de nouvelles opportunités et favorisent de nouveaux business models. Son adoption implique trois actions principales :

Intégrer

Le Big Data rassemble des données provenant de sources et d’applications disparates. Les mécanismes d’intégration des données classiques, comme ETL (extraire, transformer et charger) ne sont généralement pas à la hauteur. Pour analyser des jeux de Big Data à l’échelle de téraoctets, voire de pétaoctets, il est nécessaire d’adopter de nouvelles stratégies et technologies.

Lors de la phase d’intégration, vous devez importer les données, les traiter et vous assurer qu’elles sont formatées et disponibles sous une forme que vos analystes peuvent exploiter.

 

Gérer

Le Big Data nécessite du stockage. Votre solution de stockage peut se trouver dans le cloud, sur site, ou les deux à la fois. Vous pouvez stocker vos données sous la forme de votre choix et imposer à ces jeux de données vos exigences de traitement, ainsi que les moteurs de traitement nécessaires, à la demande. Nombreux sont ceux qui choisissent leur solution de stockage en fonction de l’endroit où sont hébergées leurs données. Le cloud est de plus en plus adopté, car il prend en charge vos besoins informatiques actuels et laisse la possibilité d’augmenter les ressources en fonction des besoins.

Analyser

Votre investissement dans le Big Data porte ses fruits dès lors que vous êtes en mesure d’analyser vos données et d’agir à partir de l’analyse. Forgez-vous un nouveau point de vue grâce à une analyse visuelle de vos divers jeux de données. Explorez davantage les données afin de faire de nouvelles découvertes. Partagez vos conclusions avec d’autres utilisateurs. Créez des modèles de données avec l’apprentissage automatique et l’intelligence artificielle. Exploitez vos données.

Meilleures pratiques en matière de Big Data

Pour vous aider dans votre parcours vers le Big Data, voici quelques meilleures pratiques à adopter. Voici nos conseils pour établir un socle solide pour le Big Data.

   
Alignez le Big Data avec vos objectifs commerciaux spécifiques.

Des jeux de données plus exhaustifs permettent de faire de nouvelles découvertes. Afin d’y parvenir, il est important d’ancrer les nouveaux investissements dans des compétences, une organisation, ou une infrastructure avec un contexte axé sur l’entreprise, afin de garantir la continuité des investissements et du financement du projet. Pour déterminer si vous êtes sur la bonne voie, interrogez-vous sur la façon dont le Big Data étaye et renforce vos priorités commerciales et informatiques. Il peut, par exemple, vous aider à appréhender les comportements en matière de commerce électronique, capter les opinions sur les réseaux sociaux et via les interactions avec le support client, ou à comprendre les méthodes de corrélation statistique et leur pertinence pour les données client, produit, fabrication et ingénierie.

Pallier le manque de compétences grâce aux normes et à la gouvernance

L’un des principaux obstacles au Big Data est le manque de compétences. Vous pouvez réduire ce risque en veillant à ce que les technologies, considérations et décisions liées au Big Data soient ajoutées à votre programme de gouvernance informatique. La normalisation de votre approche vous permettra de maîtriser les coûts et de tirer parti des ressources. Les organisations mettant en œuvre des solutions et stratégies de Big Data doivent évaluer leurs besoins en matière de compétences en guide de préambule et identifier en amont toute pénurie potentielle de compétences. Vous pouvez y remédier en formant les ressources existantes, en embauchant ou en faisant appel à un cabinet de consultants.

Optimiser le transfert de connaissances avec un centre d’excellence

Faites appel à un centre d’excellence pour partager les connaissances, assurer la supervision et gérer les communications du projet. Que le Big Data corresponde à un investissement nouveau ou renforcé, les frais essentiels et accessoires peuvent être partagés au sein de l’entreprise. Cette approche permet d’augmenter les capacités en termes de Big Data et la maturité de l’architecture globale des informations de manière plus structurée et systématique.

Le principal avantage est l’alignement des données non structurées avec les données structurées

Il est utile d’analyser le Big Data seul. Vous obtiendrez néanmoins des perspectives plus larges en connectant et en intégrant le Big Data de faible densité avec les données structurées que vous utilisez déjà actuellement.

Que vous recueilliez du Big Data concernant des clients, des produits, des équipements ou l’environnement, l’objectif est d’ajouter des points de données plus pertinents à vos synthèses principales et analytiques, afin d’améliorer les conclusions. Par exemple, il y a une différence entre s’intéresser aux opinions de tous les clients et seulement à celles de nos meilleurs clients. C’est la raison pour laquelle de nombreuses personnes considèrent le Big Data comme l’extension de leurs fonctions de business intelligence existantes, de leur plateforme de data warehouse et de l’architecture de leurs informations.

N’oubliez pas que les processus et les modèles d’analyse du Big Data peuvent être à la fois humains et basés sur des machines. Les fonctions d’analyse du Big Data englobent les statistiques, l’analyse spatiale, la sémantique, la découverte interactive et la visualisation. Les modèles d’analyse permet de corréler différents types et sources de données afin de créer des associations et de faire des découvertes pertinentes.

Planifier votre labo de découverte pour la performance

Il n’est pas toujours simple de trouver du sens à vos données. Il arrive que nous ne sachions même pas ce que nous cherchons. Il n’y a rien de plus normal. Le management et le service informatique doivent tenir compte de ce manque de direction ou de besoins précis.

Il est toutefois important que les analystes et les spécialistes des données collaborent étroitement avec l’entreprise, afin de comprendre les lacunes et les besoins en termes de connaissances. Afin de favoriser l’exploration interactive des données et l’expérimentation avec des algorithmes statistiques, vous avez besoin d’espaces de travail ultra-performants. Assurez-vous que les environnements de bacs à sable disposent de la puissance dont ils ont besoin et soient gouvernés correctement.

S’aligner avec le modèle de fonctionnement du cloud

Les processus et les utilisateurs de Big Data ont besoin d’accéder à diverses ressources pour l’expérimentation itérative et l’exécution de tâches de production. Une solution de Big Data comprend tous les aspects liés aux données, notamment les transactions, les données principales, les données de référence et les données de synthèse. Les bacs à sable analytiques doivent être créés à la demande. La gestion des ressources est cruciale pour garantir la maîtrise du flux de données dans son intégralité, notamment le traitement préalable et postérieur, l’intégration, la synthèse au sein de la base de données et la modélisation analytique. Une mise en service d’un cloud privé et public et une stratégie de sécurité bien planifiées jouent un rôle primordial dans la prise en charge de ces besoins en évolution.

 

Nous sommes là pour vous aider

Contacter un conseiller commercial

S’abonner par thème