Alan Zeichick | Responsable de la stratégie de contenu | 31 mai 2023
Exploiter efficacement les données métier exige un calcul de retour sur investissement (ROI), tout comme un investissement dans une usine, une extension de bureaux ou un effort de R&D. Nos organisations ne peuvent pas fonctionner sans données, clients, produits, transactions, employés, finances, économie, concurrents. Nous avons besoin de ces données pour croître et prospérer. Mais la donnée de qualité a un coût : acquisition, stockage, gestion, sécurisation et analyse. Plus les entreprises disposent de données, mieux elles servent leurs clients et collaborent avec leurs partenaires, mais plus elles doivent investir de temps, d'efforts et de ressources dans tout l'écosystème de données. Les entreprises gagnent à adopter en continu cette approche orientée ROI pour leurs données.
Cet article explore principalement le versant coûts de l'équation ROI des données et se concentre sur les moyens de contrôler et de réduire les coûts d'acquisition, de stockage, de sécurisation et d'exploitation de ces données.
Les coûts liés aux données regroupent les dépenses d'acquisition, de maintenance, de sécurisation et d'utilisation des données métier. Beaucoup de ces coûts liés aux données sont explicites. Les données doivent bien résider quelque part : on‑premises sur un disque dur ou une baie de stockage, par exemple, ou dans un stockage cloud (lui‑même composé de disques durs physiques). Des logiciels organisent ces données : système de gestion de contenus, base de données relationnelle, data warehouse ou data lake, ou autre structure ; ces logiciels impliquent des licences commerciales ou, en open source, des abonnements/contrats de support. Les données doivent être sauvegardées, ce qui nécessite du stockage supplémentaire et des logiciels pour gérer ces sauvegardes et préparer une éventuelle restauration partielle en cas de perte ou complète en cas de sinistre physique.
L'acquisition de données auprès d'un fournisseur tiers peut également entraîner des frais de licence ou d'autres coûts. Il faut des dispositifs de sécurité et de contrôle d'accès, notamment pour se conformer aux réglementations sectorielles ou gouvernementales et répondre aux enjeux de confidentialité. La validation des données, ainsi que l'assurance et l'amélioration de leur qualité, par exemple en corrigeant les informations obsolètes, engendrent des coûts.
L'exploitation optimale des données peut aussi générer des coûts, nécessitant des logiciels d'interface utilisateur, d'analytique et de reporting, voire de deep learning ou d'intelligence artificielle (IA) pour révéler des insights.
Enfin, des coûts sont liés aux performances et à la montée en charge. Quand les données passent de mégaoctets (Mo) à téraoctets (To) voire pétaoctets (Po), il faut des logiciels sophistiqués, une planification rigoureuse et, potentiellement, des outils d'automatisation pour les maintenir et les utiliser, ainsi que le matériel pour les stocker et y accéder à grande échelle. Et pour chacun de ces postes de coûts, les entreprises doivent recruter des profils qualifiés pour administrer et exploiter leurs outils de gestion des données.
Points à retenir
Réduire les coûts liés aux données commence par une compréhension fine des types de données dont dispose l'organisation. Une partie est relationnelle, c'est‑à‑dire des données organisées en lignes et colonnes. D'autres données sont non structurées : documents, images, vidéos, fichiers binaires. Une fois les actifs data bien identifiés, il faut déterminer le meilleur format de stockage, base relationnelle, base NoSQL, référentiel documentaire, etc., et envisager les opportunités de consolidation des bases de données. Il est également essentiel de savoir d'où viennent les données, où elles résident, ainsi que où et comment elles seront utilisées.
Une fois les données comprises et le meilleur mode de stockage choisi, l'étape suivante consiste à adopter une architecture des données flexible, capable de couvrir toutes les sources et tous les usages, afin d'optimiser l'acquisition, la gestion, le stockage et l'analyse. Un élément clé de cette architecture est le choix du bon modèle de gouvernance des données pour définir les usages. Autre point : choisir les bons systèmes de gestion de données on‑premises ou cloud pour minimiser les coûts tout en maximisant performances, flexibilité, sécurité et valeur d'usage. Toutes ces étapes permettent d'évaluer la valeur et l'usage de chaque jeu de données et de prendre les bonnes mesures pour minimiser les coûts associés à la création de valeur.
Quel que soit le volume de données détenu aujourd'hui, il augmente chaque jour, parfois chaque seconde. Une grande partie de ces données est indispensable pour faire tourner les opérations, réaliser des transactions, servir clients et partenaires, éclairer le management, alimenter le reporting financier et assurer la conformité. Mais certaines données peuvent avoir très peu de valeur. Voici 11 façons de réduire les coûts d'acquisition, de transformation, de stockage, de sécurisation et d'utilisation de toutes ces données. Dans certains cas, ces actions génèrent des économies indirectes, plutôt que des réductions budgétaires directes, grâce à une plus grande agilité, à la productivité des équipes ou à d'autres gains d'efficacité.
Déterminez les systèmes de gestion de données les plus adaptés selon vos cas d'usage et volumes de données : bases de données transactionnelles, data warehouses, data lakes et outils de machine learning, par exemple. Regrouper les données et les workloads dans un plus petit nombre de bases de données peut réduire les coûts de licences et de gestion ; choisir les meilleures technologies de stockage et de gestion des données diminue les coûts en simplifiant le travail d'intégration et de maintenance.
Les systèmes de gestion de données cloud offrent souvent une montée en charge et une exploitabilité supérieures à l'on‑premises, pour un coût total inférieur, avec une meilleure résilience, connectivité, sécurité et des services de gestion intégrés. Le cloud réduit également les coûts de personnel liés à la gestion de l'infrastructure.
Les processus manuels de gestion des données montent mal en charge et sont sujets aux erreurs humaines ou à une application incohérente des politiques. Les processus automatisés, comme dans une base de données autonome, offrent prévisibilité et sécurité renforcée tout en réduisant les coûts de main‑d'œuvre.
Les politiques de gouvernance des données décrivent comment votre organisation optimise et sécurise ses données, et comment elle les exploite pour soutenir les opérations. Des politiques de gouvernance robustes permettent, entre autres, d'éliminer les redondances de données, ce qui signifie moins de données à stocker, sauvegarder et analyser.
Adopter une base de données open source de premier plan offre de nombreux avantages : vaste communauté de développeurs, fiabilité, écosystème riche d'outils et de logiciels, capacité de personnalisation et, bien sûr, réduction des coûts de licences. Savoir si l'open source réduit réellement vos coûts totaux exige une analyse financière rigoureuse. Les services cloud gérés basés sur des logiciels open source offrent une autre voie pour bénéficier de ces atouts.
Les données sont indispensables pour exécuter les opérations et transactions au quotidien. C'est un prérequis vital, mais l'avantage concurrentiel vient de l'analytique. L'analyse transforme vos données en insights pour détecter les tendances, réduire les coûts d'exploitation, augmenter les revenus et mieux servir vos clients. Cela peut inclure des initiatives big data recourant à l'IA pour extraire des insights de jeux de données volumineux et hétérogènes. Attention : l'analyse des données doit augmenter le « retour » de votre ROI, mais elle ne réduira pas forcément vos coûts globaux de gestion des données, puisque vous ajoutez le coût des outils d'analytique.
Le nettoyage des données consiste à corriger erreurs et incohérences dans les lignes et colonnes, selon des règles standard du secteur et des règles spécifiques. Si des données brutes non corrigées peuvent suffire pour des transactions, l'analyse est plus précise, et plus utile, lorsque les données sont propres. De plus, des données propres demandent moins d'efforts, et de coûts, à analyser. Cependant, ne survendez pas les économies potentielles liées à l'hygiène des données. La quantité de données retirées sera probablement limitée, et le nettoyage a un coût ; l'intérêt réside donc surtout dans une meilleure analyse plutôt que dans des économies directes.
Qu'elles soient on‑premises ou dans le cloud, l'analyse du trafic réseau révèle les zones efficaces… et les goulets d'étranglement inutiles. La supervision des usages et de l'activité réseau permet d'identifier les réglages susceptibles d'améliorer les performances et la productivité des utilisateurs. La supervision du réseau peut révéler des accès aux données trop gourmands en calcul et en stockage, autant d'opportunités d'optimiser l'architecture et de réduire les coûts.
D'où proviennent vos données ? D'où proviennent les données sur lesquelles vous vous appuyez le plus ? Analyser puis visualiser la traçabilité de vos données clés aide à optimiser la gouvernance des données pour en tirer le meilleur parti, qu'elles soient internes ou externes, particulièrement en contexte big data. Là encore, l'économie ne sera sans doute pas massive, mais vous pourrez identifier des données tierces inutiles ou sous‑utilisées que vous payez.
Vous pouvez gérer vous‑même votre architecture data, vos serveurs, ressources et applications, ou confier ces besoins techniques à un spécialiste. Vous vous concentrez ainsi sur votre cœur de métier plutôt que sur les subtilités de la gestion des données, avec plus d'efficacité et moins de risques. De plus, l'expertise et les outils des prestataires peuvent permettre de réaliser ces tâches à moindre coût. Cela vaut la peine de faire les comptes.
Certaines activités de votre entreprise dépendent fortement des données, mais quelles données sont cruciales ? Comment ces données sont‑elles utilisées ? Où et quand sont‑elles utilisées ? Qui les utilise ? Exploitez ces insights pour optimiser l'utilisation de vos ressources technologiques et de votre budget de gestion des données.
Découvrez comment utiliser l'IA générative automatisée et intégrée ainsi que le machine learning dans un seul service cloud pour les transactions et les analyses à l'échelle des lakehouses.
L'objectif d'un programme de réduction des coûts liés aux données est de faire plus avec moins : obtenir davantage d'insights et de réactivité opérationnelle tout en dépensant moins pour gérer ces données.
De nombreuses entreprises, grandes et petites, réduisent le coût des données en tirant parti du cloud et des architectures de données modernes.
Les données font fonctionner votre entreprise : de la facturation aux journaux de traduction, des documents aux catalogues de pièces, des listes de prix aux stocks. Exploiter plus efficacement ces données opérationnelles ouvre de nouvelles opportunités. Mais chaque jour, le volume de données augmente, tout comme les coûts. Heureusement, vous pouvez réduire vos coûts data tout en stimulant la croissance et en gagnant en efficacité.
HeatWave vous permet d'exploiter une IA générative et du machine learning automatisés et intégrés dans un seul service cloud pour les transactions et l'analytique à l'échelle d'un lakehouse. Les entreprises éliminent le coût et la complexité de bases de données analytiques et vectorielles séparées, de services de machine learning et de processus ETL, tout en évitant la latence et les risques de sécurité liés aux mouvements de données entre stockages. Grâce à l'automatisation intégrée, dopée au machine learning, les développeurs et DBA gagnent un temps précieux, améliorent encore les performances et réduisent les coûts. HeatWave est disponible sur Oracle Cloud Infrastructure (OCI), Amazon Web Services (AWS), Microsoft Azure, et dans les data centers des clients avec OCI Dedicated Region.
Les performances de requête de HeatWave Lakehouse sont 15X plus rapides qu'Amazon Redshift, 18X plus rapides que Databricks et Snowflake, et 35X plus rapides que Google BigQuery. Le rapport prix-performances est également nettement meilleur. De nombreuses organisations en forte croissance utilisent HeatWave pour simplifier leur infrastructure data et réduire leurs coûts de gestion des données tout en améliorant performances, montée en charge, sécurité et productivité.
Quelle est la première étape pour fermer son data center ?
Lorsque vous prévoyez de fermer un data center, effectuez une enquête approfondie sur les applications, les données, les services, les utilisateurs et les exigences de sécurité. Tous les éléments de cette enquête nécessiteront un plan de migration, qu'il s'agisse de déplacer sans modification les applications et données existantes vers le cloud, de choisir de nouvelles applications ou de créer de nouvelles applications à partir de zéro.
Quelle est la durée de vie de l'équipement d'un data center ?
Les principales parties de l'infrastructure du data center, telles que les systèmes HVAC (chauffage, ventilation et climatisation), la distribution de courant et les systèmes de sécurité physique, peuvent tenir une dizaine d'années voire plus avec une maintenance régulière. En règle générale, l'équipement de calcul, tel que les serveurs, les routeurs, les commutateurs et le stockage, devient obsolète après trois à cinq ans.
Qui est responsable de la sécurité dans le cloud ?
La sécurité physique de l'infrastructure cloud (serveurs, infrastructure réseau, etc.) est gérée par les fournisseurs cloud. La responsabilité de la sécurisation des logiciels et des services est répartie entre le fournisseur de cloud et l'entreprise.
Combien de temps faut-il pour fermer un data center ?
Prévoyez que la migration d'un data center vers le cloud prenne plusieurs mois. Si votre infrastructure informatique est plus grande, la migration peut prendre des années. Tout dépend de la taille du data center, de sa complexité et de la quantité de données. Une grande partie de ce temps sera consacré à l'inventaire complet, à la planification, à la création et au test de nouveaux logiciels (si nécessaire) et à la formation. Comme pour les déménagements de bureaux, la migration réelle et la sortie elle-même constituent une phase relativement courte par rapport à la planification.
Découvrez comment tirer parti de l'IA générative, créer des modèles de machine learning, interroger des données dans le stockage d'objets ou explorer d'autres sujets d'intérêt HeatWave.