Ein Data Lakehouse ist eine moderne, offene Architektur, mit der Sie alle Ihre Daten speichern, verstehen und analysieren können. Es kombiniert die leistungsstarken und umfangreichen Data Warehouses mit der Breite und Flexibilität der gängigsten Open-Source-Datentechnologien, die Sie heute verwenden. Ein Data Lakehouse kann von Grund auf auf Oracle Cloud Infrastructure (OCI) erstellt werden, um mit den neuesten KI-Frameworks und den vordefinierten KI-Services wie dem Sprachservice von Oracle zu arbeiten.
Kombinieren, analysieren und finden Sie problemlos neue Erkenntnisse aus all Ihren Daten, wie Ausgangsrechnungen, Formulare, Text, Audio und Video.
Erfahren Sie, wie ein Data Lakehouse auf OCI eine effiziente, integrierte, automatisierte Plattform bietet, die all Ihre Daten integriert – ob in einem Data Warehouse, einem Data Lake oder einer Anwendungsausgabe – und Analysefunktionen und maschinelles Lernen ergänzt, damit Sie das Beste aus Ihren Daten herausholen können.
Erfahren Sie mehr über Muster, Best Practice und Architekturen für das Deployment eines Lakehouses in Oracle Cloud Infrastructure.
Die erfolgreichsten Kunden arbeiten von Anfang an mit Cloud-Spezialisten zusammen. Unsere Cloud-Techniker unterstützen Planung, Architektur, Prototyping und Verwaltung von Cloud-Migrationen. So können Sie schneller und zuverlässiger arbeiten.
Oracle erleichtert die Transformation Ihres Unternehmens und Ihres Analyseteams in ein Lakehouse-Lösungsteam. Dabei werden die bestehenden Kompetenzen und die bereits getätigten Investitionen genutzt. Erweitern Sie Ihr Data Warehouse und Ihre Data Lakes ganz einfach in ein Data Lakehouse, verschieben und modernisieren Sie die Data Lakes, die Sie On-Premise erstellt haben, oder beginnen Sie mit den Oracle SaaS-Daten.
Unsere Kunden können mit unseren vollständig verwalteten Services wie Oracle Big Data Service und Oracle Data Flow ganz einfach vorhandene Open Source-Data Lakes migrieren oder neue erstellen. Spark, HIVE, Hbase und viele weitere Services können einfach auf OCI bereitgestellt und skaliert werden.
Data Flow ist ein serverloser Spark-Service, mit dem sich unsere Kunden auf ihre Spark-Workloads ohne Infrastrukturkonzepte konzentrieren können.
Oracle Autonomous Data Warehouse ermöglicht schnelle und skalierbare Abfragen direkt über alle Daten im Objektspeicher. Eine einzelne Abfrage kann Daten in Autonomous Data Warehouse und einem Data Lake verbinden.
Für unsere aktuellen Data Warehouse-Kunden ist dies der schnellste und einfachste Weg, um Ihr Warehouse in ein Data Lakehouse zu transformieren, sodass Sie alle Daten speichern und analysieren können, während Sie die bereits vorhandenen Anwendungen, Tools und Fähigkeiten nutzen.
Oracle Kunden möchten erweiterte, auf maschinellem Lernen basierende Analysen für ihre Oracle SaaS-Daten oder SaaS-Daten erstellen. Unsere benutzerfreundlichen Datenintegrations-Konnektoren für Oracle SaaS machen es einfach, ein Lakehouse zu erstellen, mit dem Sie alle Daten mit Ihren SaaS-Daten analysieren und die Lösungszeit reduzieren können.
Alle unsere Data Lakehouse-Services basieren auf hochwertigen, kostengünstigen OCI-Objektspeichern, verwenden OCI Data Catalog für eine einheitliche Datendefinition, lassen sich einfach mit leistungsstarker KI integrieren, und nutzen Oracle Data Integration für die skalierbare Datenaufnahme und -bewegung innerhalb des Lakehouses.
Beim Oracle Big Data Service handelt es sich um einen Hadoop-basierten Data Lake, zum Speichern und Analysieren großer Mengen roher Kundendaten. Der Oracle Big Data Service ist ein verwalteter Dienst, der über einen vollständig integrierten Stack verfügt, der sowohl Open Source- als auch Oracle Tools zur Wertschöpfung enthält, um Ihren IT-Betrieb zu vereinfachen. Oracle Big Data Service erleichtert Unternehmen das Verwalten, Strukturieren und die nutzbringende Analyse von unternehmensweiten Daten.
Der Oracle Cloud Infrastructure Data Flow ist ein vollständig verwalteter Dienst von Apache Spark, der keinerlei Infrastruktur erfordert, welche die IT-Teams der Kunden bereitstellen oder verwalten müssten. Data Flow ermöglicht Entwicklern eine schnellere Anwendungsentwicklung, da sie sich auf diese konzentrieren können, ohne sich um Betriebsfunktionen kümmern zu müssen.
Autonomous Data Warehouse ist ein Cloud-Data-Warehouse-Service, der die Komplexität des Betriebs eines Data Warehouses, eines Data Warehouse Centers, der Sicherung von Daten und der Entwicklung datengesteuerter Anwendungen eliminiert. Oracle verwendet maschinelles Lernen, um alle routinemäßigen Data Warehousing-Aufgaben vollständig zu automatisieren, was eine höhere Performance, Zuverlässigkeit, Sicherheit und betriebliche Effizienz sicherstellt.
MySQL HeatWave ist der einzige Service, mit dem Datenbankadministratoren und Anwendungsentwickler OLTP- und OLAP-Workloads direkt aus ihrer MySQL-Datenbank ausführen können. Auf diese Weise ist keine komplexe, zeitaufwendige und kostspielige Datenverschiebung und -integration mit einer separaten Analysedatenbank erforderlich.
Der Oracle Cloud Infrastructure Data Catalog unterstützt mithilfe eines Inventars an firmenweiten Datenbeständen Datenprofis über das gesamte Unternehmen hinweg dabei, Daten zu suchen, zu analysieren und zu verwalten. Er sammelt automatisch Metadaten aus allen Datenspeichern eines Unternehmens und bietet einen gemeinsamen Metastore für Data Lakes an. Der Data Catalog vereinfacht die Definition von Geschäftsglossaren und kuratierten Informationen zu Datenbeständen, die sich in der Oracle Cloud Infrastructure oder anderen Speicherorten befinden. So können Datennutzer mühelos die von ihnen benötigten Daten finden.
Vereinfachen Sie Ihre komplexen Prozesse zum Extrahieren, Transformieren und Laden von Daten (ETL/E-LT) in Data Lakes und Warehouses für Datenwissenschaft und Analysen mit dem modernen Daten-Flow-Designer von Oracle (ohne Programmieraufwand).
Erweiterte Datenmigration zum Extrahieren, Transformieren und Laden. Oracle Data Integrator ist für Datenbanken von Oracle wie Oracle Autonomous Database und Oracle Database Exadata Cloud Service sowie On-Premises-Datenbanken optimiert. Beinhaltet erstklassigen Support für heterogene Quellen und Ziele.
Oracle GoldenGate ermöglicht Hochverfügbarkeit, Datenintegration in Echtzeit, Änderung von Datenerfassung, Datenreplikation, Transformationen und Überprüfung zwischen betrieblichen und analytischen Unternehmenssystemen.
Der Streaming-Dienst ist eine serverlose, Apache Kafka-kompatible Streaming-Plattform von Veranstaltungen in Echtzeit für Entwickler und Data Scientists. Streaming ist eng in Oracle Cloud Infrastructure, Oracle Database, Oracle GoldenGate und Oracle Integration und Migration integriert. Der Dienst bietet außerdem sofort einsatzbereite Integrationen für Hunderte von Drittanbieter-Produkten in mehreren Kategorien wie DevOps, Datenbanken, Big Data und SaaS-Anwendungen.
Mit Object Storage können Kunden alle Arten von Daten in ihrem nativen Format speichern. Dies ist perfekt geeignet zur Erstellung moderner Anwendungen, die Skalierbarkeit und Flexibilität erfordern, da damit mehrere Datenquellen für Analyse-, Sicherungs- oder Archivierungszwecke konsolidiert werden können.
Experian verbesserte die Leistung um 40 % und reduzierte die Kosten um 60 % bei der Verlagerung wichtiger Daten-Workloads von anderen Clouds in ein Data Lakehouse auf OCI, was die Datenverarbeitung und Produktinnovation beschleunigt und gleichzeitig die Kreditchancen weltweit erweitert.
Ingersoll Rand hat mehrere On-Premise-ERPs, Data Warehouses und Big Data-Systeme in einem Data Lakehouse in Oracle Cloud Infrastructure konsolidiert und dem Unternehmen eine Single Source of Truth für alle Daten mit besserer Zuverlässigkeit und Performance verschafft.
Oracle Partnerlösungen nutzen und ergänzen Data Lakehouses auf OCI.
Sie können Big Data-Cluster mit Optionen für Knotenausprägungen und Speichergrößen erstellen. In diesem Workshop erstellen Sie ein Nicht-HA-Cluster und weisen den Knoten kleine Ausprägungen zu. Dieses Cluster eignet sich ideal zum Testen von Anwendungen.
Erfahren Sie, wie Spark-Entwickler und Data Scientists Spark-Jobs in beliebiger Größe erstellen, bearbeiten und ausführen können, ohne dass Cluster, ein Betriebsteam oder hochspezialisierte Spark-Kenntnisse erforderlich sind.
Erfahren Sie, wie Sie Benutzer, Zugriff und Policys erstellen, um einen neuen Katalog zu schaffen und dann für das Harvesting von Daten aus Objektspeicher, Datenbanken und On-Premise-Datenquellen zu sorgen.
Erfahren Sie, wie Sie Datenintegration einrichten, eine Verbindung zu Datenquellen herstellen, Daten erfassen und transformieren sowie Daten in Objektspeicher und/oder Datenbanken von Oracle laden.