What Is Cloud Infrastructure?

Michael Chen | Senior Writer | December 20, 2024

Unabhängig davon, welche Arten von Cloud-Services Sie benötigen, ist die Infrastruktur von grundlegender Bedeutung. Elastizität, Sicherheit, Zuverlässigkeit, Betriebszeit, Kosteneffizienz, globale Reichweite, flexible Bereitstellungen, Datenbanksupport, Kundenservice – Unternehmen, die ihre lokalen Data Center einstellen oder ergänzen möchten, müssen alle diese Faktoren bei der Auswahl eines Partners berücksichtigen. Das gilt insbesondere, wenn sie ressourcenintensive KI-Tools und -Workloads in ihren Betrieb integrieren möchten.

In diesem Artikel werden einige der Vorteile der Nutzung der Cloud-Infrastruktur hervorgehoben, anstatt Ihr eigenes Data Center zu verwalten, und diese Punkte mit den Technologieentscheidungen von Cloud-Providern verbinden, die diese Vorteile ermöglichen.

Was ist Cloud Infrastructure?

Die Cloud-Infrastruktur ist eine Sammlung von Hardware- und Softwareelementen, einschließlich Ressourcen wie Server, Speicher, Netzwerke und Datenbanken, die Cloud-Provider auf nutzungsbasierter, bedarfsbasierter Zahlungsmethode anbieten.

Elemente der Cloud-Infrastruktur lassen sich im Allgemeinen in drei Buckets unterteilen:

Hardware: Dazu gehören Server, Speicherarrays und andere unterstützende Hardware im Data Center des Anbieters, wie z. B. Stromverteilung, Kühlung und sichere Einrichtungen. Der Cloud-Provider ist für die Wartung und das Upgrade der Hardware verantwortlich. Der Kunde konzentriert sich darauf, wie Ressourcen am besten genutzt werden können, um seine Anforderungen zu erfüllen.

Virtualisierung: Wenn Virtualisierungssoftware verwendet wird, kann ein einzelner Server so viele Server aufweisen, wie auch als virtuelle Maschinen (VMs) bezeichnet. VMs unterstützen Anwendungen mit unterschiedlichen Betriebssystem- und Hardwareanforderungen, indem sie Softwareumgebungen, sogenannte Container, erstellen, um die Anforderungen jeder Anwendung zu erfüllen. Da VMs Software sind, können sie einfach gestoppt, gestartet oder von einem physischen Server auf einen anderen verschoben werden. So erhalten Unternehmen die Flexibilität, ihre Workload-Anforderungen zu erfüllen. Virtualisierungsmanagement-Software wird allgemein als Hypervisor bezeichnet.

Netzwerk: Das Netzwerk, das in Cloud-Data Centern verwendet wird, kann ein Differenzierungsfaktor unter den Cloud-Providern sein. Alle bieten High-Speed-Netzwerke mit geringer Latenz. Einige gehen weiter und bieten Netzwerkfunktionen an, die normalerweise nur in Hochleistungs-Computing-Umgebungen zu finden sind. Fortgeschrittene Provider verwenden die Netzwerkschicht als Sicherheitsdurchsetzungspunkt, indem sie Null-Trust-Prinzipien in das Netzwerkrouting und -management integrieren. Dadurch wird sichergestellt, dass die Kommunikation zwischen Servern und Speichersystemen nur mit ausdrücklicher Genehmigung erfolgt.

Anbieter von Cloud-Infrastrukturen konzentrieren sich außerdem auf die physische Sicherheit und schützen Assets mit verschlossenen Türen, Schutzeinrichtungen und strengen Zugriffskontrollen.

Ein wesentliches Merkmal einer Cloud-Infrastruktur ist die Skalierbarkeit. In einem Legacy-Rechenzentrum wird die Kapazität festgelegt, es sei denn, die IT-Mitarbeiter aktualisieren die Hardware physisch, was einen neuen Leasing- oder Facility-Build-out erfordern kann. Diese Unflexibilität kann Leistungs- und Verfügbarkeitsprobleme verursachen, wenn die Nachfrage nach z. B. viralen Produkten oder einer Fusion oder Übernahme steigt. Mit der Cloud-Infrastruktur können Bedarfsänderungen problemlos berücksichtigt werden.

Cloud-Infrastruktur vs. Cloud-Architektur

Während sich die Begriffe "Cloud-Infrastruktur" und "Cloud-Architektur" auf sich überschneidende Konzepte beziehen, sind sie unterschiedlich. Die Cloud-Infrastruktur umfasst die physischen und virtuellen Komponenten, die das Cloud-Angebot umfassen und im Allgemeinen vom Cloud-Serviceprovider verwaltet werden. Die Cloud-Architektur bezieht sich auf die Überlegungen zu Design, Integration und Ressourcenmanagement, die bestimmen, wie die Cloud-Infrastruktur verwendet und konfiguriert wird. Ein Beispiel für eine architektonische Betrachtung ist das automatisierte Load Balancing, das für optimale Stabilität für alle Kunden sorgt, die die Public Cloud gemeinsam nutzen.

Wichtige Erkenntnisse

  • Cloud-Infrastruktur bezieht sich auf die Server, Speicher, Virtualisierung und Netzwerke, die erforderlich sind, um Technologieservices über das Internet bereitzustellen, anstatt ein lokales Data Center zu verwenden.
  • Während Legacy-Data Center ein CapEx-Modell verwenden und in der Regel so erstellt werden, dass sie den Worst-Case-Bedarfsniveaus gerecht werden, verwendet die Cloud-Infrastruktur ein OpEx-Modell und kann vertikal und horizontal skaliert werden.
  • Die Cloud-Infrastruktur bietet möglicherweise mehr Flexibilität, Skalierbarkeit und einfache Verwaltung im Vergleich zu Legacy-Data Centern.
  • Die Cloud-Infrastruktur kann geografische Anforderungen für regionale Datenunterstützung oder Complianceanforderungen erfüllen.

Cloud-Infrastruktur erklärt

Da die Technologie immer komplexer und zentraler für den Betrieb wird, haben viele Unternehmen die Vorteile der Umstellung von ihren eigenen Data Centern auf die Cloud erkannt. Dazu gehört die Möglichkeit, Ressourcen hinzuzufügen und zu entfernen. Als Reaktion auf sich ändernde Anforderungen und zahlen nur für das, was Sie nutzen, die Flexibilität, eine breite Palette von Services und Technologien zu kaufen, und die ausgezeichnete Zuverlässigkeit, die von Top-Cloud-Service-Providern (CSPs) bereitgestellt wird. Die meisten Kommunikationsdienstleister haben Betriebszeitnachweise, dass interne IT-Teams schwer aufeinander abgestimmt sind und integrierte Tools wie Self-Service-Analysen und Automatisierung für Datenintegrationsworkflows anbieten.

Eine robuste und skalierbare Infrastruktur bietet viele Vorteile, darunter:

  • Zentralisieren Sie Daten von Geräten, Anwendungen und Remote-Mitarbeitern, und ermöglichen Sie so eine zeitnahe und genauere Datenanalyse. Wenn die Cloud-Infrastruktur eine automatisierte Datenintegration unterstützt, können vorbereitete Daten nahtlos in Data Lakes und andere Repositorys fließen.
  • Skalieren Sie Softwareressourcen schnell auf eine Weise, die auf lokaler Hardware möglicherweise zu teuer ist.
  • Passen Sie die Umstellung auf Remote-Arbeit an, was eine breitere Zugänglichkeit und erweiterte Sicherheit erfordert.
  • Führen Sie ein Upgrade der Disaster Recovery durch, und fügen Sie High Availability und Flexibilität für Failover-Strategien hinzu.
  • Budget besser, da die Fixkosten der Cloud-Infrastruktur vorhersehbarer sind als die Kosten für interne Wartung und Upgrades.
  • Erfüllen Sie regionale und/oder branchenspezifische Compliance-Anforderungen für die Datenspeicherung, z. B. Anforderungen, dass Daten in bestimmten geografischen Gebieten oder an vom Kunden bestimmten Standorten gespeichert werden. Cloud-Regionen können Unternehmen dabei helfen, diese Anforderungen zu erfüllen, ebenso wie Cloud-Provider, die ihre Clouds in Data Centern oder Colocation Centern von Kunden bereitstellen können.

Wie funktioniert Cloud Infrastructure?

Die Cloud-Infrastruktur funktioniert durch eine Kombination aus Software-, Hardware- und Netzwerktools, die den eingehenden Ressourcenbedarf verwalten. Während die Besonderheiten der Infrastruktur jedes Kunden von Anbieterangeboten und organisatorischen Anforderungen abhängen, funktioniert der Prozess in der Regel wie folgt: Ein Kunde fordert eine Ressource an, wie eine neue virtuelle Maschine, der Cloud-Anbieter stellt die Ressource aus seinem Pool verfügbarer Kapazität bereit, und der Kunde greift innerhalb weniger Minuten auf die Ressource zu, normalerweise über das Internet.

Schauen wir uns genauer an, wie das passiert.

Innerhalb eines Cloud-Rechenzentrums konfiguriert der Anbieter die erforderliche Hardware. Da Server, Speicher, Stromverteilungseinheiten, Router und andere erforderliche Geräte alle im Data Center installiert und gewartet werden, müssen sich Kundenorganisationen nur um ihre Internetverbindungen, Zugriffskontrollen und Budgets kümmern.

Um Kundenressourcen im Data Center logistisch zu trennen, erstellt der Hypervisor neue virtuelle Maschinen und andere virtualisierte Ressourcen, die sicher und unabhängig arbeiten. Innerhalb der virtuellen Ebene werden Ressourcen wie Rechenleistung, Speicherkapazität und andere Schlüsselelemente in einem Pool zusammengefasst. Die Managementsoftware überwacht diese Ressourcen und balanciert automatisch Lasten aus, da verschiedene Clients unterschiedliche Ressourcenanforderungen stellen. Durch die automatisierte Verwaltung werden die Ressourcen des Cloud-Providers als Ganzes effizient ausgeführt, ohne dass ein einzelnes Konto andere blockiert.

Das alles geschieht auf der Seite des Anbieters. Die Erbringung von Services erfolgt in der Regel über eine Standard-Internetverbindung, kann jedoch in einigen Fällen über dedizierte Leitungen oder sogar über verwaltete Systeme über Zahnstangen im eigenen Rechenzentrum des Kunden erfolgen.

Rolle der Cloud-Infrastruktur im Cloud Computing

Cloud-Computing bezieht sich auf das Mieten von Compute-Ressourcen, Speicher oder anderen Services im Vergleich zum Kauf. Es ist eine unglaublich breite Kategorie, die auf fast alles angewendet wird, auf das über das Internet zugegriffen wird – zum Beispiel Fotos, die in einem Backup-Service, einem Enterprise-CRM oder einer ERP-Suite oder einer GenAI-fähigen Database-as-a-Service gespeichert sind. Der riesige Cloud-Computing-Markt wird durch die Cloud-Infrastruktur gestützt. Während ein Cloud-Anwendungsunternehmen theoretisch ausschließlich aus einem lokalen Data Center heraus arbeiten könnte, würde der Anbieter, wenn die Nachfrage plötzlich ansteigt, wahrscheinlich nicht mehr in der Lage sein, Schritt zu halten und infolgedessen Kunden zu verlieren. Anbieter von Services der Unternehmensklasse können dies nicht riskieren, weshalb viele dieser Systeme auf einer Hyperscale-Cloud-Infrastruktur basieren.

Da die Nachfrage nach Cloud-Computing-Services steigen und fließen kann, ist Flexibilität von entscheidender Bedeutung. Die Cloud-Infrastruktur ist eine hervorragende und kosteneffiziente Möglichkeit, diese Kerngeschäftsanforderungen zu erfüllen.

Was ist in der Cloud-Infrastruktur enthalten?

Der Begriff "Cloud-Infrastruktur" bezieht sich auf ein komplexes System, das die physische Hardware, Management- und Virtualisierungssoftware und Netzwerkfunktionen eines Anbieters umfasst, die zusammen eine Data Center-Erfahrung über das Internet für viele Kunden bieten. Wichtige Cloud-Anbieter bieten eine breite Palette von Funktionen und Vorteilen, darunter exklusive Tools für jede Plattform, wie Self-Service-Analysen oder sogar betriebsspezifische Anwendungen wie ERP und CRM.

Um die beste Lösung für ihr Unternehmen zu finden, berücksichtigen IT-Mitarbeiter ihre Verarbeitungs-, Speicher-, Latenz-, Anwendungs-, Sicherheits- und Complianceanforderungen.

Komponenten der Cloud-Infrastruktur

Die Cloud-Infrastruktur umfasst weit mehr als nur Server in einem Rechenzentrum. Die Checkliste der Komponenten innerhalb einer Cloud-Infrastruktur hängt vom Anbieter ab und umfasst Hardware-, Software-, Netzwerk- und physische Elemente wie Käfige zur Isolierung von Segmenten, Feuerunterdrückungssystemen, Strom, Kühlung und mehr.

Zu den wichtigsten Komponenten gehören:

  • Die Einrichtung selbst: Hyperscale-Cloud-Data-Center, d. h. solche, die für ein enormes Workload-Volumen ausgelegt sind, integrieren häufig fortschrittliche Technologien für Automatisierung, Kühlung und Konnektivität, um die Performance zu optimieren und Kosten zu minimieren. Sie befinden sich in der Regel an Standorten, die kostengünstige und dennoch zuverlässige Energie, kostengünstiges Land und die Nähe zu wichtigen Netzwerk-Hubs bieten, um die Latenz zu minimieren und die Konnektivität zu verbessern. Erwarten Sie, viele Schichten physischer Sicherheits- und Zugangskontrollen sowie fortschrittliche Klimasysteme und Absicherungen gegen Stromausfälle, Brände, Überschwemmungen und andere unvorhersehbare Ereignisse zu finden.
  • Server und andere Hardware: Die Ausrüstung, die Sie in einem Cloud-Rechenzentrum finden, umfasst Server mit GPUs und CPUs, Sicherheitssysteme, Netzwerke, Kühlung und Netzteile. Eine Vielzahl von Speichergeräten erfüllt die Anforderungen von einem sehr leistungsstarken Zugriff auf die langfristige Archivierung – Festplatten, Solid-State-Laufwerke und Arrays speichern Kundendaten für primäre und redundante/Wiederherstellungsfunktionen. Im Gegensatz zu lokalen Rechenzentren wird die Kapazitätserweiterung vollständig vom Cloud-Anbieter abgewickelt.
  • Virtualisierung: Die wichtigsten Komponenten der Virtualisierung, die in der Cloud-Infrastruktur verwendet werden, sind der Hypervisor für die Überwachung virtueller Maschinen, einzelne virtuelle Maschinen, die im Hypervisor ausgeführt werden, Verwaltungssoftware, mit der die virtualisierte Infrastruktur überwacht wird, und physische Hardwarecluster, mit denen Ressourcen in virtuellen Maschinen zusammengefasst werden.
  • Networking: Der Cloud-Provider ist für Komponenten verantwortlich, die den Netzwerkzugriff durch seine Kunden und gegebenenfalls die Kunden seiner Kunden ermöglichen. Es gibt auch eine interne Netzwerkinfrastruktur, die Server, Speicher und andere Komponenten, einschließlich Router, Switches und Load Balancer, miteinander verbindet.
  • Sicherheit: Zusätzlich zu den beschriebenen physischen Maßnahmen verwalten Cloud-Provider Firewalls, Angriffserkennungssysteme, Verschlüsselung und logische Zugriffskontrollen, um Kundendaten zu schützen und zu isolieren und dedizierte Hardware bereitzustellen, wenn ein Kunde sie benötigt.
  • Managementsysteme: Um ihre Unternehmen effizient zu betreiben, benötigen Cloud-Provider spezialisierte Software zur Verwaltung und Monetarisierung von Ressourcen, einschließlich Software, mit der sie automatisch Kundenaccounts bereitstellen, Services hinzufügen und außer Betrieb nehmen und eine sehr detaillierte Rechnung stellen können.

Bereitstellungsmodelle für Cloud Infrastructure

Die Cloud-Infrastruktur verfügt über drei primäre Bereitstellungsmodelle. Was ein Kunde wählt, hängt von seinen Anforderungen, IT-Ressourcen und seinem Budget ab. Oft verwenden Unternehmen eine Mischung von Modellen, um ihre Anforderungen zu erfüllen, und in vielen Fällen enthalten Anbieter Tools wie Self-Service-Analysen, automatisierte Datentransformationen und betriebliche Anwendungen, um die spezifischen kurz- und langfristigen Anforderungen der Kunden besser zu erfüllen.

Infrastructure-as-a-Service (IaaS)

Mit IaaS wird das Data Center in die Cloud verlagert, unabhängig davon, ob es sich um eine Public Cloud, eine Private Cloud oder eine Hybrid Cloud handelt, die in Verbindung mit einem lokalen Data Center verwendet wird. Mit IaaS werden Rechenleistung, Speicher und andere wichtige Ressourcen vom Provider virtualisiert und verwaltet und Organisationen über eine Internet- oder private Verbindung angeboten.

Platform-as-a-Service (PaaS)

PaaS baut auf IaaS auf und bietet Services an, die darauf abzielen, die Entwicklung und Bereitstellung von Anwendungen zu vereinfachen. Zu den beliebten PaaS-Angeboten gehören Datenbankmanagementsysteme, Identitäts- und Autorisierungssysteme, Analysefunktionen, Low-Code-Entwicklungstools und KI-Infrastruktur, die beschleunigte Entwicklungszyklen ermöglichen – auch bei hohen Workload-Anforderungen – und es Unternehmen erleichtern, führende Services zu nutzen, um ihre vielfältigen Anforderungen zu erfüllen.

Software as a Service (SaaS)

SaaS bezeichnet Software, die über das Internet bereitgestellt wird, in der Regel über einen Webbrowser oder eine Frontend-Anwendung, wie ein Smartphone. Beliebte Beispiele für SaaS sind Video- und Audio-Streaming, Online-Gaming und persönlicher Cloud-Speicher. Unternehmensweit können Abteilungen, einschließlich Personalwesen, Finanzen und Marketing, von Anwendungen profitieren, die über die Cloud bereitgestellt werden. Mit SaaS wird Software vom Serviceprovider verwaltet. Außerdem werden automatisch neue Features und Sicherheitsupdates bereitgestellt.

Ein zugehöriger Service ist eine Enterprise Integration Platform as a Service oder EiPaaS. Hierbei handelt es sich um einen Satz cloudbasierter Services, mit denen viele Anwendungen, Datenbanken und Services eines Unternehmens verknüpft werden, unabhängig davon, ob sie in einem On-Premises-Data-Center oder in der Cloud ausgeführt werden.

Was sind Cloud Infrastructure-Einführungsmodelle oder Arten von Cloud-Architekturen?

Es gibt vier Hauptmodelle der Cloud-Infrastruktur. Die am besten geeignete Lösung für ein Unternehmen hängt von seinen spezifischen Anforderungen ab, wie dem Volumen sensibler Daten, der Kritikalität und der Menge an Legacy-Anwendungen und dem erwarteten Ressourcenbedarf.

Die folgenden vier Arten von Cloud-Infrastrukturen sind verfügbar:

Public Cloud

In einer Public Cloud werden Ressourcen, die einem Cloud-Serviceprovider eines Drittanbieters gehören, mit allen Kunden dieses Service geteilt. Public Clouds sind skalierbar und verfügen über ein nutzungsbasiertes Preismodell. Der Provider verwaltet Ressourcen, um Workloads zu verteilen, sodass jedes Konto den entsprechenden Support erhält. Das ist attraktiv für Unternehmen mit ungleichmäßiger Nachfrage, wie Einzelhändler, die Spitzen während der Feiertage sehen, oder Unternehmen, die am Ende des Monats oder Quartals mehr Nachfrage sehen könnten.

Private Cloud

Eine Private Cloud verwendet dasselbe Modell wie eine Public Cloud, wird jedoch von einer einzelnen Organisation verwendet. Diese Konfiguration bietet mehr Sicherheit und Privatsphäre, wenn auch zu höheren Kosten. Eine Private Cloud kann angepasst werden, um sehr spezifische Geschäftsanforderungen und Sicherheits- oder Complianceanforderungen zu erfüllen. Sie kann in einem privaten Data Center, einer Colocation-Einrichtung oder dem eigenen Data Center des Kunden bereitgestellt werden.

Hybrid Cloud

Eine Hybrid Cloud ermöglicht es Unternehmen, lokale Data Center-Ressourcen mit Public Cloud-Angeboten zu kombinieren. IT-Teams erhalten mit dieser Konfiguration erhebliche Flexibilität. Beispiel: Ein Unternehmen kann ein lokales Data Center für Legacy-Anwendungen verwenden, die nicht reibungslos migriert werden können, oder für regulierte Daten, die lokalisiert werden müssen.

Multicloud

Multicloud bezieht sich auf die Verwendung mehrerer Cloud-Plattformen von verschiedenen Anbietern. Ein solches Setup kann IaaS, PaaS und SaaS in einer eng oder lose gekoppelten Architektur integrieren. Ein Multicloud-Ansatz bietet Unternehmen Flexibilität, Resilienz und die Möglichkeit, eine Abhängigkeit von Anbietern zu vermeiden, obwohl die Verwaltung komplexer sein kann.

Neue Vereinbarungen zwischen wichtigen Cloud-Anbietern machen dies zu einer noch attraktiveren Option für Unternehmen.

Vorteile von Cloud Infrastructure

Im Allgemeinen ist die Cloud-Infrastruktur schneller, skalierbarer, zugänglicher und kostengünstiger als ein lokales Data Center, da die CSP-Pools und physischen Ressourcen virtualisiert werden. Darüber hinaus verfügen Cloud-Provider oft über Funktionen und Tools, die für ihre Plattformen spezifisch sind und Analysen, Datenmanagement, Datenintegration, KI und andere Services bieten.

Im Folgenden sind einige universelle Vorteile der Cloud-Infrastruktur aufgeführt:

  • Kosteneffizienz: Lokale Rechenzentren erfordern Kapitalausgaben für Hardware und Software sowie Investitionen in Einrichtungen und Wartung. Und sie sind oft so konzipiert, dass sie das Worst-Case-Bedarfsniveau erfüllen, obwohl das Unternehmen diese Kapazität meistens nicht benötigt. Die Cloud-Infrastruktur kann vertikal und horizontal skaliert werden, um die Services an die Nachfrage anzupassen, und die monatlichen Betriebskosten spiegeln die tatsächliche Nutzung wider.
  • Elastizität: Durch die Verwendung von Virtualisierung, Pooling physischer Ressourcen und Autoscaling bietet die Cloud-Infrastruktur eine elastische Umgebung, die On-Demand-Provisioning und die automatische Zuweisung von Verarbeitungsleistung und Speicher ermöglicht. Das ist besonders wichtig für ressourcenintensive Workloads wie das KI-Modelltraining.
  • Flexibilität und Agilität: Im Vergleich zu eigenen Data Centern ermöglichen die Skalierbarkeit und Kosteneffizienz der Cloud-Infrastruktur Unternehmen, einen flexibleren und agileren Ansatz für die IT zu verfolgen. Darüber hinaus können Cloud-Anbieter geografische Verteilung bereitstellen, um Unternehmen bei der Erfüllung regionaler Performance- oder Compliance-Anforderungen zu unterstützen, sowie Unterstützung für Hybrid- und Multicloud-Strategien.
  • Globale Reichweite: Cloud-Infrastrukturen können die Sammlung regionaler Data Center eines Anbieters verwenden, um einen schnellen, sicheren und hochverfügbaren Zugriff für verschiedene geografische Regionen zu bieten. Diese geografische Flexibilität kann Latenz-, Compliance- und Edge-Zugriffsanforderungen auf eine Weise erfüllen, die ein lokales Data Center nicht kann.
  • Disaster Recovery und Geschäftskontinuität: Cloud-Infrastrukturprovider verfügen im Allgemeinen über extrem robuste Disaster Recovery-Pläne und automatisierte Backup- und Recovery-Technologien, um Ausfallzeiten zu minimieren und den Prozess der Wiederherstellung nach einem Vorfall zu optimieren. Die geografische Verteilung von Cloud-Rechenzentren schützt vor den Auswirkungen lokalisierter Katastrophen, wie Hurrikans, da Daten redundant über mehrere Standorte hinweg gespeichert werden. Mit der Cloud können Benutzer von jedem Standort aus auf kritische Anwendungen und Daten zugreifen und so die Produktivität auch bei Störungen aufrechterhalten.
  • Zuverlässigkeit und High Availability: Das Maß an Zuverlässigkeit, das ein Cloud-Provider bietet, wäre angesichts der redundanten Stromversorgung, Kühlung und Vernetzung eines CSP, einschließlich Internetverbindungen von mehr als einem Netzbetreiber, schwierig und teuer, intern zu replizieren. Viele Anbieter bieten auch High-Availability-Computing-Systeme an, die keine Single Points of Failure haben und ununterbrochenen Service für kritische Workloads bieten. Obwohl High-Availability-Systeme in der Vergangenheit teuer zu besitzen oder als Cloud-Ressourcen zu nutzen waren, haben neue Architekturinnovationen diese Systeme für viele weitere Kunden erschwinglich gemacht.
  • Skalierbarkeit: In einem lokalen Data Center erfordert die Skalierung der Verarbeitungsleistung oder Speicherkapazität im Allgemeinen Hardwareupgrades. Dies wirkt sich auf die Investitionsbudgets aus und macht es nahezu unmöglich, Nachfragespitzen in Echtzeit zu bewältigen. Die Cloud-Infrastruktur ermöglicht die laterale Zuweisung von Ressourcen, um die aktuellen Anforderungen zu erfüllen.
  • Sicherheit: Sicherheitsteams der Cloud-Infrastruktur haben oft Zugriff auf erweiterte Tools und erstklassiges Fachwissen, das die meisten lokalen Data Center nicht erfüllen können. Cloud-Systeme bieten zentrale Sicherheitsfunktionen, wie Verschlüsselung und rollenbasierte Zugriffskontrolle, und legen einen stärkeren Wert auf Compliance und Zertifizierungen. Führende Anbieter bieten jetzt auch Zero-Trust-Architekturen an, die die Sicherheit verbessern, indem der Zugriff auf Einzelpersonen und Systeme eingeschränkt wird, die explizit zur Verwendung einer bestimmten Ressource autorisiert sind.

Herausforderungen bei der Cloud-Infrastruktur

Jedes Unternehmen hat seine eigenen Netzwerk- und Verarbeitungsanforderungen, was bedeutet, dass einige Cloud-Anbieter besser geeignet sind als andere. IT-Teams sollten bei der Bewertung von Cloud-Plattformen die folgenden Herausforderungen berücksichtigen:

  • Compliance: Regionen und Branchen haben eine Reihe von Complianceanforderungen für Sicherheit, den geografischen Standort der Datenspeicherung und mehr. Sovereign Data Management-Anforderungen gehen oft über Ortsbeschränkungen hinaus, um Staatsangehörigkeitsanforderungen für das Personal und Regeln für die Verwendung und Aufbewahrung von Daten einzubeziehen. Cloud-Provider bieten zunehmend Möglichkeiten, diese Anforderungen zu erfüllen, einschließlich der Einbindung der Cloud-Infrastruktur in jedes Data Center und der Angabe, wer das System verwalten soll, durch den Kunden.
  • Kostenmanagement: Da die Cloud-Infrastruktur auf der Grundlage eines nutzungsabhängigen Modells in Rechnung gestellt wird, variieren die genauen monatlichen Kosten im Allgemeinen. Dies bedeutet, dass sich ohne eine ordnungsgemäße Planung und Verwaltung unerwartete Gebühren erheben können. Um dies zu erreichen, sollten IT-Abteilungen Cloud-Kostenkontrollen einrichten, um sicherzustellen, dass beispielsweise VMs, die gesponnen werden, um einen vorübergehenden Bedarf zu decken, außer Betrieb genommen werden und alle anwendbaren Rabatte angewendet werden.
  • Datenmanagement: Die Cloud-Infrastruktur eröffnet die Tür zu einer flexibleren und agileren Nutzung von Daten. Wenn KI in Anwendungen eingebettet wird und mehr Benutzern über natürliche Sprachschnittstellen zur Verfügung steht, müssen Unternehmen ihre Datenmanagement-, Integrations- und Governance-Richtlinien aktualisieren. Provider-Tools wie Automatisierung und Datenkataloge können Unternehmen dabei helfen, große Datenmengen in den Griff zu bekommen, was ein schnelleres und reibungsloseres Datenmanagement ermöglicht und sie für den Übergang zu Selfservice-Analysen und anderen Anwendungen bereitstellt, die zur Verbesserung von Effizienz und Erkenntnissen beitragen können.
  • Governance: Der richtige Cloud-Infrastrukturanbieter mit den richtigen Tools kann einen großen Beitrag dazu leisten, dass ein Unternehmen seine Governance-Anforderungen erfüllt. Durch den Wechsel in die Cloud können Mitarbeiter dank der Interkonnektivität zwischen Tools, Anwendungen und Repositorys wesentlich mehr aus ihren Daten herausholen. Durch die Einrichtung von Data Lakes, die mit Unternehmensanwendungen, Quellen unstrukturierter Daten und KI-Analysetools verbunden sind, können Unternehmen ihre Daten umfassender nutzen und leichter analysieren. Der Kompromiss besteht jedoch in der Notwendigkeit einer größeren Aufsicht, die häufig Governance-Strategien wie eine rollenbasierte Zugriffskontrolle erfordert. KI-Tools können Governance-Aufgaben unterstützen, einschließlich Datenklassifizierung und Anomalieerkennung. All das richtig zu machen – nur die richtigen Benutzer mit den richtigen Daten arbeiten zu lassen – ist eine neue Governance-Aufgabe, aber die potenziellen Verbesserungen in Bezug auf Einblicke und Produktivität werden sich wahrscheinlich lohnen.
  • Integration und Multicloud: Public-Cloud-Infrastrukturen sind dank offener Standards für die Integration konzipiert, die reibungslosere Datenflüsse ermöglichen, obwohl die Egress-Gebühren weiterhin ein wichtiger Punkt sind. Der Austausch von Daten zwischen Anwendungen, die auf den Clouds verschiedener Anbieter ausgeführt werden, kann technisch einfach sein, aber Governance-, Performance- und Kostenprobleme verursachen. Um dies anzugehen, haben Branchenführer begonnen, echte Multicloud-Setups zu unterstützen. Beispielsweise arbeitet Oracle mit anderen Hyperscalern zusammen, um seine Datenbanken und anderen Cloud-Services innerhalb von AWS-, Google Cloud- und Microsoft Azure-Rechenzentren auszuführen, die Leistung zu verbessern und die Egress-Gebühren zu minimieren. Multicloud-Strategien sind von entscheidender Bedeutung, insbesondere für große Unternehmen mit Anwendungen, die in zwei oder mehr Clouds ausgeführt werden.
  • Migration: Während viele Migrationen einfach und schnell abgeschlossen werden können, sollten Unternehmen immer die verschiedenen Faktoren berücksichtigen, die eine größere Unterstützung erfordern: Anforderungen an Legacy-Anwendungen, Anforderungen von Drittanbieteranwendungen, On-Premises-Daten, die Verfügbarkeit von cloudbasierten Anwendungsupgrades und Überlegungen zu Multicloud-/Hybrid-Clouds. Diese Realitäten erfordern, dass Unternehmen eine Migrationsroadmap erstellen, die den Kompromiss zwischen Migration und Wert demonstriert. In vielen Fällen bieten Cloud-Anbieter Tools und Services an, um bei der Migration zu helfen, sowie realistische Schätzungen der Zeit, die erforderlich ist, um verschiedene Probleme zu lösen, die auftauchen.

    Wenn Sie Anwendungen von Drittanbietern On-Premises verwenden, hängt die Migration in die Cloud stark von dem jeweiligen Anbieter, der ausgeführten Version und den hinzugefügten Anpassungen ab. Anbieter bieten jetzt in der Regel Cloud-Versionen ihrer Anwendungen an. Solange Sie eine aktuelle Version haben, bietet der Anbieter Tools an, die bei der Migration helfen. Anpassungen müssen noch bearbeitet werden. Die Überprüfung, ob die Cloud-Versionen Ihrer Anwendungen funktionieren, erfordert Zeit. Sogenannte Lift-and-Shift-Operationen, bei denen Anwendungen in die Cloud verlagert werden, ohne ihre Performance oder Funktionen zu ändern, können von drei Monaten bis zu einem Jahr oder mehr dauern. Jede Migrationsroadmap sollte beinhalten, wie Sie mehr Wert aus diesen Anwendungen ableiten, sobald sie verschoben wurden.
  • Performance: Cloud-Infrastrukturen sind schnell. In einigen Fällen bieten sie erhebliche Performanceverbesserungen, insbesondere wenn Ihre On-Premises-Infrastruktur veraltet ist. Darüber hinaus sehen Mitarbeiter, die remote arbeiten, in der Regel Produktivitätssteigerungen bei der Verwendung von Apps, die über die Cloud bereitgestellt werden. Potenzielle Performanceprobleme treten jedoch in bestimmten Situationen auf, z. B. wenn das Netzwerk ressourcenintensive Workloads verarbeitet, Legacy-Apps nicht für die Cloud optimiert wurden oder wenn Endbenutzer über schlechte Internetverbindungen verfügen. Darüber hinaus können regionsspezifische Anforderungen und Edge-Geräte entfernungsbasierte Latenzprobleme verursachen. Um diesen Herausforderungen einen Schritt voraus zu sein, erstellen Sie einen soliden Migrationsplan und testen Sie häufig, um sicherzustellen, dass die Performance wie erwartet ist. Beachten Sie auch, dass Performanceprobleme auftreten können, wenn Daten-Repositorys lokal bleiben, Anwendungen jedoch in die Cloud verschoben werden. Anwendungen, die nicht für die Arbeit über Internetverbindungen entwickelt wurden, können Leistungsprobleme erkennen.
  • Sicherheit: Die Sicherheitsverfahren und das Fachwissen der Cloud-Provider sind besser als die der meisten Unternehmen. Sie müssen es sein, da der Ruf des Anbieters vom Schutz von Systemen und Daten für seine Kunden abhängt. Aber das bedeutet nicht, dass Sicherheit immer noch keine primäre Überlegung ist. Ransom-Angriffe sind ausgefeilter und erfolgreicher geworden. Unabhängig davon, ob Systeme On-Premises oder in der Cloud sind, müssen sich Sicherheitsansätze konsequent weiterentwickeln. Als Beispiel werden Zero-Trust-Prinzipien, bei denen nur Benutzer, Systeme und Operationen erlaubt sind, immer wichtiger. Cloud-Provider können die Sicherheitsanforderungen erfüllen, indem sie Managementtools für Funktionen wie rollenbasierte Zugriffskontrolle, Zertifikate, Verschlüsselungsschlüssel und Überwachung von Sicherheitslücken bereitstellen.
  • Skill-Lücken: Wenn Sie zu einem Cloud-Infrastrukturprovider wechseln, müssen Sie neue Managementtools und -features einführen. Welche Erfahrungen haben Ihre IT-Mitarbeiter mit dem vorgeschlagenen CSP? Die Antwort wird für jede Organisation unterschiedlich sein. Eine Kompetenzlücke ist nicht unbedingt ein Vorzeigeprojekt, aber da Teams ihre Strategien für die Migration und den laufenden Betrieb und die Entwicklung berücksichtigen, sollten sie den Schulungsbedarf sorgfältig prüfen.
  • Anbieterbindung: Cloud-Provider können proprietäre Tools und APIs für ihre Plattformen verwenden, was zu einer Anbieterbindung führen kann. Wenn sich das IT-Team eines Unternehmens nur auf den Aufbau von Fähigkeiten für ein bestimmtes CSP konzentriert, kann die Anbieterbindung ein organisches Nebenprodukt sein. Um dem entgegenzuwirken, sollten IT-Mitarbeiter so weit wie möglich proprietäre Technologien vermeiden. Die meisten Cloud-Anbieter unterstützen offene Standards zumindest bis zu einem gewissen Grad – das Ausmaß, in dem offene Standards verfügbar sind, sollte ein Schlüsselfaktor bei der Auswahl von Cloud-Anbietern sein.

Sichere und schnellere Ausführung mit OCI

Oracle Cloud Infrastructure (OCI) ist eine global verfügbare Hyperscale-Cloud mit allen Services, die für Unternehmens-Workloads erforderlich sind, einschließlich GenAI. OCI ist sicher, schnell und skalierbar und in mehreren globalen Cloud-Regionen und von Kunden bestimmten Standorten verfügbar, um Unternehmen bei der Einhaltung ihrer Data Governance-Anforderungen zu unterstützen. Darüber hinaus bietet OCI mehr als 100 Infrastruktur- und Plattformservices mit flexibler und inkrementeller Servicenutzung, sodass Kunden nur für die Performance bezahlen, die sie benötigen.

Erfahren Sie, warum Gartner die verteilte Cloud von Oracle als führend bezeichnet hat, da sie Kunden mit regulierten Daten alle Vorteile der Cloud bietet, mit größerer Kontrolle über den Betrieb, die Datenresidenz und die Nähe.

Cloud Infrastructure – Häufig gestellte Fragen

Was ist ein Beispiel für Cloud-Computing-Infrastruktur?

Ein alltägliches Beispiel für eine Cloud-Infrastruktur ist ein Streaming-Videodienst. Diese Services erfordern eine skalierbare Grundlage, die die Rechenleistung optimiert und Speicher bei Bedarf bereitstellt und gleichzeitig die Verfügbarkeit für den Endkunden maximiert. Ein Unternehmen wie Netflix verfügt über Tausende von Servern auf der ganzen Welt für eine Kombination aus Redundanz und minimaler Latenz dank der geografischen Nähe zwischen Benutzer und Server. Betrachten Sie auf Unternehmensebene ein großes E-Commerce-Unternehmen, das einen IaaS-Anbieter verwendet, um seine Online-Plattform zu hosten und seine Infrastruktur während der Hauptgeschäftszeiten, wie Black Friday oder Cyber Monday, schnell zu skalieren, ohne dass erhebliche Kapitalinvestitionen in physische Server oder Rechenzentren erforderlich sind. Diese Flexibilität ermöglicht es dem Unternehmen, nur für die Ressourcen zu bezahlen, die es verbraucht, und trägt so zu einem effizienten Kostenmanagement bei und bietet gleichzeitig die Möglichkeit, schnell zusätzliche Rechenleistung, Speicher und Netzwerkfunktionen bereitzustellen, um die Kundennachfrage zu erfüllen.

Wie kann eine Cloud-Infrastruktur bei der Data Governance helfen?

Eine Cloud-Infrastruktur kann die Data Governance verbessern, indem sie zentralisierte Kontrolle, erhöhte Transparenz und automatisiertes Compliance-Management bietet. Unternehmen können konsistente Richtlinien für alle in der Cloud gespeicherten Assets implementieren und so sicherstellen, dass die Daten gemäß den gesetzlichen Anforderungen und internen Standards verwaltet werden. Darüber hinaus verfügen Cloud-Plattformen oft über integrierte Tools zur Verfolgung von Datenverschiebungen, zur Überwachung des Zugriffs und zur Überwachung der Nutzung von Audits, mit denen Unternehmen die Rechenschaftspflicht und Transparenz aufrechterhalten können. Einige Cloud-Anbieter bieten auch regionalen Support an, um lokale Compliance-Anforderungen zu erfüllen. Top-Hyperscaler bieten sogar private Versionen ihrer Public Clouds an, die sich beim Kunden befinden können.

Warum ist die Cloud-Infrastruktur besser als ein lokales Data Center?

Cloud-Infrastrukturen sind hoch skalierbar, weltweit verfügbar und verfügen über umfangreiche Datenmanagement- und Analysetools, die Systemen zur Verfügung stehen, die darin ausgeführt werden. In jüngerer Zeit erweisen sich KI-Tools, einschließlich GenAI und KI-Agenten, als kompetent bei der Entwicklung neuer, hilfreicher Anwendungen, die einfach in der Cloud verwendet werden können. In einer Cloud-Infrastruktur können Benutzer Daten mithilfe von Eingabeaufforderungen in natürlicher Sprache abbauen und Anwendungen mit Low-Code- und No-Code-Tools entwickeln. All dies ist verfügbar, ohne dass die IT mehr Services und mehr Hardware im lokalen Rechenzentrum verwalten muss.

Wie funktionieren Service Level Agreements für Cloud-Infrastrukturen?

Service Level Agreements (SLAs) bieten Kunden gestaffelte Garantien für Betriebszeit, Geschwindigkeit, Disaster Recovery und andere Schlüsselkennzahlen. Für Unternehmens-Workloads ist es ein wichtiger Teil der Entscheidung über einen Cloud-Provider, zu wissen, welche SLAs verfügbar sind und zu welchen Kosten. Bei besonders komplexen Workloads können manchmal benutzerdefinierte SLAs zwischen dem Anbieter und dem Kunden ausgehandelt werden.