Moderne Hybrid-Cloud-Umgebungen
In einer modernen Hybrid-Cloud-Umgebung spielt nicht mehr die zugrunde liegende Technologie (Public Cloud oder Private Cloud), sondern vielmehr die gewünschte Anwendung die Hauptrolle. Anstatt wie früher üblich monolithische Apps zu erzeugen, bei denen sämtliche Programmbestandteile untrennbar zusammenhängen und die schwerlich woanders wiederverwendbar sind, konzentrieren sich Entwicklerteams in Hybrid Clouds auf sogenannte Microservices. Das sind möglichst granulare App- oder Programmbestandteile, die meist auf demselben Betriebssystem laufen und die ihre ganz eigenen Anforderungen an Themen wie Datenschutz, Hosting-Standort oder Backup-Frequenz mitbringen.
Dasselbe Prinzip ist bereits aus dem Cloud-native- oder Serverless-Computing-Ansatz bekannt. Bei diesem Ansatz ist es für das Entwicklerteam unerheblich, auf welchem konkreten System die Anwendung läuft – solange sie die festgelegten Anforderungen erfüllt. Die Orchestrierung dieser Microservices findet mithilfe sogenannter Container (beispielsweise mit Docker) und unter Verwendung einer Verwaltungssoftware wie Kubernetes statt. Einer der wesentlichen Vorteile moderner Hybrid-Cloud-Umgebungen ist neben der Portierbarkeit von Apps, dass Entwickler- und Operations-Teams gemeinsam am selben DevOps-Projekt arbeiten können. Die skizzierten Anforderungen an den Datenschutz werden quasi nebenbei und ohne weiteres Zutun eingehalten. Auf dem Weg in die Zukunft mit "Distributed Cloud Computing"
Eines der wesentlichen Merkmale von Public-Cloud-Systemen ist, dass Nutzer:innen normalerweise keine oder kaum Kenntnis darüber haben, wo genau ihre Daten verarbeitet werden. Bei der Private Cloud hingegen ist klar: Die Datenverarbeitung erfolgt im hauseigenen Rechenzentrum oder beim IaaS-Dienstleister an einem bestimmten Ort.
In der Praxis und bei besonderen Anforderungen an Themen wie Performance und Ausfallsicherheit birgt diese klare Trennung zwischen Public- und Private-Cloud-Ansatz jedoch Herausforderungen: Dann nämlich, wenn bei Anwendungen
viele Daten an einem bestimmten Ort außerhalb des Serverstandorts in kurzer Zeit verarbeitet werden müssen,
die Latenzzeit (Verzögerung zwischen Sender und Empfänger) eine wichtige Rolle spielt und/oder
besondere Redundanzmechanismen gefordert sind.
Hier kommt das sogenannte Distributed Cloud Computing ins Spiel. Bei diesem Ansatz werden Cloud-Services (sofern notwendig und sinnvoll) geographisch näher an den Ort der Anwendung gebracht. Das senkt die Latenzzeiten und ermöglicht hierarchische Cloud-Konzepte. Eine solche hierarchische Cloud bezieht sowohl die zentrale Cloud, als auch regionale "Ableger" und das sogenannte Edge Computing mit ein.
Bei der technischen Realisierung von Distributed Cloud Computing spielt das Caching, also die Verwendung von Zwischenspeichern, eine entscheidende Rolle. Nicht jede Anfrage an die Cloud muss zwingend über deren zentrale Instanz laufen – wohl aber muss der Zustand zwischen den einzelnen Cloud-Bestandteilen fortlaufend synchronisiert werden.
Zu den allgemeinen Vorteilen der Hybrid Cloud gesellen sich im Distributed Cloud Computing weitere hinzu:
Die Skalierung einer solchen Architektur gelingt noch präziser und bedarfsbezogener.
Die Performance von Distributed Clouds ist genau dort besonders hoch, wo dies erforderlich ist.
Ressourcen-Engpässe und Bandbreitenschwankungen spielen kaum noch eine Rolle.
Die Distributed Cloud lässt sich noch besser an etwaige Compliance-Vorgaben anpassen.
Durch die geringen Latenzzeiten gelingen Echtzeitanwendungen wie Videostreaming, Augmented-Reality-Anwendungen und autonomes Fahren noch besser und werden noch zuverlässiger.
Auch reine Storage-Anforderungen lassen sich in der Distributed Cloud hervorragend abbilden.