Für diejenigen, die auf dem Cloud-Markt aktiv sind, ist eine Sache glasklar: Es scheint, als würde das Leben nie langweilig werden. Die meisten Experten haben die Hoffnung aufgegeben, sich auf Prognosen mit einem vernünftigen Maß an Vertrauen verlassen zu können – ganz zu schweigen von der Hoffnung, selbst irgendeine Form von vertrauenswürdiger Vorhersage darüber zu liefern, was die Zukunft bereithält. Es fühlt sich an wie eine Achterbahnfahrt, bei der man in einem Zug sitzt und die Steigung beobachtet, die 50 Meter hoch in die Wolken führt (Wortspiel beabsichtigt), aber nicht weiß, was nach dem Kipppunkt kommt. In ähnlicher Weise sehen wir, wie der Cloud-Markt wächst (in Bezug auf Volumen, Anzahl der Marktteilnehmer, Komplexität…), können aber nicht viel mehr sagen als die einfache Vorhersage, dass er weiter steigen wird.
Die Dynamik innerhalb der Cloud-Branche ist vielschichtig. Einerseits werden ständig neue Technologien entwickelt und getestet, die täglich den Weg in kommerzielle Infrastrukturen finden. Nach über einem Jahr monatlicher ALASCA Tech-Talks muss man beispielsweise beeindruckt sein von der Geschwindigkeit, mit der die Entwicklung neuer Ansätze und neuer Software-Tools für die Cloud voranschreitet – und das ist nur ein kleiner (Open-Source-)Tropfen in einem Meer kontinuierlicher Entwicklungen. Auf der anderen Seite gibt es immer wieder strategische Entscheidungen von Marktteilnehmern, die den Markt durcheinander bringen, nicht immer mit positiven Folgen für andere Unternehmen. Ein sehr aktuelles Beispiel ist die Entscheidung von Broadcom, das Lizenz- und Preismodell für VMware-Produkte zu ändern, wobei Medienberichten zufolge die Kosten für viele VMware-Nutzer erheblich steigen werden[1].
Das VMware-Beispiel zeigt die realen Risiken einer Bindung an bestimmte Technologien oder Anbieter mit oft unvorhersehbaren Folgen. Das Problem starker Abhängigkeiten bleibt oft latent und unbemerkt, bis jemand beschließt, eine Machtposition auf dem Markt auszunutzen, oder ein Unternehmen aus dem Geschäft gedrängt wird. Als Cloud-Anbieter, der sich auf einen Open-Source-Technologie-Stack konzentriert und in Open-Source-Communities sehr aktiv ist, sind wir bei Cloud&Heat oft sehr leidenschaftlich, wenn es darum geht, die Risiken von Vendor Lock-in aufzudecken. Manchmal hat man das Gefühl, dass wir Teil einer Sekte von Open-Source-Fanatikern sind, die bei jeder Gelegenheit unaufgeforderte Warnungen im Stil von Peter und der Wolf aussprechen. Nun, die letzten Monate haben gezeigt, dass der Wolf manchmal tatsächlich das Dorf besucht.
Was können Cloud-Nutzer also in einer von Unsicherheit geprägten Situation tun? Wie bleibt man mit den neuesten Technologien auf dem Laufenden, ohne seine Infrastruktur monatlich zu ändern? Wie minimiert man die Risiken der Anbieterbindung und profitiert gleichzeitig von den relevanten Technologien?
Die naheliegendste Lösung besteht darin, die Technologie zu wechseln und Software oder Prozesse auf vollständig quelloffenen, von der Community betriebenen Cloud-Technologien aufzubauen. So gab es beispielsweise im Zusammenhang mit den letzten Ereignissen im Fall VMware eine intensive Diskussion über Open-Source-Alternativen wie OpenStack oder Proxmox, wobei sich jede Organisation für ihre bevorzugte Alternative positionierte, je nachdem, wie sie die Vorteile von OpenStack und Proxmox in Bezug auf ihre eigenen Bedürfnisse und ihre Geschäftsstrategie bewertete. Diese Überlegungen sind zwar stichhaltig und bieten einen Ausweg aus Lock-in-Effekten durch offene, transparente, gemeinsam entwickelte Technologien, aber die technischen Herausforderungen, Kosten und Auswirkungen dieser Entscheidung müssen von Fall zu Fall gründlich analysiert werden.
Eine weitere Möglichkeit besteht darin, die Abhängigkeiten von unerwarteten Marktveränderungen zu verringern, indem eine zusätzliche Softwareschicht zwischen der Cloud-Infrastruktur und den von den Cloud-Nutzern entwickelten oder eingesetzten Anwendungen eingeführt wird. Diese Schicht kann relativ schlank sein und auf einer offenen und bis zu einem gewissen Grad standardisierten Technologie basieren. Cloud-Infrastrukturen sind komplex und erfordern die Integration mehrerer Schichten, die installiert, betrieben, aktualisiert und überwacht werden müssen. Aus der Sicht des Cloud-Nutzers ist jedoch die Schicht direkt unter den Diensten oder Anwendungen die kritischste. Erstens, weil es die Schicht ist, deren Grundlage den reibungslosen Betrieb der laufenden Software gewährleistet. Zweitens, weil wenn diese Schicht einigermaßen standardisiert und mit mehreren zugrunde liegenden Cloud-Technologien kompatibel ist, lassen sich die Kosten für die Migration dieser letzten Schicht und der darauf laufenden Anwendungen auf andere Infrastrukturen erheblich senken.
Ein De-facto-Standard für diesen Ansatz ist die Verwendung von Kubernetes als zusätzliche PaaS-Schicht direkt unter den von den Cloud-Nutzern entwickelten und betriebenen Anwendungen. Dies kann bedeuten, dass Kubernetes auf einer IaaS-Schicht (zum Beispiel auf Basis von OpenStack, Proxmox oder VMware) oder sogar direkt auf Bare Metal installiert wird. Zusätzlich zu den eigentlichen Vorteilen von Kubernetes, wie z. B. die Automatisierung der Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen, kann Kubernetes auch dazu beitragen, die Abhängigkeit von einem bestimmten Anbieter zu verringern. Es ermöglicht die Entkopplung von Anwendungen von der zugrundeliegenden Infrastruktur (z. B. dem Cloud-Betriebssystem) und verbessert damit ihre Portabilität. Dies bedeutet, dass Anwendungen in verschiedenen Umgebungen konsistent ausgeführt werden können, unabhängig davon, ob sie vor Ort oder in der Cloud installiert sind. Infolgedessen sind Cloud-Nutzer weniger an bestimmte Infrastrukturen gebunden und können ihre eigenen Kubernetes-Cluster auf verschiedenen Infrastrukturen betreiben oder sich auf einen der zahlreichen Anbieter von verwalteten Kubernetes-Diensten verlassen. Sollte der Anbieter von einem Tag auf den anderen seine Preise erhöhen oder keinen adäquaten Service mehr liefern, ist eine Migration zu einem anderen Anbieter oder zu einem On-Premise-Setup mit vergleichsweise geringen Hürden möglich. Die Portabilität kann bei Kubernetes-Diensten oder -Distributionen, die z. B. von der Cloud Native Computing Foundation zertifiziert sind oder Standards folgen, wie die vom Sovereign Cloud Stack entwickelten, noch höher sein. Die Konformität mit Standards gewährleistet Interoperabilität und reduziert die Kosten für die Migration zwischen Anbietern auf ein Minimum. Die Leistung von Anwendungen, die auf Kubernetes laufen, kann auch durch regelmäßige Aktualisierungen und Konformitätsprüfungen sowie durch den täglichen Betrieb, der beispielsweise die optimale Konfiguration des Netzwerks, des Speichers und der Überwachung sicherstellt, gesteigert werden.
Auch wenn Kubernetes nicht für jeden Anwendungsfall geeignet ist, so ist es doch eine Option, die angesichts der sich schnell verändernden Märkte eine Überlegung wert ist. Um den Artikel mit einem Widerspruch abzuschließen, könnte man eine Prognose wagen: Wenn man die Verbreitung von Kubernetes jetzt evaluiert, erspart man den Nutzern von Cloud-Diensten in Zukunft einige Kopfschmerzen. Die Zeit wird es zeigen. In der Zwischenzeit sollten Sie sich zurücklehnen und die Fahrt genießen.
[1] https://www.computerweekly.com/news/366579593/Education-sector-facing-huge-VMware-cost-increases-after-Broadcom-ends-discounts
https://www.heise.de/news/Europaeische-Cloud-Provider-Broadcom-nimmt-uns-in-Geiselhaft-9659067.html