Im meinem letzten Artikel “Microservice-Deployment ganz einfach mit Giant Swarm” habe ich die PaaS-Lösung Giant Swarm als Rundum-sorglos-Paket für das Deployment von Microservice-Anwendungen vorgestellt. Mit Giant Swarm kann man die komplette Kontrolle von der Bereitstellung bis zur Verwaltung der Hardware und den Betrieb der Microservice-Anwendung abgegeben und braucht sich nicht mehr selbst um Infrastruktur-Aspekte zu kümmern.
Möchte man sich eine eigene Cloud mit eigener Hardware aufbauen, weil seine Daten nicht in die öffentliche Cloud gelangen dürfen, aber trotzdem ähnlich mit der Cloud arbeiten können, wie mit Giant Swarm empfiehlt es sich ein Clustermanagementwerkzeug zu benutzen. Ein solches Clustermanagementwerkzeug ist Kubernetes (griech. Steuermann). Kubernetes wird von Google entwickelt und ist ähnlich wie Giant Swarm für das Betreiben von Microservice-Anwendungen gedacht, die aus mehreren Container bestehen und über mehre Rechner hinweg laufen. Kubernetes stellt unter anderen Funktionalitäten bereit, um Anwendungen auszuliefern, zu betreiben und zu skalieren.
Kubernetes verfolgt dabei die Idee, dass der eigentliche Benutzer sich nicht darum kümmern soll, wo seine Arbeit im Cluster ausgeführt wird. Man gibt dem Cluster einfach Arbeit in Form eines Docker-Container und das Kubernetes-Cluster kümmert sich selbstständig darum, wo die Arbeit ausführt wird.
Was muss man nun tun, um ein Kubernetes-Cluster aufzubauen? Auf den Rechnern, auf denen die Docker-Container laufen sollen, muss der so genannten Kubelet-Daemon installiert werden. Diese Rechner werden auch Minions genannt. Weiterhin braucht man noch einen Rechner auf dem verschiedene Master-Komponeten (APIs, Scheduler, usw.) installiert werden. Eine wichtige Komponente stellt dabei der so genannte API-Server dar, der REST-Endpunkte bereitstellt. Diese werden unter anderem vom Konsolen-Programm kubectl benutzt, können aber auch von eigenen Programmen angesprochen werden, um das Cluster zu steuern. Kubelet-Daemon und API-Server benutzen zur Kommunikation den verteilten Key-Value-Speicher Etcd . Ein Architektur-Überblick ist in der nachfolgenden Darstellung zu sehen.
Kubernetes Architektur – https://github.com/GoogleCloudPlatform/kubernetes/blob/master/docs/design/architecture.md
In einem Kubernetes-Cluster werden Docker-Container immer innerhalb von so genannten Pods gruppiert. Ein Pod kann ein oder mehrere Docker-Container enthalten. Die Docker-Container, die in einem Pod gruppiert werden, laufen garantiert auf dem selben Rechner im Cluster. Die Docker-Container, die von einem Pod gruppiert werden, können sich Daten über ein so genanntes Volume teilen. Ein Volume ist ein Verzeichnis, auf das die Docker-Container gemeinsam zugreifen können.
Wenn ein Docker-Container die Ausführung abbricht, sorgt der Kubelet-Agent automatisch dafür, dass der Container neu gestartet wird. Ein Container wird aber nicht automatisch auf einen anderen Rechner bewegt, wenn ein ganzer Rechner ausfällt. Das folgende Listing zeigt die Definition eines Pods für den Warenkorb-Service der Microservice-Anwendung aus meinem Artikel “Microservices und die Jagd nach mehr Konversion” :
1{ "id": "cart", 2 "kind": "Pod", 3 "apiVersion": "v1beta1", 4 "desiredState": { 5 "manifest": { 6 "version": "v1beta1", 7 "id": "cart", 8 "containers": [ { 9 "name": "cart", 10 "image": "zutherb/cart-service", 11 "ports": [ { 12 "containerPort": 18100 } ] } ] } }, 13 "labels": { 14 "name": "cart", 15 "role": "service” } }
Wenn man die Ausfallsicherheit der laufenden Container verbessern möchte, sollte man das Erstellen und Verwalten von Pods nicht selbst in die Hand nehmen, sondern einen Replication-Controller dafür verwenden. Ein Replication-Controller sorgt dafür, dass beliebig viele Kopien von einem Pod automatisch erstellt werden oder beim Ausfall eines Rechners der Pod auf einen anderen Knoten kopiert und ausgeführt wird. Das folgende Listing zeigt die Definition eines Replication-Controllers:
1{ "id": "cart", 2 "kind": "ReplicationController", 3 "apiVersion": "v1beta1", 4 "desiredState": { 5 "replicas": 2, 6 "replicaSelector": {"name": "cart"}, 7 "podTemplate": { 8 "desiredState": { 9 "manifest": { 10 "version": "v1beta1", 11 "id": "cart", 12 "containers": [ { 13 "name": "cart", 14 "image": "zutherb/cart-service", 15 "ports": [ { 16 "containerPort": 18100 } ] } ] } }, 17 "labels": { 18 "name": "cart", 19 "uses": "redis" } } }, 20 "labels": { 21 "name": "cart", 22 "role": "backend" } }
Moderne Web-Anwendungen bestehen häufig aus einer Vielzahl von verschiedenen Microservices. Wie es der Online-Shop in meinem Artikel “Microservices und die Jagd nach mehr Konversion” zeigt, kann es mehrere Benutzerschnittstellen geben, die auf verschiedene Backend-Services zugreifen und mit verschiedenen Datenbanken kommunizieren. Pods sind nicht zwangsläufig immer an der selben Stelle, spätestens wenn ein Rechner ausfällt, muss ein Pod bewegt werden. Pods können also kommen und gehen. Gerade wenn Replication-Controller verwendet werden. Jeder Pod bekommt eine eigene IP-Adresse, die aber veränderlich ist.
Wenn ein Pod Backendfunktionalitäten für einen Frontend-Pod bereitstellt, stellt sich die Frage, wie das Frontend einen einheitlichen Zugriff auf den Backend-Pod bekommt. Zum einen kann sich die IP eines Pods ändern und zum anderen wird ein zentraler Zugriffspunkt benötigt, wenn Replikationen eines Pods auf mehrere Rechner verteilt sind. Hierzu braucht man eine Instanz, die die Last auf die Pods verteilt. Eine solche Instanz ist ein Kubernetes-Service, der einen Satz an Pods über einen Selector auswählt. Das Ziel eines Kubernetes-Service ist es auch eine Verbindung zwischen nicht-Kubernetes-Anwendungen, also beliebigen Clients und den entsprechenden Pods zur Verfügung zu stellen. Im folgenden Listing ist die Definition des Warenkorb-Service zusehen, der als Loadbalancer auf die Pods unseres vorher definierten Replication-Controller fungiert:
1{ "id": "cart", 2 "kind": "Service", 3 "apiVersion": "v1beta1", 4 "port": 18100, 5 "containerPort": 18100, 6 "selector": { "name": "cart" }, 7 "labels": { 8 "name": "cart", 9 "role": "backend" } }
Wenn man mit virtuellen Maschinen ausprobieren möchte, wie sich die Arbeit mit Kubernetes selbst anfühlt, gibt es in meinem Github-Repository eine Vagrant-Datei mit der man ein Kubernetes-Cluster aufbauen kann, in dem man meinen Microservice-basierten Online-Shop betreiben kann. Um das virtuelle Cluster zu erstellen, muss man einfach die Befehle ausführen, die in der ReadMe beschrieben sind. Die Vagrant-Datei ist in der Lage ein Kubernetes-Cluster mit beliebig vielen Knoten aufzubauen, dazu muss man nur die Umgebungsvariable NUM_INSTANCES entsprechend anpassen.
Als Betriebssystem für das virtuelle Kubernetes-Cluster wird CoreOS verwendet. CoreOS ist eine spezielle Linux-Distribution um große, skalierbare Cluster auf unterschiedlichen Infrastrukturen einfach zu managen. CoreOS basiert auf ChromeOS und stellt ein sehr leichtgewichtiges Hostsystem bereit, das Docker-Container zum Ausführen von Applikationen benutzt. Damit bietet CoreOS eine gute Grundlage für ein Kubernetes-Cluster.
Damit man sieht, wie einfach die Arbeit mit einem Kubernetes-Cluster ist, kann man sich das nachfolgende Video ansehen, das ich erstellt habe. Darin wird gezeigt, wie man das Replikationsverhalten des Cluster bezüglich eines Katalog-Frontend im laufenden Betrieb mit dem Konsolen-Programm kubectl ändern kann. Außerdem sieht man, wie man einen A/B Test im Cluster deployen kann. Abschließend wird die Selbstheilungsfähigkeit des Clusters gezeigt, wenn ein Container beendet wird.
Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren
YouTube immer entsperren
Google selbst sagt über Kubernetes noch: “Kubernetes is in pre-production beta!” . Trotzdem macht Googles Kubernetes schon einen recht ordentlichen Eindruck. Das Konsolen-Programm stellt Kommandos bereit um Pods zu skalieren, die Log-Dateien der Pods zu betrachten oder Rolling-Updates der einzelen Pods durchzuführen, wie man in nächsten Video sehen kann. Gerade das Rolling Update ist eine sehr schöne Funktion, die ich mir gerade für den Betrieb in meinen Projekten schon oft gewünscht habe, da es Zero-Downtime-Deployments stark vereinfacht und man Reaktionszeit bekommt, wenn bei einem Deployment doch etwas schief geht.
Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren
YouTube immer entsperren
Die einzelnen Features funktionieren schon ganz gut, allerdings ist Kubernetes noch recht neu und dem entsprechend ist das Ökosystem um Kubenetes noch recht klein. Man sollte sich aber definitiv damit beschäftigen und Integrationsmöglichkeiten in bestehende Lieferketten ausloten. Gerade im Bereich Continuous Delivery bekommt man ganz neue Möglichkeiten. Man kann Multi-Deployment-Pipelines aufbauen, mit denen man jeden einzelnen Feature-Branch sehr einfach als Pod deployen kann. Die Fachseite kann die Feature so schneller abnehmen und wenn alle Tests in der Produktionspipeline fehlerfrei durchlaufen, wird das Feature direkt in Produktion ausgeliefert, was die Lieferzeiten deutlich senkt.
Weitere Beiträge
von Bernd Zuther
Dein Job bei codecentric?
Jobs
Agile Developer und Consultant (w/d/m)
Alle Standorte
Weitere Artikel in diesem Themenbereich
Entdecke spannende weiterführende Themen und lass dich von der codecentric Welt inspirieren.
Gemeinsam bessere Projekte umsetzen.
Wir helfen deinem Unternehmen.
Du stehst vor einer großen IT-Herausforderung? Wir sorgen für eine maßgeschneiderte Unterstützung. Informiere dich jetzt.
Hilf uns, noch besser zu werden.
Wir sind immer auf der Suche nach neuen Talenten. Auch für dich ist die passende Stelle dabei.
Blog-Autor*in
Bernd Zuther
Du hast noch Fragen zu diesem Thema? Dann sprich mich einfach an.
Du hast noch Fragen zu diesem Thema? Dann sprich mich einfach an.