Microservice-Deployment ganz einfach ohne Docker mit der Linux-Paketverwaltung

In den letzten Artikeln der Serie “Microservice-Deployment ganz einfach” haben wir uns vorwiegend mit Werkzeugen beschäftigt, die auf dem Deployment-Werkzeug Docker aufbauen. In dem Artikel “Microservice-Deployment ganz einfach mit Giant Swarm” wurden die ersten Erfahrungen mit der PaaS-Lösung Giant Swarm beschrieben. In dem Artikel “Microservice-Deployment ganz einfach mit Kubernetes” wurde vorgestellt, wie man mit Kubernetes einen Cluster zum Betrieb von Docker-Containern aufbauen kann. Dass auch der Betrieb einer Microservice-Anwendung auf einem einzelnen Rechner kein Problem ist, habe ich in dem Artikel “Microservice-Deployment ganz einfach mit Docker Compose” gezeigt.

Auch wenn Docker den Betrieb von Microservice-Anwendungen stark vereinfacht, ist es nicht zwingend nötig, Docker für das Deployment von Microservice-Anwendungen zu verwenden. Die meisten Linux-Distributionen verfügen über eine komfortable Software-Paketverwaltung, die auch zum Deployment von Microservice-Anwendungen benutzt werden kann. Wie in einem Docker-Container sollten in einem Linux-Paket alle notwendigen Dateien enthalten sein, um eine Anwendung auf einem Rechner ausführen zu können.

weiterlesen

Bernd Zuther

Was es bedeutet, mit AppDynamics zu arbeiten – und anderen APM Werkzeugen

Seit vielen Jahren arbeite ich mit Application Performance Management (APM) Werkzeugen im Java-Umfeld. Im Vergleich zu anderen Performance-Optimierungs-Werkzeugen wie z.B. Profilern, erfüllen APM-Werkzeuge sowohl Monitoring- als auch Analyse-Aufgaben. Sie bieten einen besseren Überblick über verteilte Anwendungen und können eine direkte Verbindung zwischen Anwender-Aktionen, den Performance-Erfahrungen der Anwender und den zugrunde liegenden technischen Prozessen liefern.
weiterlesen

Dr. Raymond Georg Snatzke

Microservice-Deployment ganz einfach mit Docker Compose

In dem Artikel “Microservice-Deployment ganz einfach mit Giant Swarm” habe ich die PaaS-Lösung Giant Swarm als Rundum-sorglos-Paket für das Deployment von Microservice-Anwendungen vorgestellt. In einem weiteren Artikel “Microservice-Deployment ganz einfach mit Kubernetes” habe ich vorgestellt, wie man mit Kubernetes einen Cluster aus Docker-Containern aufbauen kann. Heute möchte ich vorstellen, wie man eine Microservice-Anwendung mit Docker-Bordmitteln aufbauen kann, um eine Microservice-Anwendung auf einem Entwicklerrechner oder einer AWS-Instanz zu betreiben, was sehr praktisch ist, wenn man schnell eine Produktpräsentation oder einem Integrationstest durchführen möchte.

Docker baut ein internes Netzwerk für alle Container auf, in dem jeder Container eine eigene IP-Adresse bekommt. Die IP-Adresse kann mit docker inspect angezeigt werden. Um die verschiedenen Container miteinander zu verlinken, wird Port-Mapping eingesetzt. Das Linking-System von Docker ermöglicht es beliebig viele Container miteinander zu verlinken. Wenn Container miteinander verbunden sind, setzt Docker entsprechende Umgebungsvariablen in den Zielcontainern. In diesen sind IP-Adressen und Ports der anderen Containern enthalten. Wie das aussieht, kann man im folgenden Listing sehen:

weiterlesen

Bernd Zuther