Monitoring
Wir haben ein Auge auf Ihre Container
docker docker-swarm kubernetes
- Application Performance Monitoring
- Infrastruktur Monitoring
- Logging und Tracing
ab 289.95 € pro Monat
docker docker-swarm kubernetes
ab 289.95 € pro Monat
Managed Docker
Managed Docker - Container-as-a-Service made in Germany
ab 49.95 €
pro Monat
Managed Docker Swarm
Managed Docker - Container-as-a-Service made in Germany
ab 289.95 €
pro Monat
Managed Kubernetes
Managed Kubernetes - Container-as-a-Service made in Germany
ab 389.95 €
pro Monat
Status Monitoring
Auch in Zeiten von Containern hoch relevant: Up/Down Status von Nodes, Filesystem-, CPU- und Memory-Usage, Erreichbarkeit von Ports, Status von TLS Zertfikaten.
Performance Monitoring
Mit Hilfe von Prometheus können zahlreiche Metriken Ihrer Anwendungen aggregiert und in Kontext gesetzt werden um den Zustand Ihrer Anwendungen besser zu verstehen.
Logs
Logs von Containern und Nodes werden zentral mit Loki aggregiert und mit Hilfe von Labels durchsuchbar gemacht.
Traces
Schicken Sie Traces aus Ihren Anwendungen an Tempo um zu analysieren, wo Fehler im Stack Ihrer Anwendungen auftauchen.
Identity Provider
Keycloak ist ein Open-Source Identitäts- und Zugriffsmanagement-Tool.
ab 49.95 €
pro Monat
Dokumenten Datenbank
MongoDB ist eine dokumentenorientierte NoSQL-Datenbank.
ab 49.95 €
pro Monat
Container Registry
Harbor ist eine Open-Source Container-Registry.
ab 49.95 €
pro Monat
Containerisierung
docker docker-swarm kubernetes
Wir sichern Ihre Systeme mit modernem Backup-Tooling für Container.
ab 489.95 €
Paketierung
docker docker-swarm kubernetes
Wir paketieren Ihre Anwendungen mit Hilfe von Helm oder Docker Compose.
ab 489.95 €
Installation
docker docker-swarm kubernetes
Wir entwickeln Workflows und Pipelines für kontinuierliches Deployment.
ab 989.95 €
Managed Monitoring ist eine Lösung für umfassende Monitoring von Servern, Containern und Anwendungen. Wir bieten verschiedene Überwachungs-Mechanismen auf mehreren Ebenen, die den Zustand Ihrer gesamten Infrastruktur sichtbar machen können.
Je nach gewähltem Support Paket bieten wir zusätzlich zum Betrieb und der Einrichtung Ihres Monitoring-Stacks auch erweiterten Eskalations-Support, d.h. im Fehlerfall werden wir aktiv.
Premium | Enterprise | |
---|---|---|
Abrechnung | Nach Speicher-Verbrauch | Nach Speicher-Verbrauch |
Eskalations-Support | ✅ | ✅ |
Status-Monitoring | ✅ | ✅ |
Endpunkt-Monitoring | ✅ | ✅ |
Application Performance Monitoring | ✅ | ✅ |
Logging | ✅ | ✅ |
Tracing | ✅ | ✅ |
Hochverfügbar | ✅ | ✅ |
Bring Your Own IDP | ✅ | ✅ |
Bring Your Own Cloud | ✅ | ✅ |
Bring Your Own Domain | ✅ | ✅ |
Bring Your Own Storage | ✅ | ✅ |
Preis pro GB | 0,10 € / Monat | 0,25 € / Monat |
Pauschale | ab 289.95 € / Monat | ab 989.05 € / Monat |
Unter Container-Monitoring versteht man die kontinuierliche Erfassung von Metriken und die Verfolgung des Zustands von containerisierten Anwendungen und Microservices-Umgebungen, um ihren Zustand und ihre Leistung zu verbessern und ihren reibungslosen Betrieb sicherzustellen. Container haben sich zu einer der beliebtesten Methoden für die Bereitstellung von Anwendungen entwickelt und bringen Vorteile mit sich, wie z. B. die Erleichterung der Portabilität von Anwendungen und die Verbesserung der betrieblichen Ausfallsicherheit. In der 2018 durchgeführten Umfrage der Cloud Native Computing Foundation (CNCF) gaben 73 % der Befragten an, dass sie derzeit Container in der Produktion einsetzen, um die Agilität zu erhöhen und das Innovationstempo zu beschleunigen. Container-Monitoring ist eine Untergruppe von Observability - ein Begriff, der oft neben Monitoring verwendet wird und auch Log-Aggregation und -Analysen, Tracing, Benachrichtigungen und Visualisierungen umfasst. Im Vergleich zu herkömmlichen Überwachungslösungen bieten moderne Überwachungslösungen robuste Funktionen zum Aufspüren potenzieller Fehler sowie granulare Einblicke in das Containerverhalten. Auf dieser Seite erfahren Sie, warum, wann und wie Sie Ihre Container überwachen sollten, und auf welche Herausforderungen und Lösungen Sie achten sollten.
Der Einblick in Metriken, Protokolle und Traces ist für Betreiber von Container-Plattformen von großem Nutzen. Das Verständnis dessen, was nicht nur auf Cluster- oder Host-Ebene, sondern auch innerhalb der Container-Laufzeit und -Anwendung geschieht, hilft Unternehmen dabei, besser informierte Entscheidungen zu treffen, z. B. wann Instanzen/Aufgaben/Pods ein- und ausgesteuert werden sollen, wann Instanztypen geändert werden sollen und wann Kaufoptionen (On-Demand, reserviert und Spot) bestehen. DevOps- oder Systemingenieure können auch die Effizienz verbessern und die Lösungsfindung beschleunigen, indem sie Automatisierungen hinzufügen, z. B. durch die Verwendung von Warnmeldungen zur dynamischen Auslösung von Skalierungsvorgängen. Durch die aktive Überwachung der Speicherauslastung können Sie beispielsweise einen Schwellenwert ermitteln und Betreiber benachrichtigen, wenn sich der Ressourcenverbrauch den Ressourcengrenzen nähert, oder Sie können automatisch zusätzliche Knoten hinzufügen, bevor die verfügbare CPU- und Speicherkapazität erschöpft ist. Wenn Sie eine Regel festlegen, die z. B. bei einer Auslastung von 70 % einen Alarm auslöst, können Sie dem Cluster dynamisch Instanzen hinzufügen, wenn der Schwellenwert erreicht ist.
Trotz der Beliebtheit von Containern für die Bereitstellung moderner Anwendungen ergab die CNCF-Umfrage 2018, dass 34 % der Befragten die Überwachung als eine der größten Herausforderungen bei der Einführung von Containern nannten. Die Einführung eines Container-Überwachungssystems ist im Vergleich zu einer herkömmlichen Überwachungslösung für virtualisierte Infrastrukturen mit einzigartigen Herausforderungen verbunden. Zu diesen Herausforderungen gehören:
Sie lassen sich schnell bereitstellen und ebenso schnell wieder zerstören. Dieses Verhalten ist einer der Hauptvorteile bei der Verwendung von Containern, aber es kann schwierig sein, Änderungen zu verfolgen, insbesondere in komplexen Systemen mit hoher Fluktuation.
Ressourcen wie Arbeitsspeicher und CPU werden von einem oder mehreren Hosts gemeinsam genutzt, was die Überwachung des Ressourcenverbrauchs auf dem physischen Host erschwert und somit einen guten Überblick über die Leistung der Container oder den Zustand der Anwendung erschwert.
Herkömmliche Überwachungsplattformen, selbst solche, die sich gut für virtualisierte Umgebungen eignen, bieten unter Umständen keinen ausreichenden Einblick in Metriken, Protokolle und Traces, die für die Überwachung und Fehlersuche in Bezug auf den Zustand und die Leistung von Containern erforderlich sind.
Um Entwicklungszyklen zu beschleunigen und Governance in ihre Pipelines für kontinuierliche Integration und kontinuierliche Lieferung (CI/CD) einzubauen, können Teams reaktive Tools und Skripte in ihre Standard-Devops-Orchestrierung einbauen, indem sie Metriken aus ihrer Überwachungslösung nutzen oder Community-Projekte wie AutoPilot von Portworx zur Hilfe nehmen. Autopilot ist eine Überwachungs- und Reaktions-Engine. Sie beobachtet die Metriken der von ihr überwachten Anwendungen und reagiert auf der Grundlage bestimmter Bedingungen, die in diesen Metriken erfüllt sind, und ändert die Laufzeitumgebung der Anwendung. Es wurde für die Überwachung von zustandsabhängigen Anwendungen entwickelt, die auf Kubernetes bereitgestellt werden, und ist ein gutes Beispiel für ein Projekt, das es Unternehmen erleichtern soll, metrikbasierte Entscheidungen zu treffen und ihre betriebliche Resilienz zu stärken.
Unternehmen, die in Chaos Engineering investiert haben, müssen Fehlerbereiche isolieren und profilieren, um ihre Tools für die Risikoresilienz zu ergänzen. Chaos Monkey, das ursprünglich von Netflix entwickelt wurde, beendet nach dem Zufallsprinzip virtuelle Maschineninstanzen und Container, die in Ihrer Produktionsumgebung laufen. Auf diese Weise werden die Ingenieure häufiger mit Fehlern konfrontiert und können belastbare Dienste entwickeln. Wenn man einem System Ausfälle zufügt, aber keine guten Metriken hat, mit denen man sie verfolgen kann, bleibt eigentlich nur das Chaos.
Die Open-Source-Datenreihen-Visualisierungssuite Grafana ist in vielen Szenarien eine gute Wahl, da sie eine lange Liste von Datenquellen unterstützt, darunter Prometheus, Graphite und Amazon CloudWatch, um nur einige zu nennen. Während die Kernkompetenz von Grafana bisher in der Visualisierung und Alarmierung von Metriken lag, ermöglicht die kürzlich hinzugefügte Unterstützung für Logs Analytics mit Datenquellen für InfluxDB und Elasticsearch die Korrelation von Metrikdaten mit Log-Events und bietet eine verbesserte Ursachenanalyse. Neben Grafana gibt es viele kostenpflichtige Lösungen für das Container-Monitoring, die jedoch in der Regel die Verwendung spezifischer Agenten oder Datensammlungsprotokolle erfordern.
Die Verknüpfung unterschiedlicher Messdatenquellen erfordert eine robuste Infrastrukturüberwachungsplattform, die einen einzigen Überblick über die Daten aus verschiedenen Quellen bietet. Es erfordert auch viel Überlegung und Planung von Ihrem Anwendungsentwicklungsteam, um sicherzustellen, dass die Daten korreliert werden können, um ein einfaches Debugging von Anfang bis Ende zu ermöglichen.
Konzeptuell werden containerisierte Anwendungen auf ähnliche Weise überwacht wie herkömmliche Anwendungen. Es werden Daten auf verschiedenen Ebenen des Stacks für unterschiedliche Zwecke benötigt. Sie messen und sammeln Metrikdaten sowohl im Container selbst als auch auf der Infrastrukturebene für ein besseres Ressourcenmanagement, z. B. bei Skalierungsaktivitäten. Außerdem benötigen Sie anwendungsspezifische Daten, ein Leistungsmanagement der Anwendung und Tracing-Informationen für die Fehlersuche in der Anwendung.
Robuste Beobachtbarkeit und einfaches Debugging sind der Schlüssel zum Aufbau einer Microservices-Architektur. Mit dem Wachstum Ihres Systems steigt auch die Komplexität bei der Überwachung der gesamten Anwendung. Traditionell würden Sie einen unabhängigen Dienst erstellen, der einen einzigen Zweck erfüllt und mit anderen Diensten kommuniziert, um eine größere Aufgabe zu erfüllen. Mithilfe eines SDK-Ansatzes können Sie Dienste so erstellen, dass sie neben der Geschäftslogik auch Netzwerkfunktionen wie die Kommunikation zwischen Diensten, Verkehrssteuerung, Wiederholungslogik und vieles mehr enthalten. Diese Aufgaben werden jedoch sehr komplex, wenn Sie Hunderte von Diensten haben, die verschiedene Programmiersprachen in unterschiedlichen Teams verwenden. An dieser Stelle kommt Service Mesh ins Spiel.
Source: AWS
Ein Service Mesh verwaltet die Kommunikationsschicht Ihres Microservices-Systems durch die Implementierung einer Softwarekomponente als Sidecar-Proxy. Diese Softwarekomponente führt Netzwerkfunktionen, Verkehrssteuerung, Verfolgung und Protokollierung durch. Jeder Dienst hat seinen eigenen Proxy-Dienst und alle Proxy-Dienste bilden das Mesh. Jeder Dienst kommuniziert nicht direkt mit anderen Diensten, sondern nur mit seinem eigenen Proxy. Die Kommunikation zwischen den Diensten findet zwischen den Proxys statt. So sieht die Architektur aus:
Source: AWS
Mit einem Service Mesh können Sie ein Netzwerk von Microservices aufbauen und den größten Teil der Netzwerkschicht auslagern, um die Verwaltung und Beobachtbarkeit zu optimieren. Wenn Probleme auftreten, können Sie die Ursache des Problems schnell ermitteln. Hier sind einige der Vorteile der Verwendung von Service Mesh:
Source: AWS
Der Zweck der Überwachung Ihrer Anwendung besteht darin, Überwachungs- und Betriebsdaten in Form von Protokollen, Metriken, Ereignissen und Traces zu sammeln, um Probleme schnell zu erkennen und darauf zu reagieren und Unterbrechungen zu minimieren. Wenn Ihr Überwachungssystem gut funktioniert, sollten Sie idealerweise in der Lage sein, auf einfache Weise Alarme zu erstellen und automatische Aktionen durchzuführen, wenn Schwellenwerte erreicht werden. In den meisten Fällen sind statische Alarme ausreichend, aber für Anwendungen, die ein organisches Wachstum, ein zyklisches oder saisonales Verhalten aufweisen (z. B. Anfragen, die tagsüber Spitzenwerte erreichen und nachts abklingen), sind mehr Überlegungen und Kenntnisse erforderlich, um den Schwellenwert für die Implementierung eines wirksamen statischen Alarms zu definieren. Die allgemeine Herausforderung besteht darin, den richtigen Schwellenwert zu finden - entweder ist er zu weit gefasst und birgt das Risiko, dass Probleme übersehen werden, oder er ist zu eng gefasst und verursacht zu viele Fehlalarme.
Dieses Rätsel lässt sich durch maschinelles Lernen lösen. Viele Überwachungstools verfügen inzwischen über diese Fähigkeit, um zu lernen, was die normale Basislinie ist, und anomales Verhalten in den Daten zu erkennen, wenn es auftritt. Das Tool kann sich an metrische Trends und saisonale Schwankungen anpassen, um die dynamische Natur des System- und Anwendungsverhaltens kontinuierlich zu überwachen, und sich automatisch an Situationen wie tageszeitliche Auslastungsspitzen anpassen. Mit maschinellem Lernen können Sie Laufzeitprobleme früher erkennen und so System- und Anwendungsausfallzeiten reduzieren.
Mit ayedo Cruise erhalten Sie Zugriff auf eine wahlweise hochverfügbare SaaS-Anwendung wie z.B. GitLab. Bei Bedarf unterstützt Sie unser Plattfom Team mit indivduellen Lösungen und Managed Services.
Mehr Flexibilität - Starten sie klein und erweitern Sie ihre Ressourcen bei Bedarf. Schnell, kosteneffizient und ohne User-Limit.
Mehr Sicherheit - Alle Ihre SaaS-Anwendungen laufen in Ihrer persönlichen Container Plattform und sind strikt von anderen Tenants getrennt. Individuelle Sicherheitsanpassungen sind jederzeit möglich.
Mehr Möglichkeiten - die Anwendungen in unserem App-Katalog lassen sich miteinander integrieren für mehr Produktivität und Sicherheit.
Mehr Support und Managed Services - Profitieren Sie von der Erfahrung unseres Plattform Teams und zahlreichen Managed Services wie bspw. Kubernetes Cluster, Datenbanken und weiteren Applikationen.
Wir stellen Ihre Wunschanwendung wahlweise auf Basis von Docker oder Kubernetes bereit. Sie erhalten Zugriff auf die Anwendung.
Eventuelle Sonder-Konfigurationen oder Integrationen mit einem SSO-Provider oder einem S3-Backend sind nach Absprache möglich.
Mit ayedo Fleet erhalten Sie Zugriff auf eine sichere und wahlweise hochverfügbare Container Plattform auf Basis von Docker, Docker Swarm oder Kubernetes. Bei Bedarf unterstützt Sie unser Plattfom Team mit indivduellen Lösungen und Managed Services.
Mehr Flexibilität - Starten sie klein und erweitern Sie ihre Ressourcen bei Bedarf. Schnell und kosteneffizient.
Mehr Sicherheit - Alle Container Plattformen sind durch dedizierte VPCs strikt voneinander getrennt. Individuelle Sicherheitsanpassungen sind jederzeit möglich.
Mehr Kontrolle - Mit jedem Projekt erhalten Sie eine eigene dedizierte Container Plattform. Erstellen Sie Netzwerke, Container und Volumes innerhalb weniger Minuten selbst.
Mehr Support und Managed Services - Profitieren Sie von der Erfahrung unseres Plattform Teams und zahlreichen Managed Services wie bspw. Kubernetes Cluster, Datenbanken und weiteren Applikationen.
Wir unterstützen die folgenden Provider als Ziel für Ihre Managed Services:
ayedo bietet Consulting Services rund um das Thema DevOps, Kubernetes, Container und Cloud Native an. Wir können Ihre Teams hinsichtlich der Umsetzung Ihrer Projekte beraten und durch Support unterstützen.
Nein. Unser Fokus liegt auf der Bereitstellung der für den Betrieb von Software nötigen Infrastruktur und Plattformen. Gerne vermitteln wir Sie an unseren Partner avemio.tech.
Sprechen Sie uns an →Custom Apps sind z.B. Ihre Fachanwendungen oder öffentlich verfügbare Anwendungen die nicht Teil des ayedo Cruise Kataloges sind.
Gerne helfen wir Ihnen bei der Containerisierung und Paketierung Ihrer Anwendungen als Vorbereitung auf den Betrieb als Custom App auf einer ayedo Fleet basierten CaaS-Plattform.
Ja. Neben den von uns unterstützten Cloud Providern sind ayedo Fleet und
ayedo Cruise auch für den Betrieb innerhalb Ihrer Rechenzentren oder IT-Infrastrukturen verfügbar.
Ja. All unsere Managed Services enthalten eine Management Pauschale die alle organisatorischen und zwischenmenschlichen Themen abdeckt.
Die anfallende Pauschale können Sie der jeweiligen Service- oder Produkt-Übersicht entnehmen.
Ein Vorteil ist, dass durch die Containerisierung so deutlich weniger Ressourcen verbraucht werden, als bei einem herkömmlichen Server oder einer virtuellen Maschine.
Mit Docker können Sie sicherstellen, dass die Funktionalität Ihrer Anwendungen in jeder Umgebung ausgeführt werden kann. Dieser Vorteil entsteht, weil alle Anwendungen und deren Abhängigkeiten in einem Docker-Ausführungscontainer zusammengeführt werden.
Docker Swarm ist ein Orchestrator für Docker-Container. Mit Docker Swarm können Docker-Cluster erstellt und wie ein einziges virtuelles System verwaltet werden.
Docker Swarm stellt über das Scheduling sicher, dass immer ausreichend Kapazitäten für verteilte Container vorhanden sind und weist Container den zugrundeliegenden Nodes zu.
Docker Swarm wurde im Februar 2015 von Docker vorgestellt und reagiert auf den zunehmenden Orchestrierungsbedarf in Container-Umgebungen. Eine Alternative zu Docker Swarm wäre Kubernetes.
Mit Kubernetes vereinfachen und beschleunigen Sie bereits nach kurzer Zeit Ihre gesamte IT. Gleichzeitig erhöhen Sie die Stabilität und Verfügbarkeit Ihrer Workloads und Applikationen. Profitieren Sie von modernen DevOps Ansätzen und verkürzen Sie Ihre Time To Market. Wir beraten Sie gerne!
Die meisten Apps aus dem ayedo Cruise Katalog unterstützen OAuth2, OpenID Connect oder SAML als SSO-Mechanismus. Gerne integrieren wir Ihre App mit einem generischen IDP wie z.B. Microsoft 365, Google, GitHub, Keycloak oder Authentik.
Auf Wunsch betreiben wir Ihre ayedo Fleet CaaS-Plattform in Ihrem Account, bzw. Ihrer Subscription bei einem unserer unterstützten Cloud Provider.
Auf Wunsch speichern wir Ihre Backups, Logs, Traces und Metriken und Volumes auf einem Ziel-System unter Ihrer Verwaltung. Dabei entfallen die Kosten pro Gigabyte, jedoch übernehmen wir keine Gewährleistung und leisten keinen Support hinsichtlich der Verfügbarkeit von Daten oder des Ziel-Systems.
Sprechen Sie uns an →Die meisten unserer Services und Apps im ayedo Cruise Katalog bieten Ihnen die Möglichkeit, Dienste unter Ihrer eigenen Domain zu betreiben.
Wir stellen ein S3-kompatibles Speicher-Backend zur Verfügung auf das Ihre Sicherungen abgelegt werden. Zusammen mit Ihnen implementieren wir die nötigen Scripte und Dienste für die regelmäßige Sicherung Ihrer Daten auf unser Backend.
Wir überwachen die regelmäßige und vollständige Ausführung der Backups und ergreifen Maßnahmen im Fehlerfall. Für Integritätstests sind Sie selbst verantwortlich.
Sprechen Sie uns an →Ja. Da der Implementierungsaufwand je nach Ziel-System stark variieren kann berechnen wir diesen jedoch nach Aufwand. Für eine Übersicht an unterstützten Systemen, sprechen Sie uns bitte an.
Sprechen Sie uns an →Wir stellen Ihnen ein Modernes Monitoring-System nach Ihren Bedürfnissen auf Basis von ayedo Fleet und ayedo Cruise zur Verfügung. Zusammen mit Ihnen implementieren wir die Anpassungen an Ihren Systemen für die Integration in Ihr neues Monitoring.
Für Kunden unseres Premium- und Enterprise-Support Angebotes übernehmen wir auf Wunsch auch die Entgegennahme von Störungsmeldungen und die Entstörung von auftretenden Problemen.
Sprechen Sie uns an →Unsere Container Experten beraten Sie gerne und individuell.
🏠 Halbergstr. 4, 66121, Saarbrücken