Sie sind hier: Startseite » Markt » Tipps und Hinweise

Datensicherheit bei Kubernetes


So sorgen Unternehmen für umfassende Datensicherheit bei Cloud-nativen Anwendungen
Viele Unternehmen nutzen Cloud-Services für die Objekt- oder Dateispeicherung, weil sie sich schnell und einfach implementieren und verwalten lassen



Von Reinhard Zimmer, Regional Sales Manger bei Zerto

Die Art und Weise, wie Unternehmen Anwendungen entwickeln und ausführen, hat sich dank des einfachen, modularen Container-Ansatzes grundlegend verändert. Angesichts der zunehmenden Verbreitung von Containern und der Tatsache, dass sie die erste Wahl für die Produktionsbereitstellung sind, entwickelt sich Kubernetes zur zentralen Technologie für die Container-Orchestrierung bei der Verwaltung von Produktionsanwendungen. Der Aufwärtstrend von Kubernetes wird wohl weiter anhalten und Container werden sich dementsprechend als Plattform für die Produktionsbereitstellung durchsetzen - noch vor virtuellen Maschinen. Unternehmen müssen Anwendungen unter Umständen mehrmals täglich aktualisieren. Und für diese ständigen Aktualisierungen benötigen sie Microservices, die zu groß für die eingesetzten virtuellen Maschinen sind.

Hinsichtlich Sicherheit und des Schutzes von Daten, ist Kubernetes oft schwer zu kontrollieren und Legacy-Tools und -Prozesse werden den Anforderungen an eine Cloud-native Plattform schlicht nicht gerecht. Im Gegensatz zu ausgereifteren virtuellen Umgebungen gibt es bei Kubernetes weniger Sicherheitsvorgaben, die gewährleisten, dass neue Workloads für den Schutz von Daten ordnungsgemäß konfiguriert werden. Entsprechend müssen IT-Teams zahlreiche wichtige Faktoren berücksichtigen, um die Datensicherheit im Zusammenhang mit Kubernetes zu optimieren. Unter anderem betrifft dies den Schutz von Container-Pipelines, Anwendungen (stateful und stateless) sowie die organisatorische Abstimmung von Cloud-Services.

Schutz für Container-Pipelines
Container-Images fungieren als permanente Ebenen des Installations- und Konfigurationsprozesses. Anstatt nur das Endergebnis – das Container-Image – zu erfassen, ist es sinnvoller, die Technologie zu schützen, die die Images erzeugt, einschließlich aller Konfigurationsskripte (wie Dockerfile-und Kubernetes-YAML-Dateien) und der Dokumentation. Dies wird auch als Pipeline bezeichnet. Die Anforderungen an die Datensicherheit für Systeme, die die Container als Teil der CI/CD-Pipeline erstellen, werden jedoch häufig nicht beachtet. Dazu gehören Tools wie Build-Server und Code- und Artefakt-Repositorys, die Container und Anwendungsversionen speichern. Indem diese Workloads geschützt werden, wird auch ein Großteil der Pipeline, die Container-Images generiert, automatisch effektiver geschützt.

Statusunabhängige und statusabhängige Anwendungen
Der Schutz persistenter Anwendungsdaten ist ein weiteres wichtiges Puzzleteil. Zur Erklärung: In den früheren Phasen der Entwicklung der Container-Technologie wurde oft behauptet, dass Container nur für statusunabhängige Workloads geeignet seien und dass das Speichern von Daten in einem Container nicht möglich sei. Die Technologien haben sich mittlerweile weiterentwickelt und heute unterstützen sowohl die zugrunde liegende Laufzeitumgebung für Container als auch Kubernetes selbst eine Vielzahl von Workloads, einschließlich statusabhängiger Anwendungen.

Während die Container-Images selbst nur vorübergehend bestehen und sämtliche Änderungen am Dateisystem nach dem Löschen des ausgeführten Containers verloren gehen, gibt es nun verschiedene Möglichkeiten, einen Container mit statusabhängigem, persistentem Speicher zu versehen. Selbst Speicher-Arrays für Unternehmen, die bereits in lokalen Rechenzentren im Einsatz sind, können oft statusabhängigen Speicher für Kubernetes-Cluster bereitstellen. Bei der Datensicherheitsstrategie –und der Wahl der Plattform – müssen diese Funktionen berücksichtigt werden.

Organisatorische Abstimmung von Cloud-Services
Viele Unternehmen nutzen Cloud-Services für die Objekt- oder Dateispeicherung, weil sie sich schnell und einfach implementieren und verwalten lassen. Allerdings hat dies auch Nachteile, nicht zuletzt, weil die Daten nicht der Kontrolle der Verantwortlichen für Datensicherheit unterliegen. So kann das Vorhandensein nicht sichtbarer persistenter Speicherressourcen dazu führen, dass Daten ungeschützt bleiben – ohne Sicherung, Notfallwiederherstellung und Anwendungsmobilität.

Daher ist es wichtig zu erkennen, dass die Verwaltung von Cloud-Speicher ebenso schwierig ist wie die Verwaltung von unternehmenseigenem lokalem Speicher. Unternehmen brauchen einen konsistenten Ansatz für den Zugriff auf und die Verwaltung von Cloud-Speicher, damit Entwickler die von ihnen benötigten Services nutzen können, während ihre Kollegen den Überblick behalten, die Sicherheit wahren und ihrer Verantwortung für den Schutz von Daten nachkommen können.

Bewältigung der Herausforderungen im Bereich Datensicherheit und Notfallwiederherstellung
Bei der Bewältigung dieser Herausforderungen müssen Unternehmen Datensicherheits- und Notfallwiederherstellungsplattformen einsetzen, die für ein ausgewogenes Verhältnis zwischen Verfügbarkeit und Ausfallsicherheit und der Notwendigkeit sorgen, eine effektive Entwicklungsgeschwindigkeit für Unternehmensanwendungen und -services zu ermöglichen. So können sie ihre Container schützen, wiederherstellen und verschieben, ohne zusätzliche Schritte, Tools und Richtlinien in den DevOps-Prozess einzubinden.

Beispielsweise hat die Minimierung von Anwendungsausfallzeiten und Datenverlusten für jede Anwendung Priorität, insbesondere für containerisierte Anwendungen. Die Verwendung einer nativen Lösung ermöglicht die Umsetzung einer "Data Protection as Code"-Strategie, bei der die Vorgänge für Datensicherheit und Notfallwiederherstellung von vornherein in den Lebenszyklus der Anwendungsentwicklung integriert werden und die Anwendungen von Anfang an geschützt sind. Unternehmen, die diesen Ansatz verfolgen, können die Ausfallsicherheit ihrer Anwendungen gewährleisten, ohne die Geschwindigkeit, Skalierbarkeit und Agilität ihrer containerisierten Anwendungen zu beeinträchtigen.

Darüber hinaus bietet der Einsatz von Continuous Data Protection (CDP)-Technologie den Benutzern die Sicherheit, einfach zu einem früheren Checkpoint zurückkehren zu können, was den RPO (Recovery Point Objective) minimiert. Dieser Ansatz ist zum einen mit nur geringfügigen Unterbrechungen verbunden und bietet zum anderen eine viel größere Flexibilität und höhere Verfügbarkeit als ein herkömmlicher Ansatz für den Schutz von Daten, der den Produktionssystemen durch die Verwendung von Snapshots möglicherweise um Stunden hinterherhinkt und zu einer lückenhaften Datensicherung führen kann. Im Gegensatz dazu ist CDP seit langem der De-facto-Standard im VM-Bereich und entwickelt sich schnell zur effektivsten Option für Container.

Herstellerbindung bei der Wahl der Plattform vermeiden
Bei der Abwägung all dieser Aspekte empfiehlt es sich grundsätzlich, die Bindung an einen bestimmten Anbieter zu vermeiden. Die Wahl einer Lösung zum Schutz von Daten sollte davon abhängen, ob sie alle Kubernetes-Plattformen für Unternehmen unterstützt und, ob sie es ermöglicht, Daten dorthin zu verschieben, wo die Anwendungen ausgeführt werden müssen, ohne an eine bestimmte Speicherplattform oder einen Cloud-Anbieter gebunden zu sein. Nur so bleiben die persistenten Daten genauso mobil wie die Container selbst.

Fazit: Daten schützen ohne Flexibilität zu verlieren
Durch die Implementierung einer Strategie und einer Plattform, die diese Herausforderungen effektiv angehen, können Unternehmen den Schutz der Daten priorisieren, ohne die Freiheiten einzuschränken, die Kubernetes Entwicklern bei der Erstellung, Entwicklung und schnellen Ausführung von Anwendungen eröffnet. Unternehmen können Anwendungen einfach schützen, wiederherstellen und verschieben, um ein intelligentes Datenmanagement zu erreichen und die Softwareentwicklung und -bereitstellung zu beschleunigen. Im Gegenzug können sie eine maximale Rendite aus diesem immer wichtiger werdenden Bereich ihrer Technologieinvestitionen erzielen. (Zerto: ra)

eingetragen: 18.05.21
Newsletterlauf: 24.08.21

Zerto: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • XLAs: Der Mensch als Maßstab

    Über Jahrzehnte galten Service Level Agreements (SLAs) als Maßstab für gutes IT- und Servicemanagement: Wurde ein Ticket fristgerecht gelöst, war die Aufgabe erledigt. Doch in einer zunehmend digitalisierten Arbeitswelt zeigt sich: Diese Logik greift zu kurz. Effizienz allein entscheidet nicht mehr, ob Mitarbeitende zufrieden und produktiv bleiben. Gefragt ist ein neues Verständnis, das die tatsächliche Erfahrung der Menschen in den Mittelpunkt rückt.

  • Cloud-Souveränität immer stärker im Mittelpunkt

    Mit dem rasanten Fortschritt der digitalen Wirtschaft und dem Aufkommen zahlreicher neuer Technologien - allen voran Künstlicher Intelligenz (KI) - stehen europäische Entscheidungsträger vor einer neuen Herausforderung: Wie lässt sich ein innovatives Ökosystem regionaler Cloud-Anbieter schaffen, das sowohl leistungsfähige Lösungen als auch ausreichende Skalierbarkeit bietet? Und wie kann dieses Ökosystem mit internationalen Anbietern konkurrieren und zugleich die Abhängigkeit von ihnen verringern? Politik, Regulierungsbehörden, Forschungseinrichtungen und Industrievertreter in Europa konzentrieren sich darauf, wie der Kontinent seine Position im globalen Wettlauf um Cloud-Innovationen verbessern kann - ohne dabei die Kontrolle, Autonomie und Vertraulichkeit über europäische Daten aufzugeben, die andernfalls womöglich in anderen Märkten gespeichert, verarbeitet oder abgerufen würden.

  • Vom Nearshoring zum Smart Sourcing

    Aufgrund des enormen IT-Fachkräftemangels und der wachsenden Anforderungen von KI und digitaler Transformationen benötigen Unternehmen heute flexible und kosteneffiziente Lösungen, um wettbewerbsfähig zu bleiben. Für die Umsetzung anspruchsvoller Innovationsprojekte mit hohen Qualitätsstandards entscheiden sich deshalb viele Unternehmen für Nearshoring, da dieses Modell ihnen Zugang zu hochausgebildeten IT-Fachkräften in räumlicher und kultureller Nähe ermöglicht.

  • Sechs stille Killer des Cloud-Backups

    Cloud-Backups erfreuen sich zunehmender Beliebtheit, da sie auf den ersten Blick eine äußerst einfache und praktische Maßnahme zu Schutz von Daten und Anwendungen sind. Andy Fernandez, Director of Product Management bei Hycu, nennt in der Folge sechs "stille Killer", welche die Performance von Cloud-Backups still und leise untergraben. Diese werden außerhalb der IT-Teams, die täglich damit zu tun haben, nicht immer erkannt, können aber verheerende Folgen haben, wenn sie ignoriert werden.

  • Datenaufbewahrungsstrategie und SaaS

    Die Einhaltung von Richtlinien zur Datenaufbewahrung sind für Unternehmen unerlässlich, denn sie sorgen dafür, dass wertvolle Informationen sicher gespeichert und Branchenvorschriften - egal wie komplex sie sind - eingehalten werden. Diese Governance-Frameworks legen fest, wie Unternehmen sensible Daten verwalten - von deren Erstellung und aktiven Nutzung bis hin zur Archivierung oder Vernichtung. Heute verlassen sich viele Unternehmen auf SaaS-Anwendungen wie Microsoft 365, Salesforce und Google Workspace. Die Verlagerung von Prozessen und Daten in die Cloud hat jedoch eine gefährliche Lücke in die Zuverlässigkeit der Datenaufbewahrung gerissen, denn die standardmäßigen Aufbewahrungsfunktionen der Drittanbieter entsprechen häufig nicht den Compliance-Anforderungen oder Datenschutzzielen.

  • Lücken der SaaS-Plattformen schließen

    Die zunehmende Nutzung von Software-as-a-Service (SaaS)-Anwendungen wie Microsoft 365, Salesforce oder Google Workspace verändert die Anforderungen an das Datenmanagement in Unternehmen grundlegend. Während Cloud-Dienste zentrale Geschäftsprozesse unterstützen, sind standardmäßig bereitgestellte Datenaufbewahrungsfunktionen oft eingeschränkt und können die Einhaltung der Compliance gefährden. Arcserve hat jetzt zusammengefasst, worauf es bei der Sicherung der Daten führender SaaS-Anbieter ankommt.

  • Nicht mehr unterstützte Software managen

    Von Windows bis hin zu industriellen Produktionssystemen: Wie veraltete Software Unternehmen angreifbar macht und welche Strategien jetzt nötig sind Veraltete Software ist weit verbreitet - oft auch dort, wo man es nicht sofort vermuten würde. Beispiele für besonders langlebige Anwendungen sind das SABRE-Flugbuchungssystem oder die IRS-Systeme "Individual Master File" und "Business Master File" für Steuerdaten, die seit den frühen 1960er-Jahren im Einsatz sind. Während solche Anwendungen ihren Zweck bis heute erfüllen, existiert daneben eine Vielzahl alter Software, die längst zum Sicherheitsrisiko geworden ist.

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen