- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

In der Cloud und im heimischen Rechenzentrum


Cloud- oder Mobility-Strategie - Fünf Schritte für mehr Sicherheit in der Cloud
Herausforderungen bei Cloud-First-Strategie meistern

- Anzeigen -





Liviu Arsene, Leitender Bedrohungsanalyst, Bitdefender

Die heutige vernetzte Welt basiert auf der Datenzugänglichkeit von überall, zu jeder Zeit und auf jedem Gerät. Die Geschwindigkeit und Agilität, die mit Hosting-Diensten und -Anwendungen in der Cloud einhergeht, sind für den Erfolg zentral. Die damit verbundenen Vorteile haben Unternehmen in den letzten Jahren gezwungen, zumindest einige und in manchen Fälle sogar alle ihre Anwendungen oder ihre Infrastrukturen in die Cloud zu migrieren. Der Anteil in der Cloud gehosteter Workloads von Unternehmen ist Experten zufolge wohl bereits höher als 80 Prozent.

Die Cloud kann zwar erhebliche Vorteile bieten, Unternehmen müssen sich bei der Planung einer Cloud-First-Strategie aber auch den besonderen Anforderungen an die Sicherheit bewusst sein. Einige dieser Herausforderungen betreffen nicht nur Datenschutz und Compliance, sondern auch operative Aspekte. So etwa die Fähigkeit, Sicherheitslösungen sowohl für lokale als auch Cloud-basierte Workloads zu integrieren und konsistente Sicherheitsrichtlinien in der gesamten Cloud durchzusetzen und die Erkennung virtueller Maschinen (VM) zu automatisieren, um Transparenz und Kontrolle über dynamische Infrastrukturen zu gewährleisten.

1. Die Balance zwischen Sicherheit und Compliance
Eine große Herausforderung ist es, die Balance zwischen Sicherheit und Compliance zu finden. Manchmal geht es darum, Bedrohungsakteuren den Wind aus den Segeln zu nehmen, indem sie einfach nur mehr Zeit, Energie und Ressourcen investieren müssen, als sie ursprünglich für einen Angriff auf ein Unternehmen veranschlagt haben. Wenn Angreifer beispielsweise dazu gebracht werden, mehrere Ebenen der Verteidigung zu durchlaufen, wird die Chance höher, dass sie irgendwann Fehler begehen und einen Alarm auslösen.

Compliance-Vorschriften werden in der Regel als Basis-Minimalsicherheitsoptionen behandelt. Zu einem umfassenden Schutz gehört jedoch der Einsatz mehrerer Sicherheitsebenen. Diese Ebenen sollten sowohl die IT- als auch das Sicherheitsteam bei der Optimierung der Abläufe unterstützen, die Transparenz erhöhen und die Erkennung von Bedrohungen beschleunigen.

2. Integration von Sicherheitslösungen für Anwendungen in der Cloud und im heimischen Rechenzentrum
Eine Sicherheitslösung zu finden, die sich sowohl on-premise, also vor Ort, als auch in der Cloud nahtlos in die Workloads integrieren lässt, ist generell schwierig. Herkömmliche Sicherheitslösungen können bestenfalls getrennte Lösungen für On-Premise- und Cloud-Workloads anbieten und erzeugen somit Probleme bei Übersicht und Management. Im schlimmsten Fall wird dieselbe traditionelle Sicherheitslösung auf allen Workloads - Cloud und lokal - eingesetzt, was zu ernsthaften Performance-Problemen für letztgenannte Workloads führt. Es ist wichtig für Unternehmen eine Sicherheitslösung zu integrieren, die so konzipiert ist, dass sie ihren Sicherheitsagenten automatisch an den jeweiligen Auftrag anpasst, je nachdem, ob der Workload vor Ort oder in der Cloud liegt, ohne die Leistung zu beeinträchtigen oder die Sicherheitsfähigkeiten zu beeinträchtigen.

3. Implementierung konsistenter Sicherheitsrichtlinien in der gesamten Hybrid-Cloud
Um dieser Herausforderung zu begegnen, müssen Unternehmen Sicherheitslösungen finden, die Sicherheitsagenten an die Umgebung anpassen können, in der sie eingesetzt werden. Lösungen für Cloudumgebungen müssen agil genug sein, um alle Vorteile der Cloud zu nutzen, ohne die Sicherheit zu beeinträchtigen, während sie in traditionellen, lokalen Umgebungen flexibel genug sind, um Produktivität und Mobilität zu ermöglichen. Unternehmen müssen verstehen, dass die Bereitstellung von Sicherheitsrichtlinien in hybriden Infrastrukturen problematisch sein kann, insbesondere ohne eine zentrale Sicherheitskonsole, die diese Richtlinien nahtlos über alle Endpunkte und Workloads erweitern kann.

Es ist wichtig, dass Sicherheitsrichtlinien für bestimmte Gruppen automatisch auf neu hinzugekommene VMs angewendet werden, basierend auf ihrer Rolle innerhalb der Infrastruktur. Beispielsweise sollten neu erstellte virtuelle Server sofort gruppenspezifische Richtlinien einhalten, ebenso wie virtuelle Desktops. Geschieht dies nicht, könnten die Folgen katastrophal sein, weil sie sonst in Betrieb sind ohne gegen Bedrohungen und Angreifer geschützt zu sein.

4. Automatisierung der VM-Erkennung
Die automatisierte Erkennung neu erstellter VMs ist der Kernpunkt einer integrierten Sicherheitsplattform, da Sicherheitsrichtlinien je nach Typ einer VM automatisch angewendet werden können. Unternehmen sollten Sicherheitslösungen einführen, die die VM-Erkennung automatisieren und Sicherheitsrichtlinien entsprechend anwenden können, ohne IT- und Sicherheitsteams zu zwingen, Richtlinien manuell auf neu eingetretene Workloads zu übertragen.

Bei der Flexibilität der hybriden Cloud in Bezug auf Endpunkte (physisch und virtuell) und Infrastruktur (on-premise und in der Cloud) ist es wichtig, dass die Sicherheitslösung die gleiche Elastizität aufweist. Nur so ermöglicht sie Unternehmen, die Vorteile dieser Infrastrukturen voll auszuschöpfen, ohne Leistung, Benutzerfreundlichkeit oder Sicherheit zu beeinträchtigen.

5. Sichtbarkeit und Kontrolle über dynamische Infrastrukturen
Im Rahmen einer Cloud- oder Mobility-Strategie ist es für IT- und Sicherheitsteams immer schwieriger geworden, die Sicherheitslage eines Unternehmens zu überblicken, zumal traditionelle Sicherheitslösungen keine komplette Übersicht aller Endpunkte hinweg bieten.

Die Integration einer kompletten Sicherheitsplattform kann IT- und Sicherheitsteams Zeit sparen und gleichzeitig Funktionen zur Automatisierung der Sicherheit bieten, die das Erkennen einer Datenschutzverletzung beschleunigen.

Die Bewältigung der hohen Anforderungen an die Sicherheit der Cloud ist eine kontinuierliche Aufgabe für IT- und Sicherheitsteams. Sie erfordert Wachsamkeit und die richtigen Sicherheits- und Automatisierungstools. Die Zusammenarbeit der Teams bei der Suche nach den richtigen Lösungen stellt sicher, dass beide Teams das bekommen, was sie brauchen. Und die Zusammenarbeit stellt auch sicher, dass die gesamte Infrastruktur geschützt ist, unabhängig davon ob Workloads On-Premise oder in der Cloud sind.
(Bitdefender: ra)

eingetragen: 23.05.19
Newsletterlauf: 21.06.19

Radware: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • UCaaS-Lösungen bieten alle SaaS-Vorteile

    In vielen großen Unternehmen in Deutschland sollen derzeit die herkömmlichen On-Premise-Kommunikationslösungen ersetzt werden. Gesetzt ist meist - aufgrund der vielen Vorteile - der Schritt hin zu Unified Communications, bezogen als Software-as-a-Service (SaaS). Doch es gibt große Unterschiede zwischen verschiedenen UC-Lösungen, auch wenn sie oberflächlich betrachtet alle als SaaS-Angebote daherkommen. Dabei geht es nicht nur um den Preis, das Look and Feel oder einzelne Features. Die Unterschiede betreffen vielmehr alle Aspekte der Cloud-Strategie eines Großunternehmens. Der Unified-Communication-as-a-Service (UCaaS)-Anbieter Fuze kennt sich gut mit dieser Thematik aus und erläutert im folgenden Text die Unterschiede, damit Unternehmen eine fundierte Entscheidung über ihren künftigen UC-Partner treffen können.

  • Themen bei Microsoft-Kunden

    Laut IT-Dienstleisters Syntax stehen für Unternehmen, die Microsoft-Lösungen einsetzen, aktuell vor allem zwei große Aspekte im Mittelpunkt. Zum einen wird die Umsetzung von Modern-Workplace-Konzepten vorangetrieben, die dem Nutzer eine zentrale Schnittstelle für Kommunikation und Kollaboration mit einer einheitlichen Benutzeroberfläche bereitstellen und so interne und externe Prozesse effizienter gestalten. Der zweite große Trend ist die Migration oder Neuimplementierung kritischer Anwendungen und Prozesse auf Microsoft Azure als zentraler Public-Cloud-Plattform und die Nutzung von Plattformdiensten, die unter anderem auf künstlicher Intelligenz basieren und so neue Umsatzmodelle ermöglichen. Bei der Umsetzung dieser Ziele setzt Syntax auf ausgezeichnete Expertise, gerade wurde Constantin Klein, Team Lead Microsoft Consulting bei Syntax, zum zehnten Mal in Folge von Microsoft als "Most Valuable Professional" (MVP) ausgezeichnet.

  • Wechsel in die Cloud nicht von heute auf morgen

    IT-Verantwortliche müssen sich heutzutage mit den verschiedensten Herausforderungen auseinandersetzen, die eine Migration in die Cloud mit sich bringen. Obwohl sich die Cloud-Nutzung in den letzten Jahren stark verbreitet hat, haben einige Unternehmen trotzdem das Gefühl, noch nicht das volle Potenzial der Cloud ausgeschöpft zu haben. Die Gründe hierfür lassen sich allerdings leicht identifizieren und die Cloud Computing-Nutzung kann mithilfe ein paar grundlegender Maßnahmen entsprechend optimiert werden.

  • Nicht alle Cloud-Services sind gleich aufgebaut

    Governance und Agilität? Wie geht das denn zusammen? Schließlich bedeutet Agilität die Fähigkeit, schnell und flexibel zu handeln. Governance hingegen zielt darauf ab, Prozesse zu prüfen und zu kontrollieren - was die Dinge meist verlangsamt. Das muss aber nicht sein: Rackspace beispielsweise arbeitet mit Governance-Modellen, die explizit für den agilen Betrieb der (Public-)Cloud entwickelt wurden - und so beiden Ansprüchen gerecht werden können. Die Public Cloud erweist sich als extrem leistungsfähig. Aber: Mit der Kraft der Cloud gehen auch Herausforderungen einher. Bei AWS beispielsweise stehen derzeit 160 Dienste zur Verfügung und es werden jedes Jahr Hunderte (wenn nicht Tausende) neuer Funktionen veröffentlicht. Wie können Unternehmen hier sicherstellen, dass alle Compliance- und regulatorischen Verpflichtungen (z.B. DSGVO) auch eingehalten werden?

  • Auslagern statt selber machen

    Immer größere Datenmengen, vermehrter Einsatz digitaler Prozesse sowie Anforderungen an Compliance, Verfügbarkeit, Skalierbarkeit und Sicherheit stellen Unternehmen beim Management ihrer IT-Umgebung vor zum Teil große Herausforderungen. Denn eine funktionierende IT-Infrastruktur ist zwar notwendig für reibungslose Abläufe im Unternehmensalltag, doch geht der interne Aufbau von Hardware und Software mit hohen Kosten einher und benötigt ein hohes Maß an Fachwissen. Auch der ständige Einsatz von Fachpersonal verursacht hohe Ausgaben. Längst hat sich Outsourcing an entsprechende Dienstleister hier bewährt. "Nehmen Unternehmen externe Leistungen in Anspruch, profitieren sie von umfassendem Service und Know-how, sparen Kosten und minimieren Risiken", weiß Torben Belz, Geschäftsführer der Plutex GmbH aus Bremen, und ergänzt: "Doch viele Unternehmen scheuen diesen Schritt noch immer, weil sie Angst haben, dass das Outsourcing nicht reibungslos verlaufen und in der Folge zu vielen weiteren, möglicherweise langfristigen Problemen führen könnte."

  • Zukunftsinvestition: DataOps-Plattform

    Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.

  • Sämtliche Datenelemente dokumentieren

    Die aktuelle biMa-Studie der Sopra Steria Consulting liefert alarmierende Ergebnisse: Nahezu die Hälfte aller Unternehmen (49 Prozent) gibt an, dass ihre Daten für Analysen unvollständig, veraltet oder widersprüchlich sind. Neben der mangelhaften Datenqualität ist laut der Studie auch die fehlende Integration von Daten aus unterschiedlichsten Datenquellen eine Hürde. Unternehmen drohen aufgrund der Widrigkeiten im globalen Wettbewerb den Anschluss zu verlieren. Ohne Datenvirtualisierung ist es kaum möglich, fatale Entwicklungen dieser Art abzuwenden. Die voranschreitende Digitalisierung hat zu einem enormen Wachstum der weltweit verfügbaren Daten geführt. Während datengetriebene Innovationen in zahlreichen Industrieländern rasant voranschreiten, kämpfen Unternehmen im deutschsprachigen Raum nach wie vor mit unzureichenden technischen und organisatorischen Voraussetzungen. Traditionelle Ansätze wie ETL (Extract-Transform-Load), bei denen Daten für Analysen zunächst gespeichert und transformiert werden müssen, reichen nicht mehr aus, um Schritt zu halten.

  • Zukunftsinvestition: DataOps-Plattform

    Langsam, aber sicher ist DataOps kein Fremdwort mehr. Immer mehr Tools und Lösungen werben mit dem Begriff für sich. Wie sollen Unternehmen da noch den Überblick behalten? Hier sind drei Fragen, die sich Verantwortliche stellen müssen, wenn sie die richtige DataOps-Technologie für ihre Datenteams einsetzen möchten. DevOps ist heute unerlässlich für alle Unternehmen, die flexibel sein und möglichst schnell qualitativ hochwertige Produkte und Dienstleistungen anbieten wollen. Wer auf DevOps verzichtet, kann sich kaum über einen längeren Zeitraum gegenüber der Konkurrenz behaupten. Denn der Ansatz spielt eine entscheidende Rolle bei der Automatisierung der IT-Infrastruktur und des Softwareentwicklungszyklus. Dennoch hat DevOps bisher ein entscheidendes Element gefehlt, das für viele Innovationen zentral ist: die Datenbereitstellung. Genau hier setzt DataOps an.

  • Die Gefahr von Datenlecks steigt

    Daten befeuern Innovationen in Unternehmen: Informationen werden intelligent ausgewertet und in neues Wissen verwandelt, daraus entstehen Produkte, Lösungen und Dienste. Das funktioniert aber nur, wenn die migrierten Daten in hoher Qualität vorliegen und Betriebe sie schnell und bequem nutzen können. Weitere Voraussetzung: die Nutzung von Cloud Computing-Diensten, denn nur sie ermöglichen die digitale Transformation. Nur mit ihrer Hilfe können Daten schnell verarbeitet und bereitgestellt werden. Ohne Cloud-Nutzung wird kaum ein Unternehmen fit für die digitale Zukunft sein. Das hat zusätzliche Vorteile: Prozesse werden effizienter und agiler, die Kosten sinken. Wenn Unternehmen darauf verzichten, riskieren sie, ihr Geschäft auszubremsen und Marktanteile zu verlieren. Für viele deutsche Unternehmen ist das inzwischen selbstverständlich: 73 Prozent nutzen bereits Cloud Computing, so der "Cloud-Monitor 2019" von KPMG und Bitkom.

  • Bandbreiten- oder Netzwerkprobleme

    Multi-Cloud-Infrastrukturen haben einen großen Vorteil: Sie erlauben es dem Nutzer, Public-Cloud- und Private-Cloud-Services so miteinander zu verbinden, wie es gewünscht oder nötig ist. Damit bleibt ein Unternehmen flexibel und unabhängig. Die Verantwortlichen profitieren davon allerdings nur, wenn sie sich der Stolpersteine bewusst sind, die eine Multi Cloud mit sich bringt und diese zu umgehen wissen. Eine erste große Herausforderung, die sich in einem anlaufenden Multi-Cloud-Projekt oftmals stellt und unnötig Kosten provoziert, ist der Datentransfer. Denn bei der Migration - ob von einer On-Premises-Infrastruktur in die Cloud oder von einem Public-Cloud-Anbieter zu einem anderen - stoßen IT-Verantwortliche oft auf unvermutete Bandbreiten- oder Netzwerkprobleme.