- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Wächter des Cloud-Datenschatzes


Wie agil müssen wirksame Sicherheitsmechanismen für die Cloud künftig sein?
Machine Learning: eine logische Antwort auf die gestiegenen Datenmengen im Zuge der Digitalisierung

- Anzeigen -





Von Anurag Kahol, CTO, Bitglass

Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und – zumindest auf den ersten Blick – etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

Angriffsziel Cloud Computing-Daten: Bedrohung durch Malware
Als Währung des digitalen Zeitalters hat sich die wachsende Datenmenge in der Cloud längst zu einem überaus attraktiven Ziel für Hacker entwickelt. Ein häufig genutzter Angriffsvektor ist derzeit das Einschleusen von Malware in Cloud-Anwendungen mittels Social Engineering, beispielsweise durch Spear Phishing-Attacken. Die Sicherung von Daten in Cloudanwendungen wird noch weitgehend den Nutzern überlassen. Zwar bieten manche Public-Cloud Provider gewisse Basis-Schutzfunktionen, um Bedrohungen in der Cloud zu erkennen.

Wie jedoch die Ergebnisse eines Experiments von Bitglass vor kurzem zeigten, ist deren Wirksamkeit begrenzt: Im Rahmen ihrer aktuellen Sicherheitsstudie testete das Bitglass Threat Research-Team den integrierten Malware-Schutz der im Unternehmensumfeld beliebten Cloud-Anwendungen Google Drive und Microsoft Office 365.

Lesen Sie zum Thema "IT-Sicherheit" auch: IT SecCity.de (www.itseccity.de)

In Zusammenarbeit mit Cylance nutzte es dafür eine bisher unbekannte Form von Ransomware mit dem Namen Shurl0ckr, eine Variante der Goijdue-Schadsoftware. Dabei handelt es sich um Ransomware-as-a-Service, die gegen eine Provision im Darknet bereitgestellt wird, um somit eine hohe (Schadens-) Reichweite zu erzielen und den Urhebern einträgliche Gewinne zu bescheren. Obwohl dem Malware-Schutz von Google und Microsoft die verwandte Gojdue-Ransomware bereits bekannt war, erkannten beide Anwendungen Shurl0ckr nicht als Malware. Bei einer unbekannten Bedrohung hat der Schutzmechanismus also versagt.

Viele Malware-Schutz-Mechanismen agieren nach wie vor reaktiv und ermitteln auf Grundlage der in einer Datenbank hinterlegten Eigenschaften von Dateien, ob es sich um Malware handelt. Das Ganze muss man sich in etwa wie ein Puzzlespiel vorstellen: Der Malware-Schutz prüft, ob die neue Malware in ein bestehendes Puzzlespiel passt. In dem vorliegenden Fall handelte es sich sozusagen um ein Puzzleteil, an dem eine Kante oder Ecke geringfügig verändert wurde. Da es nicht vollständig in die bestehende "Malware-Schablone" passte, wurde es als sicher eingestuft, obwohl es die Mehrzahl der notwendigen Eigenschaften erfüllt hätte. Angesichts der fortschreitenden Professionalisierung von Cyberkriminellen und den immer ausgereifteren Angriffen greift ein derartiger Sicherheitsansatz langfristig zu kurz.

Agiler Schutz von Cloud Computing-Daten mit Machine Learning
Viele Wege führen in die Cloud – und entsprechend gibt es zahlreiche Möglichkeiten für das Einschleusen und die Verbreitung von Malware. Die Vielzahl an Nutzern und Zugriffsmöglichkeiten, sowie immer raffiniertere Sicherheitsbedrohungen verlangen einen dynamischen Sicherheitsansatz, der eine weit reichende Risikoeinschätzung vornehmen und geeignete Richtlinien automatisch anwenden kann. Um Unternehmensdaten auf ihrem Weg in und aus der Cloud wirksam schützen zu können, ist Machine Learning gegenwärtig der wirksamste Ansatz.

Machine Learning Algorithmen finden bereits in Spracherkennungssoftware oder in ERP-Systemen zur Verwaltung von Daten Verwendung. Nun hält die Technologie auch Einzug in Cloud-Sicherheitslösungen, wie beispielsweise Cloud Access Security Broker. Anstelle wie herkömmliche signaturbasierte Lösungen lediglich auf Grundlage bestimmter Datenprofile eine Risikoeinschätzung vorzunehmen, nutzt maschinelles Lernen eine weitreichende Eigenschafts- und Verhaltensanalyse und trifft eine Entscheidung, die automatisiert die implementierten Richtlinien durchsetzt.

Wenn eine Datei als wahrscheinliche Bedrohung eingestuft wird, kann sie blockiert werden, falls Benutzer versuchen, sie in die Cloud hochzuladen oder auf ein Gerät herunterzuladen. Auf diese Art bildet Machine Learning einen ganzheitlichen Sicherheitsansatz für Unternehmensdaten über alle Cloud-Anwendungen eines Unternehmens hinweg und bietet erweiterte Kontrollfähigkeiten für Bedrohungen.

Wenn ein Benutzer beispielsweise eine mit Malware infizierte Datei von einer Website herunterlädt, die Datei in der Cloud speichert und somit eine potenzielle Schwachstelle im Unternehmen schafft, wird diese automatisch erkannt und markiert. Lösungen mit maschinellem Lernen überwachen ununterbrochen alle Dateien und Anwendungen in der Cloud. Dabei überprüfen sie jeden Up- und Download von Dateien automatisch auf Malware. Nachdem das Malware-Risiko durch den Machine Learning-Schutz gemeldet und vom Sicherheitsteam beseitigt wurde, gewährt die Lösung den Benutzern automatisch vollen Schreibzugriff. Auf diese Weise sorgt die Lösung für Sicherheit, gewährleistet aber gleichsam eine hohe Benutzerfreundlichkeit, da keine Unterbrechung der Arbeitsabläufe erforderlich ist.

Datenhungrige Cloud-Wächter
Für Cloud-Anwendungen sind Machine Learning-Algorithmen ideal, da große Datenmengen die wichtigste Voraussetzung für deren Zuverlässigkeit sind: Die meisten Algorithmen operieren nicht dateneffizient, das heißt, wenn nur eine geringe Datenmenge zur Verfügung steht, fehlt es ihnen am nötigen Erfahrungsschatz, um in einem konkreten Fall die richtige Entscheidung zu treffen und die geeignete Richtlinie anzuwenden. Menschen genügt das einmalige Betrachten eines Gegenstands – beispielsweise eines Laptops – um diesen künftig auch in einer abgewandelten Erscheinungsform als solchen erkennen zu können.

Maschinen hingegen benötigen einen umfangreichen Erfahrungsschatz, also die Auseinandersetzung mit vielen Laptops, um diese Erscheinungsform zuverlässig identifizieren zu können. So sind maschinelle Lernlösungen, die wenig Daten empfangen, nicht so "intelligent" wie Lösungen, die ein hohes Datenvolumen aus stark frequentierten Umgebungen aufnehmen. Je mehr Dateien analysiert werden und je mehr Malware erkannt wird, desto höher ist die Genauigkeit.

Somit markiert die Nutzung von maschinellem Lernen die logische Reaktion auf die wachsende Menge an Daten und die veränderte Sicherheitslage durch die Cloud-Nutzung. Gleichsam kennzeichnet die Automatisierung von Sicherheitsmechanismen die nächste Stufe im Prozess der Digitalisierung. (Bitglass: ra)

eingetragen: 12.04.18
Newsletterlauf: 17.05.18

Bitglass: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?

  • File Sharing im Unternehmen: Strategie gesucht

    Um Daten auszutauschen setzen die meisten Unternehmen noch immer auf die gute alte E-Mail, auch wenn diese Technologie offensichtlich nicht mehr auf dem neuesten Stand der Technik ist. Auch das ebenso veraltete FTP ist noch weit verbreitet, wenn es darum geht größere Dateien zu übermitteln. Den IT-Alptraum perfekt machen, intern oft nicht überwachte, File-Sharing-Dienste in der Cloud a la Dropbox & Co. Um striktere Compliance-Vorgaben zu erfüllen und die offensichtlich nicht gegebene Datensicherheit für ihr Unternehmen zu gewährleisten suchen IT-Verantwortliche suchen händeringend nach eine umfassenden Strategie um die genannten, unzuverlässigen Werkzeuge zu ersetzen und somit die Kontrolle über ihre sensiblen Daten zurückzugewinnen.

  • Privacy Shield und die Folgen

    Am 1. August 2016 trat das neue Privacy Shield-Abkommen in Kraft, das für Kunden und Anbieter von Cloud Computing-Services wieder Rechtssicherheit bieten und den transatlantischen Datenfluss wiederherstellen soll. Ob Privacy Shield die Nutzer besser schützen wird als der Vorgänger Safe Harbor wird von vielen Experten jedoch bezweifelt. Auch Subhashini Simha von Thru zweifelt das Abkommen an. Ihre Einschätzung der Folgen von Privacy Shield für Unternehmen hat sie in diesem Artikel zusammengefasst. Demnach benötigen Unternehmen zukünftig mehr denn je Flexibilität ihre Daten im Notfall auch im eigenen Rechenzentrum zu hosten und sie bei sich ändernder Rechtslage aus anderen Regionen abzuziehen.

  • Herausforderungen im Wissensmanagement

    Der Erfolg eines Projekts hängt von vielen Faktoren ab: Unterstützung durch das Top-Management, entsprechende Organisationsstrukturen sowie qualifizierte Mitarbeiter. Zudem spielt Wissen eine wichtige Rolle im Projektmanagement: Welche Methode eignet sich für das Projekt? Mit welchen Maßnahmen lässt sich das Projektziel erreichen? Wie können die Projektanforderungen erfüllt werden? Diese und weitere Fragen müssen Projektleiter beantworten können. Das Problem: Oftmals sind sich diese gar nicht bewusst, was sie und ihre Mitarbeiter wissen oder eben auch nicht wissen. Ein professionelles Wissensmanagement kann das Projektmanagement wirkungsvoll unterstützen, indem es vorhandenes Wissen bündelt, neue Erkenntnisse aufnimmt und alles für zukünftige Projekte verfügbar macht.