- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Eindämmung der Schatten-IT


Intelligente Wolkenwächter: Datenzentrierte Sicherheit mit "Cloud Access Security Brokern"
Angesichts einer wachsenden Datenmenge in Unternehmen, höheren regulatorischen Anforderungen an den Datenschutz und fortschrittlichen Bedrohungen müssen langfristig auch die Schutzmechanismen agiler werden

- Anzeigen -





Von Michael Scheffler, Regional Director CEEU, Bitglass

Nicht nur die DSGVO macht es deutlich: In Zukunft stehen die Daten im Zentrum der IT-Sicherheitsstrategie. Dieser Strategiewechsel gestaltet sich für einige Unternehmen angesichts der wachsenden Migration in die Cloud als schwierig, da zu jeder Zeit sowohl der Überblick als auch die Kontrolle über sämtliche erhobenen Daten gefordert ist. Um diese Herausforderung meistern zu können, sind Cloud Access Security Broker (CASBs) entwickelt worden. Worauf Unternehmen bei der Auswahl achten sollten, erläutert der nachstehende Artikel.

Heutzutage benötigen Unternehmen Lösungen, mit denen Daten überall gesichert werden können. Um Daten jenseits des Netzwerkperimeters in Cloud-Anwendungen überwachen und schützen zu können, wurden Cloud Access Security Broker entwickelt. Die ersten CASBs auf dem Markt arbeiteten agentenbasiert. Um diese nutzen zu können, war eine Softwareinstallation auf allen Endgeräten erforderlich. Den IT-Administratoren ermöglichten sie das Ermitteln von nicht genehmigten Cloud-Anwendungen und damit eine Eindämmung der Schatten-IT.

Nicht selten stellte sich durch den Einsatz von CASBs heraus, dass Unternehmensdaten sich in weitaus mehr Cloud Computing-Anwendungen befanden als von den IT-Administratoren ursprünglich geschätzt. Da Unternehmen auch zunehmend Ressourcen aus Rechenzentren in die Cloud verlagerten und Anwendungen wie Office 365, AWS, Salesforce und G-Suite nutzten, wurden CASBs schnell zu unverzichtbaren Sicherheitswerkzeugen.

Dank API-Integrationen konnten diese neben mehr Transparenz auch einige Kontrollfunktionen bieten. So waren diese Lösungen nicht nur in der Lage, Schatten-IT-Prozesse aufzudecken, sondern sie warnten das IT-Team auch, wenn sich sensible Daten über das Unternehmensnetzwerk hinaus bewegen. Schutzfunktionen, die in Echtzeit auf Daten jenseits des Netzwerks angewendet werden können, konnten ausschließlich API-basierte CASBs allerdings nicht bieten.

Diese erweiterten Kontrollfunktionen werden durch die aktuelle Generation - proxy-basierte CASBs - abgedeckt. In der Regel basiert die Architektur auf einem primären Proxy-Mechanismus, entweder ein Forward-Proxy oder ein Reverse-Proxy. Forward-Proxys kommen vor allem für verwaltete Geräte zum Einsatz, während Reverse-Proxys für nicht verwaltete Geräte verwendet werden, da sie den Zugriff mit Single Sign On (SSO) regeln und keine Installation auf dem Gerät erfordern. Die umfassendste CASB-Form sind so genannte hybride oder multimodale CASBs, die zusätzlich über eine API-Integration verfügen.

Die neueste Generation: Intelligente, agile CASBs
Angesichts einer wachsenden Datenmenge in Unternehmen, höheren regulatorischen Anforderungen an den Datenschutz und fortschrittlichen Bedrohungen müssen langfristig auch die Schutzmechanismen agiler werden. Viele Anbieter entwickeln daher CASB-Funktionen zur proaktiven Identifizierung verdächtiger Aktivitäten, wie zum Beispiel die zeitgleiche Anmeldung von mehreren Standorten oder das Herunterladen großer Mengen sensibler Daten. Funktionen wie Data Leakage Protection und Mustererkennung unterstützen IT-Teams mit automatisierter Identifizierung und Sicherung sensibler Informationen. Diese Funktionen wenden für bestimmte Daten, wie beispielsweise Adressen oder Sozialversicherungsnummern, automatisch Verschlüsselungsfunktionen an.

Vor dem Hintergrund neuer Angriffsszenarien von Malware in Cloud-Anwendungen kommen auch Machine Learning und Künstliche Intelligenz zum Einsatz, um Daten vor Advanced Persistent Threats (APTs) schützen zu können. Intelligente Lösungen sind mit maschinellem Lernen in der Lage, Malware in Dateien sowie in Echtzeit während des Up- oder Downloads in oder aus der Cloud zu erkennen und zu blockieren. Ebenso erfolgt ein Scan der in der Cloud abgelegten Daten (data at rest), um der Ausbreitung von Malware auf die angeschlossenen Cloud-Anwendungen vorzubeugen. Führende CASB-Lösungen bieten mit verhaltensbasierter Bedrohungserkennung durch maschinelles Lernen Schutz sowohl vor bekannter als auch unbekannter Malware. Durch das automatische Erfassen und die Auswertung der Nutzung unautorisierter Cloud-Anwendungen ist vollständige Datentransparenz gewährleistet.

Best Practices zur Auswahl des richtigen CASBs
Der Funktionsumfang von CASBs variiert je nach Hersteller. Für Unternehmen ist es deshalb wichtig, sich vorab damit auseinanderzusetzen, wie die einzelnen Architekturen implementiert und verwaltet werden, da sie große Auswirkungen auf die unterstützten Anwendungs- und Gerätetypen sowie auf den mit der Systemverwaltung verbundenen operativen Overhead haben können. Folgende Fragen helfen, die Auswahl einzugrenzen:

1. Anwendungscheck: Ein Ausgangspunkt vor dem Kauf eines CASBs-Produkts ist die Frage, für welche Anwendungen es genutzt werden soll. Dies umfasst nicht nur um Apps, die sich gegenwärtig im Gebrauch befinden. Es sollte berücksichtigt werden, dass in Zukunft sowohl neue Anwendungen hinzukommen als auch bereits jetzt weitere, nicht genehmigte Anwendungen von Mitarbeitern genutzt werden. Um herauszufinden, ob die Technologie eines Anbieters agil genug ist, hat sich für Unternehmen übrigens folgender Trick bewährt: Dem Anbieter wird vorab eine Liste mit nur einem Teil der verwendeten Apps gegeben. Bei der Testimplementierung zeigt sich dann, ob auch die weiteren Apps von der Lösung identifiziert wurden. Für Unternehmen ein Indiz, um die Zukunftssicherheit des Produkts zu ermitteln.

2. Definition von Authentifizierungs- und Zugriffsprozessen: Für ein Anforderungsprofil an CASBs ist es wichtig, festzulegen, welche Art von Zugriff und Kontrolle bei den einzelnen Cloudanwendungen erforderlich sind. Ein Verständnis der Geschäftsprozesse und der Art, wie Mitarbeiter die Anwendungen im Tagesgeschäft nutzen, ist eine notwendige Voraussetzung, um festzulegen, in welchen Fällen eine detailliertere Authentifizierung nötig ist und wann nicht.

3. Verschlüsselungsverfahren: Insbesondere eine der wichtigsten Funktionen von CASBs – die Verschlüsselung – sollten Unternehmen genau prüfen. Führende CASBs nutzen den derzeit höchsten Verschlüsselungsstandard: Der Advanced Encryption Standard (AES) mit 256 Bit-Schlüsseln (AES-256). Der Initialisierungsvektor, eine weitere Komponente, sorgt dafür, dass jedes Mal– auch bei wiederholter Verschlüsselung desselben Plaintexts - ein zufälliger Chiffretext erzeugt wird. Die Länge dieses Initialisierungsvektors sollte 256 Bit entsprechen, um eine ausreichende Zufälligkeit und damit ein Höchstmaß an Sicherheit zu gewährleisten.

4. Unterstützung alternativer Zugriffsarten: Eine CASB-Lösung sollte neben der Überwachung des Web/HTTPS-Traffics auch alternative Zugangsarten, wie den Zugriff auf Cloud-basierte E-Mail-Systeme wie Office 365, MS Outlook oder Mac OS X Mail über Web oder mobile Endgeräte via Activesync unterstützen. Die Lösung sollte die wichtigsten Cloud-Anwendungen für Unternehmen sowie SaaS-, IaaS- und benutzerdefinierte Anwendungen unterstützen. Die umfassendsten CASB-Lösungen ihrer Art sind agentenlos, mit Unterstützung für jede App und Geräteart, integriertem Identitäts- und Zugriffsmanagement (IAM) und agentenloser mobiler Datensicherung.

Cloud Access Security Broker entwickeln sich schnell zu einer unverzichtbaren Sicherheitslösung für Unternehmen, die bereits Cloud-basierte Anwendungen einsetzen oder diese einsetzen wollen. Diese Technologien schließen die Lücken, die Anbieter von Cloud-Apps dem Unternehmen überlassen haben, um die Sichtbarkeit und Datensicherheit zu verbessern. Der Vorteil für Unternehmen besteht darin, dass sie statt vieler verschiedener Sicherheitslösungen für unterschiedliche Sicherheitsbedürfnisse nur eine einzige Lösung für die gesamte Cloud-App-Security implementieren können, die zudem kostengünstiger und einfacher zu bedienen ist. (Bitglass: ra)

eingetragen: 17.12.18
Newsletterlauf: 22.01.19

Bitglass: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

  • Wie Hosting scheitern kann

    Wer ein Unternehmen betreibt, kommt um eine Präsenz im Web nicht herum. Egal ob Gastronomie, Industrie, Handwerk, Fashion, Kosmetik, Medien, Versicherungen oder Anwälte, selbst kleinste Privatunternehmer nutzen eine Internetseite, um ihre Dienste oder Produkte anzubieten. Dabei ist es wichtig, dass die Seite online immer verfügbar ist, sehr schnell lädt und es nicht zu Ausfallzeiten kommt. Je mehr Inhalt eine Website bietet und je höher die Besucherzahlen sind, umso größer ist die Gefahr, dass es zu Ausfällen oder langen Ladezeiten kommt. Dies betrifft jedoch nicht nur kleine Unternehmen, sondern auch Mittelständler und Enterprise. "Ein optimaler Webauftritt kann nur mithilfe von Hosting in professionellen Rechenzentren ausfallsicher und hochperformant abgebildet werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH, und fügt hinzu: "Wer sich im Dschungel der Hosting-Optionen nicht auskennt, kann hier schnell Fehler machen."

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.

  • Cloud-Migration schnell und sicher umsetzen

    Entscheiden sich Unternehmen, ihre Applikationen in die Cloud zu migrieren, können sie nur profitieren. Denn die Cloud macht viele Digitalinnovationen überhaupt erst möglich. Allerdings kann beim Weg in die Cloud auch einiges schief gehen: Mangelndes Know-how, unrealistische Zeitvorgaben oder die Wahl der falschen Plattform sind gängige Stolpersteine. Richtig geplant wird die Migration in die Cloud jedoch zum Erfolgsprojekt. Rackspace hat drei Punkte zusammengestellt, auf die es bei der Planung ankommt.

  • Geschäftsprozesse in die Cloud verlagern

    Die Verlagerung von Geschäftsprozessen und Applikationen in die Cloud erfordert eine genaue Planung, damit die Datensicherheit zu jeder Zeit und in jedem Detail gewährleistet ist. Die Diskussion um den Einsatz von Cloud-Technologien ist mittlerweile nicht mehr von Sicherheitsbedenken geprägt. Heute wollen Unternehmen in erster Linie die damit verbundenen Chancen nutzen, um die Digitale Transformation voranzutreiben. Wenn Unternehmen komplette Geschäftsprozesse in die Cloud verlagern, lassen sich die erwarteten betriebswirtschaftlichen Ziele nur dann erreichen, wenn die Migration von Anfang an durch eine umfassende IT-Security-Strategie abgesichert ist - bei der die Sicherheit der Daten eine entscheidende Rolle spielt. NTT Security konkretisiert die wichtigsten Aktivitäten in fünf Schritten.

  • Daten nur verschlüsselt in der Cloud speichern

    Das Nutzen von Cloud Computing-Services gehört für die Mehrheit der Unternehmen längst zum festen Bestandteil der IT-Strategie. Die Möglichkeit des Datenzugriffs jederzeit und überall bringt zahlreiche Vorteile mit sich, allen voran verbesserte Flexibilität und erhöhte Produktivität. Die gestiegene Popularität dieser Dienste ist jedoch von böswilligen Akteuren nicht unbemerkt geblieben, was neue Arten von Cyberangriffen hervorgebracht hat. Eine Taktik, die in den vergangenen Jahren zunehmend zum Einsatz kam, ist der sogenannte "Man-in-the-Cloud" (MitC)-Angriff.

  • Daten in der Cloud und Cloud-Workloads

    As-a-Service-Lösungen verbreiten sich immer weiter. Dabei haben wir es längst nicht mehr mit einer einzigen Cloud zu tun. 82 Prozent der Unternehmen nutzen mehr als zehn verschiedene Public-Cloud-Dienste, so eine aktuelle Studie von McAfee. Dazu kommen noch Private Clouds und On-Premise-Systeme. Traditionelle Sicherheitssysteme stoßen im Angesicht dieser neuen komplexen Architekturen schnell an ihre Grenzen und Unternehmen drohen den Überblick zu verlieren. Rolf Haas, Enterprise Technology Specialist von McAfee, hat fünf Tipps um das zu verhindern:

  • Data Warehouse als erstes in die Cloud

    Die Migration des Data Warehouse in die Cloud ist für Unternehmen, die Teile ihrer Infrastruktur in die Cloud verlegen, ein wichtiger und über kurz oder lang auch notwendiger Schritt. Als eines der wichtigsten Puzzleteile der Infrastruktur, ist er leider auch meist sehr komplex und mit hohen Kosten verbunden. Anstatt die Migration dieses wichtigen Bestandteils der Dateninfrastruktur unnötig zu verzögern, können Unternehmen auf Automation setzen, um den Prozess zu vereinfachen. Ein wichtiges langfristiges Ziel vieler Unternehmen, im Prozess der Digitalen Transformation, ist die Nutzung von Cloud-Technologien. Schaut man sich die Zahlen der Cloud-Adaption jedoch genauer an, so sind offenkundig noch viele Unternehmen weit davon entfernt Teile ihrer Infrastruktur in die Cloud zu migrieren. Anstatt das langfristige Ziel Cloud, entschlossen anzupacken, prokrastinieren diese Unternehmen und setzen stattdessen oft auf Zwischenlösungen oder Abkürzungen. Und anstatt die wichtigen Bestandteile der Infrastruktur zuerst zu migrieren, wählen sie zuerst eher einfach zu migrierende Teile aus.

  • Datenstrategie braucht mehr als Tools

    Die Menschheit produziert 2,5 Trillionen Bytes pro Tag. In den letzten zwei Jahren wurden mehr Daten gesammelt, als in der gesamten Menschheitsgeschichte zusammen. Für jeden Menschen entstehen pro Sekunde 1,7 Megabyte neue Rohinformationen. Kurzum: Die Datenflut ist unaufhaltsam. Wobei diese Datenflut nicht automatisch bedeutet, dass daraus auch Wissen entsteht. Daten und Informationen an sich haben zunächst keinen Wert. Sie sind wie Rohdiamanten, die erst durch ihre Verarbeitung Brillanz gewinnen. Auch für Unternehmen entfalten Kundendaten erst ihren Wert, wenn sie ausgewertet einen Erkenntnisgewinn liefern, der zu neuen Handlungsoptionen führt. Das bedeutet, dass Unternehmen eine Datenstrategie brauchen, die ihre Geschäftsprozesse fundiert und leitet.