- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Mit Cloud-Datenbanken vertraut machen


Maximierung der Cloud-Effizienz: Haben Datenbanken hier eine Chance?
Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden

Autor Gerardo Dada
Autor Gerardo Dada Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind, Bild: SolarWinds

Von Gerardo Dada, Vice President of Product Marketing and Strategy, SolarWinds

(10.09.15) - In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing.

Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden. Die Skalierbarkeit und Geschwindigkeit, mit der Sie bei Bedarf neue Workloads bereitstellen bzw. deren Größe ändern können, sind die Hauptmerkmale der Cloud Computing-Technologie, die zur Umsetzung dieser Ziele beitragen. Dies bedeutet, dass die Cloud für expandierende Unternehmen eine hervorragende Möglichkeit für die schnelle Vergrößerung bzw. Verkleinerung darstellt, während etablierte Unternehmen damit überholte und veraltete Infrastrukturen optimieren können.


Neue Technologien
Eine effiziente IT-Umgebung besteht aus einer Reihe neuer Konzepte und Technologien. Zunächst einmal ist da die Hybrid Cloud – also Umgebungen, die aus lokalen Systemen und der Public Cloud bestehen –, die gewöhnlich bei Sicherung und Archivierung, DisasterRecovery, Testumgebungen und dem Hosting statischer Dateien mit CDN-Zugriff auf Webeigenschaften ansetzt.

Dann ist da das Rechenzentrum, das Prozesse und Technologien wie z. B. Virtualisierung und Dienstkataloge beinhaltet, damit Technologie als Dienst, weitestgehende Automatisierung und Self-Service angeboten werden können. Dies bedeutet, dass Ressourcen wie beispielsweise virtuelle Maschinen mithilfe eines Self-Service-Portals problemlos verwaltet werden können, um sie ohne oder mit wenig Interaktion seitens der IT-Abteilung automatisch online bereitzustellen, und zwar für verschiedene Betriebssysteme, Service-Level und Größen.

Um die Transformation der Technologie zu ermöglichen, müssen Änderungen bei den alltäglichen Aufgaben innerhalb der IT-Abteilung vorgenommen werden. Das übliche Aufgabenspektrum der IT-Profis ist im Wandel begriffen, da sich die Kombination aus virtueller Infrastruktur, Automatisierung und Self-Service als bevorzugte Methode zur Bereitstellung von Computing-Services für Endbenutzer etabliert. Deshalb müssen sich IT-Profis entsprechend an zwei wichtige Trends anpassen, um die Effizienzsteigerungen durch die Technologie zu maximieren.

Rolle der IT im Rechenzentrum
Durch die Nutzung dieser Technologien und Prozesse verändert sich allmählich auch die Rolle der IT im Rechenzentrum. Diese reicht von manuellen Aufgaben wie der Bereitstellung, dem Ressourcenmanagement und der Fehlerbehebung bis hin zur Verwaltung der Automatisierung, der Leistungsüberwachung und der Kostenoptimierung. Silos verschwinden, wenn sich der Schwerpunkt von Technologiekomponenten mit der Darstellung einer bestimmten Komponente des Anwendungs-Stacks hin zu Anwendungen und zur Systemleistung insgesamt verlagert.

Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden. Die DBAs haben traditionell weniger mit der Infrastruktur zu tun als andere IT-Teams. Das Verständnis der Möglichkeiten der Plattform kann jedoch dazu beitragen, dass sie effizienter arbeiten und ein höherer Automatisierungsgrad erreicht werden kann. Heutzutage muss sich der DBA außerdem mit der Infrastruktur auskennen, auf der die Daten ausgeführt werden. Beispielsweise im Hinblick auf die Funktionalität, die Kapazität und das Management der Cloud Computing-Plattform oder die Vorgehensweise zum Importieren und Exportieren von Daten. DBAs müssen sich auch aktiv am Management und an der Optimierung der Betriebszeit, der Leistung und der Effizienz des Systems insgesamt beteiligen.

Datenbanken in der Cloud
Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind. Aber da immer mehr Firmen ihre Geschäftsmodelle auf Daten und deren Auswertung aufbauen – das Stichwort heißt "Big Data" – müssen Unternehmen sicherstellen, dass sich Datenbanken auch gut in die Cloud integrieren lassen.

Um den Verantwortlichen die Migration ihrer Datenbanken in die Cloud so einfach wie möglich zu machen, haben wir daher nachfolgend einige Konzepte und Empfehlungen aufgeführt, die sie beachten sollten:

1. Leistung – eine Sorge weniger. Es sind hauptsächlich Leistungsbedenken, die IT-Profis davon abhalten, Datenbanken in virtuelle Umgebungen oder die Cloud zu verlagern. Allerdings sind sie oft unbegründet, da die Leistungsanforderungen vieler Anwendungen von vielen Cloud Computing-Architekturen mehr als erfüllt werden. In den vergangenen drei Jahren hat die Cloud-Technologie große Fortschritte gemacht und unterstützt jetzt mehrere teils hochleistungsfähige Bereitstellungsoptionen für Datenbanken.

2. Bessere Entscheidungen durch Transparenz. Leistungsprobleme werden häufig auf dem einfachsten Weg gelöst, nämlich indem die Hardware aufgestockt wird. Doch ist diese Vorgehensweise nicht der Weisheit letzter Schluss – insbesondere nicht aus Kostenperspektive. Sinnvoller ist eher ein umfassendes Monitoring. Mithilfe eines Tools für die Datenbanküberwachung werden die tatsächlichen Datenbank- und Ressourcenanforderungen einer Anwendung erfasst. Dazu zählen: CPU, Storage, Arbeitsspeicher, Latenz und Storage-Durchsatz (IOPS ist eine mitunter trügerische Messgröße); das geplante Storage-Wachstum und Backup-Anforderungen; Ressourcenfluktuation auf Grundlage der Anwendungsauslastung in Spitzenzeiten oder bei Batch-Prozessen; und nicht zuletzt Datenverbindungsabhängigkeiten – denn neben den Verbindungen zu den eigentlichen Anwendungen können noch weitere Anforderungen hinsichtlich Datenaustausch, Backups und eingehender Daten bestehen.

Zu den Vorteilen der Cloud gehört die Möglichkeit, Ressourcen bei Mehr- und Minderbedarf dynamisch zu skalieren. Eine Cloud-Bereitstellung muss also nicht nur keine Leistungsbedenken auslösen, sondern kann im Gegenteil die Anwendungsverantwortlichen mit der Tatsache beruhigen, dass sich jeder Anwendung die den Leistungsanforderungen entsprechende Ressourcenkapazität zuweisen lässt. Voraussetzung hierfür ist allerdings, dass diese Anforderungen bekannt sind.

3. Testen nicht vergessen. Weitere Vorteile der Cloud – und zwei der offensichtlichsten – sind die geringen Kosten und die vielfältigen Zugriffsmöglichkeiten, die mit ihr einhergehen. Selbst wenn ein Unternehmen noch nicht an einem Migrationsplan arbeitet, sollte es sich bereits mit Cloud-Datenbanken vertraut machen. Hier hilft experimentieren – und die gesammelten Eindrücke für die Migrationsinitiative zu nutzen. Es dauert nur etwa eine Stunde, eine Datenbank in der Cloud einzurichten. Daher sollten interessierte Unternehmen das also einfach einmal ausprobieren, testen und anschließend löschen. Die Kosten sind minimal. Mit etwas mehr Zeit und Geld können sie auch die Kopie einer Produktionsdatenbank in die Cloud verschieben, um dort die Bereitstellungsoptionen zu testen und herauszufinden, wie sich speziell ihre Anwendung und Datenbank in der Cloud verhalten werden.

4. Das Bereitstellungsmodell sorgfältig planen. Die Bereitstellung kann in der Cloud auf verschiedene Weise erfolgen. Daher müssen Verantwortliche alle diesbezüglichen Optionen prüfen. So bietet DBaaS ("Database-as-a-Service") als Managed Service eine einfache Bereitstellung und Automatisierung. IaaS ("Infrastructure-as-a-Service") dagegen bietet für Administratoren mehr Steuerungsoptionen beim Ausführen von Datenbankinstanzen auf Cloud-Servern. Gleichzeitig bleibt auch die Oberfläche und Funktionsweise des herkömmlichen On-Premise-Deployments erhalten. Darüber hinaus gibt es mehrere Storage-Optionen, zum Beispiel Block-Storage, SSDs, garantierte IOPS-Werte, dedizierte Verbindungen und für Datenbanken optimierte Instanzen. Da Unternehmen sich Cloud-Ressourcen meist mit anderen Nutzern teilen, ist es außerdem notwendig, neben der theoretischen Spitzenleistung auch die Konsistenz und Variabilität der Leistung zu testen.

5. Den Sprung wagen. Kein Migrationsplan kann alle Anwendungsfälle abdecken. Es empfiehlt sich daher, dem Cloud-Anbieter einfach die Unternehmensumgebung zu erklären und ihn um seinen Rat zu bitten, anstatt sich anhand einer Standardstrategie in die Cloud zu wagen. Am besten duplizieren die Verantwortlichen die eigentliche Umgebung in der Cloud, um die Ausführung zu testen. Erst wenn alles reibungslos läuft, sollten Sie auf die Produktionsanwendung umstellen. Zudem ist es ratsam, über die Maßnahmen zur Erfüllung der Datenwiederherstellungs- und Backup-Anforderungen hinaus darauf zu achten, dass sich Replikations- oder Standby-Server nicht in derselben Region wie die primären Server befinden.

6. Überwachen und optimieren. Ebenso wie On-Premise-Deployments müssen auch Cloud Computing-Umgebungen im Betrieb überwacht und optimiert werden. Tools für die Datenbankoptimierung analysieren die Wartezeit und beschleunigen Datenbankvorgänge durch Ressourcenkorrelation erheblich. Außerdem melden sie Fehler, ehe diese zu Problemen werden, steigern die Anwendungsleistung und überwachen Ressourcen zur Unterstützung der Planung. Ebenfalls hilfreich ist ein Tool für die Leistungsanalyse: Es erlaubt Datenbankadministratoren, Entwicklern und dem IT-Betriebsteam, sauber zu programmieren und die Ursache bei Leistungsproblemen einer Datenbank zu identifizieren (z. B. Abfragen, Storage-Ereignisse, Serverressourcen).
(SolarWinds: ra)

SolarWinds: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.

  • Das WAN weicht in die Wolke

    Unternehmen als abgeschlossene Einheiten sind passé. Neue Arbeitskonzepte wie mobiles Arbeiten oder BYOD lassen Mauern bröckeln - gerade auch im Hinblick auf Unternehmensnetzwerke. Unternehmen mit Niederlassungen oder Filialen im Handel müssen neben stationärer IT wie Kassensystemen auch mobile oder temporäre Geräte ins Netzwerk einbinden, zum Beispiel Digital-Signage-Terminals. Und Kunden setzen meist ein offenes WLAN voraus. Die digitale Transformation stellt neue Herausforderungen an das vormals Hardware-orientierte Wide-Area-Network (WAN)-Management. Software- und Cloud-definierte Ansätze erleichtern die Administration bei gleichzeitig hohen Sicherheitsstandards.

  • DevOps gegen IT-Operations

    Ein IT-Infrastrukturteam hat es heutzutage nicht leicht. Einerseits muss es den Betrieb des herkömmlichen Rechenzentrums aufrechterhalten, gleichzeitig soll es die strategische Digitalisierung des Unternehmens vorantreiben. Als wenn das nicht schon Herausforderung genug wäre, sollen die IT-ler zusätzlich komplett neue Technologien bereitstellen, um die neuen DevOps-Kollegen bestmöglich bei Neuerungen und schnelleren Release-Zyklen zu unterstützen. Anforderungen von DevOps an eine flexible und automatisierte Unternehmensinfrastruktur sind nicht immer einfach zu erfüllen und so wird der Trend zu DevOps für Infrastrukturteams eine zusätzliche Belastung. Prallen doch die unterschiedlichen Welten der IT-Operations und des DevOps-Teams aufeinander.

  • Automatisierte Speicherrichtlinien & Daten-GPS

    Die Globalisierung hat die Welt schrumpfen lassen. Nicht nur Reisende ziehen heute rund um den Globus, auch Daten sind dank Cloud Computing äußerst mobil und werden von Unternehmen aus den unterschiedlichsten Gründen zwischen Rechenzentren verschoben. Wir Menschen fühlen uns im eigenen Zuhause am sichersten. Auch für Unternehmensdaten gilt, dass das Risiko sie bei der Migration über Ländergrenzen hinweg zu verlieren, natürlich steigt. Als Mensch ist es heute mittels GPS sehr einfach, einen Standort zu bestimmen. Damit auch Unternehmen immer genau wissen, wo ihre Daten physisch gespeichert sind, bieten sich dank automatisierten Speicherrichtlinien und einem Daten-GPS neue Methoden, den exakten Standort von Daten festzulegen.

  • Mit SaaS & HaaS die IT-Abteilung entlasten

    In vielen Unternehmen stehen CIOs vor der Aufgabe, mit einer sich rasch entwickelnden IT-Welt Schritt halten zu müssen. Hinzu kommt, geeignetes Personal mit dem entsprechenden Know-how zu finden und sich stets gegen zunehmende Sicherheitsrisiken zu wappnen. Diese Herausforderungen beanspruchen zeitliche und finanzielle Ressourcen in der IT-Abteilung, die Unternehmen an anderer Stelle dringender bräuchten. Im Rahmen von Managed Services wie Software-as-a-Service (SaaS) und Hardware-as-a-Service (HaaS) werden Standardaufgaben an externe Dienstleister ausgelagert. Das schafft Freiräume und entlastet die IT-Abteilung. Welche Fragen sind relevant, um zu erkennen, ob auch das eigene Unternehmen von Managed Services profitieren kann.

  • Die Zukunft des File Sharing

    Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?