- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Mit Cloud-Datenbanken vertraut machen


Maximierung der Cloud-Effizienz: Haben Datenbanken hier eine Chance?
Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden

Autor Gerardo Dada
Autor Gerardo Dada Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind, Bild: SolarWinds

Von Gerardo Dada, Vice President of Product Marketing and Strategy, SolarWinds

(10.09.15) - In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing.

Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden. Die Skalierbarkeit und Geschwindigkeit, mit der Sie bei Bedarf neue Workloads bereitstellen bzw. deren Größe ändern können, sind die Hauptmerkmale der Cloud Computing-Technologie, die zur Umsetzung dieser Ziele beitragen. Dies bedeutet, dass die Cloud für expandierende Unternehmen eine hervorragende Möglichkeit für die schnelle Vergrößerung bzw. Verkleinerung darstellt, während etablierte Unternehmen damit überholte und veraltete Infrastrukturen optimieren können.


Neue Technologien
Eine effiziente IT-Umgebung besteht aus einer Reihe neuer Konzepte und Technologien. Zunächst einmal ist da die Hybrid Cloud – also Umgebungen, die aus lokalen Systemen und der Public Cloud bestehen –, die gewöhnlich bei Sicherung und Archivierung, DisasterRecovery, Testumgebungen und dem Hosting statischer Dateien mit CDN-Zugriff auf Webeigenschaften ansetzt.

Dann ist da das Rechenzentrum, das Prozesse und Technologien wie z. B. Virtualisierung und Dienstkataloge beinhaltet, damit Technologie als Dienst, weitestgehende Automatisierung und Self-Service angeboten werden können. Dies bedeutet, dass Ressourcen wie beispielsweise virtuelle Maschinen mithilfe eines Self-Service-Portals problemlos verwaltet werden können, um sie ohne oder mit wenig Interaktion seitens der IT-Abteilung automatisch online bereitzustellen, und zwar für verschiedene Betriebssysteme, Service-Level und Größen.

Um die Transformation der Technologie zu ermöglichen, müssen Änderungen bei den alltäglichen Aufgaben innerhalb der IT-Abteilung vorgenommen werden. Das übliche Aufgabenspektrum der IT-Profis ist im Wandel begriffen, da sich die Kombination aus virtueller Infrastruktur, Automatisierung und Self-Service als bevorzugte Methode zur Bereitstellung von Computing-Services für Endbenutzer etabliert. Deshalb müssen sich IT-Profis entsprechend an zwei wichtige Trends anpassen, um die Effizienzsteigerungen durch die Technologie zu maximieren.

Rolle der IT im Rechenzentrum
Durch die Nutzung dieser Technologien und Prozesse verändert sich allmählich auch die Rolle der IT im Rechenzentrum. Diese reicht von manuellen Aufgaben wie der Bereitstellung, dem Ressourcenmanagement und der Fehlerbehebung bis hin zur Verwaltung der Automatisierung, der Leistungsüberwachung und der Kostenoptimierung. Silos verschwinden, wenn sich der Schwerpunkt von Technologiekomponenten mit der Darstellung einer bestimmten Komponente des Anwendungs-Stacks hin zu Anwendungen und zur Systemleistung insgesamt verlagert.

Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden. Die DBAs haben traditionell weniger mit der Infrastruktur zu tun als andere IT-Teams. Das Verständnis der Möglichkeiten der Plattform kann jedoch dazu beitragen, dass sie effizienter arbeiten und ein höherer Automatisierungsgrad erreicht werden kann. Heutzutage muss sich der DBA außerdem mit der Infrastruktur auskennen, auf der die Daten ausgeführt werden. Beispielsweise im Hinblick auf die Funktionalität, die Kapazität und das Management der Cloud Computing-Plattform oder die Vorgehensweise zum Importieren und Exportieren von Daten. DBAs müssen sich auch aktiv am Management und an der Optimierung der Betriebszeit, der Leistung und der Effizienz des Systems insgesamt beteiligen.

Datenbanken in der Cloud
Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind. Aber da immer mehr Firmen ihre Geschäftsmodelle auf Daten und deren Auswertung aufbauen – das Stichwort heißt "Big Data" – müssen Unternehmen sicherstellen, dass sich Datenbanken auch gut in die Cloud integrieren lassen.

Um den Verantwortlichen die Migration ihrer Datenbanken in die Cloud so einfach wie möglich zu machen, haben wir daher nachfolgend einige Konzepte und Empfehlungen aufgeführt, die sie beachten sollten:

1. Leistung – eine Sorge weniger. Es sind hauptsächlich Leistungsbedenken, die IT-Profis davon abhalten, Datenbanken in virtuelle Umgebungen oder die Cloud zu verlagern. Allerdings sind sie oft unbegründet, da die Leistungsanforderungen vieler Anwendungen von vielen Cloud Computing-Architekturen mehr als erfüllt werden. In den vergangenen drei Jahren hat die Cloud-Technologie große Fortschritte gemacht und unterstützt jetzt mehrere teils hochleistungsfähige Bereitstellungsoptionen für Datenbanken.

2. Bessere Entscheidungen durch Transparenz. Leistungsprobleme werden häufig auf dem einfachsten Weg gelöst, nämlich indem die Hardware aufgestockt wird. Doch ist diese Vorgehensweise nicht der Weisheit letzter Schluss – insbesondere nicht aus Kostenperspektive. Sinnvoller ist eher ein umfassendes Monitoring. Mithilfe eines Tools für die Datenbanküberwachung werden die tatsächlichen Datenbank- und Ressourcenanforderungen einer Anwendung erfasst. Dazu zählen: CPU, Storage, Arbeitsspeicher, Latenz und Storage-Durchsatz (IOPS ist eine mitunter trügerische Messgröße); das geplante Storage-Wachstum und Backup-Anforderungen; Ressourcenfluktuation auf Grundlage der Anwendungsauslastung in Spitzenzeiten oder bei Batch-Prozessen; und nicht zuletzt Datenverbindungsabhängigkeiten – denn neben den Verbindungen zu den eigentlichen Anwendungen können noch weitere Anforderungen hinsichtlich Datenaustausch, Backups und eingehender Daten bestehen.

Zu den Vorteilen der Cloud gehört die Möglichkeit, Ressourcen bei Mehr- und Minderbedarf dynamisch zu skalieren. Eine Cloud-Bereitstellung muss also nicht nur keine Leistungsbedenken auslösen, sondern kann im Gegenteil die Anwendungsverantwortlichen mit der Tatsache beruhigen, dass sich jeder Anwendung die den Leistungsanforderungen entsprechende Ressourcenkapazität zuweisen lässt. Voraussetzung hierfür ist allerdings, dass diese Anforderungen bekannt sind.

3. Testen nicht vergessen. Weitere Vorteile der Cloud – und zwei der offensichtlichsten – sind die geringen Kosten und die vielfältigen Zugriffsmöglichkeiten, die mit ihr einhergehen. Selbst wenn ein Unternehmen noch nicht an einem Migrationsplan arbeitet, sollte es sich bereits mit Cloud-Datenbanken vertraut machen. Hier hilft experimentieren – und die gesammelten Eindrücke für die Migrationsinitiative zu nutzen. Es dauert nur etwa eine Stunde, eine Datenbank in der Cloud einzurichten. Daher sollten interessierte Unternehmen das also einfach einmal ausprobieren, testen und anschließend löschen. Die Kosten sind minimal. Mit etwas mehr Zeit und Geld können sie auch die Kopie einer Produktionsdatenbank in die Cloud verschieben, um dort die Bereitstellungsoptionen zu testen und herauszufinden, wie sich speziell ihre Anwendung und Datenbank in der Cloud verhalten werden.

4. Das Bereitstellungsmodell sorgfältig planen. Die Bereitstellung kann in der Cloud auf verschiedene Weise erfolgen. Daher müssen Verantwortliche alle diesbezüglichen Optionen prüfen. So bietet DBaaS ("Database-as-a-Service") als Managed Service eine einfache Bereitstellung und Automatisierung. IaaS ("Infrastructure-as-a-Service") dagegen bietet für Administratoren mehr Steuerungsoptionen beim Ausführen von Datenbankinstanzen auf Cloud-Servern. Gleichzeitig bleibt auch die Oberfläche und Funktionsweise des herkömmlichen On-Premise-Deployments erhalten. Darüber hinaus gibt es mehrere Storage-Optionen, zum Beispiel Block-Storage, SSDs, garantierte IOPS-Werte, dedizierte Verbindungen und für Datenbanken optimierte Instanzen. Da Unternehmen sich Cloud-Ressourcen meist mit anderen Nutzern teilen, ist es außerdem notwendig, neben der theoretischen Spitzenleistung auch die Konsistenz und Variabilität der Leistung zu testen.

5. Den Sprung wagen. Kein Migrationsplan kann alle Anwendungsfälle abdecken. Es empfiehlt sich daher, dem Cloud-Anbieter einfach die Unternehmensumgebung zu erklären und ihn um seinen Rat zu bitten, anstatt sich anhand einer Standardstrategie in die Cloud zu wagen. Am besten duplizieren die Verantwortlichen die eigentliche Umgebung in der Cloud, um die Ausführung zu testen. Erst wenn alles reibungslos läuft, sollten Sie auf die Produktionsanwendung umstellen. Zudem ist es ratsam, über die Maßnahmen zur Erfüllung der Datenwiederherstellungs- und Backup-Anforderungen hinaus darauf zu achten, dass sich Replikations- oder Standby-Server nicht in derselben Region wie die primären Server befinden.

6. Überwachen und optimieren. Ebenso wie On-Premise-Deployments müssen auch Cloud Computing-Umgebungen im Betrieb überwacht und optimiert werden. Tools für die Datenbankoptimierung analysieren die Wartezeit und beschleunigen Datenbankvorgänge durch Ressourcenkorrelation erheblich. Außerdem melden sie Fehler, ehe diese zu Problemen werden, steigern die Anwendungsleistung und überwachen Ressourcen zur Unterstützung der Planung. Ebenfalls hilfreich ist ein Tool für die Leistungsanalyse: Es erlaubt Datenbankadministratoren, Entwicklern und dem IT-Betriebsteam, sauber zu programmieren und die Ursache bei Leistungsproblemen einer Datenbank zu identifizieren (z. B. Abfragen, Storage-Ereignisse, Serverressourcen).
(SolarWinds: ra)

SolarWinds: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Neue Datenverkehrsmuster im Entstehen

    Der rasante technologische Wandel und die damit verbundene Disruption von Geschäftsmodellen führen dazu, dass multinationale Konzerne in ihren wichtigsten Märkten zunehmend agiler auftreten müssen. Jedoch fällt es ihnen aufgrund des expansiven Wachstums ihrer IT-Ökosysteme schwer, wirklich agil zu operieren - insbesondere dann, wenn sie durch eine veraltete IT-Infrastruktur ausgebremst werden. Cloud-Deployments und die massive Zunahme von Anwendungen und Endgeräten erhöhen den Druck auf die Verantwortlichen, die IT-Landschaft zu modernisieren.

  • Kontrolle über SaaS-Anwendungen behalten

    Wer Software-Ausgaben unter Kontrolle bringen will, braucht ein intelligentes Software Management. Daran hat auch Software-as-a-Service (SaaS) nichts geändert. Ganz im Gegenteil: Schatten-IT und Shelfware zählen zu den größten Kostenfallen bei Cloud-basierten Anwendungen. Durchschnittlich kommen in Unternehmen 15x mehr SaaS-Anwendungen zum Einsatz als auf offizieller Seite bekannt ist. Der Grund für die Schatten-IT ist leicht nachzuvollziehen: Für Mitarbeiter ist es sehr einfach Anwendungen über die Cloud zu abonnieren. Kreditkarte und E-Mail-Adresse reichen Public Cloud-Anbietern wie Amazon Web Services (AWS) und Microsoft Azure aus, um in wenigen Schritten ein Konto anzulegen und je nach Bedarf SaaS-Anwendungen zu beziehen - in vielen Fällen ohne Absprache mitder IT oder dem Einkauf.

  • In die Cloud - aber sicher

    Dr. Chris Brennan, Regional Director DACH, Eastern Europe, Russia and Israel von Skybox Security erläutert, wie die Migration in die Cloud und dabei zu berücksichtigende Sicherheitsaspekte in Einklang gebracht werden können. Unternehmen setzen vermehrt auf Cloud Computing-Umgebungen. Einer der Vorteile dabei ist, dass die Cloud eine hohe Skalierbarkeit und Agilität aufweist. Wenn dabei aber die Sicherheitsrisiken vernachlässigt werden, die dieser Schritt mit sich bringt, kann daraus ein großer Nachteil erwachsen. Ein gängiger Fehler dabei ist, dass viele Entscheider denken, dass der Cloud Security Provider (CSP) mehr Verantwortung für die Sicherheit trägt, als er tatsächlich tut.

  • Das lebende Unternehmen

    Der menschliche Körper ist ein bemerkenswerter Organismus. Ohne hier zu tief in Anatomie und Physiologie des Menschen einzutauchen, gibt es zahlreiche Bereiche, in denen sich der Mensch und die Datenverarbeitung eines Unternehmens stark ähneln. Zwar sind die Systeme des Menschen nicht digital sondern organisch, das Gesamtsystem Mensch funktioniert jedoch ganz ähnlich wie eine Organisation - eine große Anzahl an Informationssystemen laufen parallel und transportieren eine Fülle von Informationen zu jedem Organ. Wenig überraschend, ist der Mensch der IT in Sachen Datenverarbeitung nach vielen Millionen Jahren Evolution um einiges voraus. So funktioniert die Datenverarbeitung des Menschen in den meisten Fällen nicht nur in Echtzeit, sondern auch komplett automatisiert. Hier können Unternehmen ansetzen, um vom Menschen zu lernen und ihre IT in Zeiten der Digitalisierung leistungsfähiger zu machen.

  • Security und Leistung in der Cloud vereinen

    Moderne Anwendungen müssen skalieren und performant sein. Um diese Anforderungen zu erreichen, werden viele Implementierungen auf Public Cloud-Plattformen wie Amazon Web Services (AWS), Microsoft Azure und Google Cloud Platform (GCP) gehostet, was für Elastizität und Geschwindigkeit sorgt. Und die Cloud-Nutzung boomt, mittlerweile setzen zwei von drei Unternehmen in Deutschland Cloud Computing ein, so das Ergebnis einer repräsentativen Umfrage von Bitkom Research im Auftrag der KPMG. Vorteile wie hohe Flexibilität, Effizienzsteigerung der Betriebsabläufe und verbrauchsabhängige Abrechnung von Services liegen auf der Hand.

  • Es ist an der Zeit, die Cloud zu dezentralisieren

    Heute beheimatet die Erde 206 souveräne Staaten. Souveränität ist, wie uns das Lexikon erklärt, das "volle Recht und die Macht eines Regierungsorgans über sich selbst, ohne Einmischung von außen". In gewisser Weise hat die in den frühen 2000er Jahren eingeführte Public Cloud die Souveränität vieler Staaten in Frage gestellt: Sie zentralisierte Daten- und Cloud Computing-Services auf sehr effiziente Weise, um Kunden in jeder Ecke der Welt zu bedienen - eine Welt ohne Grenzen. Verbraucher und Unternehmen begrüßten das befreiende Konzept, das sich schnell weiterentwickelte.

  • Cloud-Sicherheit & Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern. Doch bei der Disaster Recovery geht es nicht nur um Ransomware-Bedrohungen und Advanced Threats, sondern ebenso um die Wiederherstellung nach Hardware-Ausfällen von IT-Komponenten wie Servern und Storage-Systemen, aufgrund menschlicher Fehler oder einer Naturkatastrophe.

  • Wächter des Cloud-Datenschatzes

    Im Zuge der Digitalisierung wächst die Datenmenge, die Unternehmen täglich verarbeiten, stetig an. Dies spiegelt sich auch in der gestiegenen Nutzung von Cloud Computing-Anwendungen in den vergangenen Jahren wider. Unternehmensdaten sind rund um die Uhr überall zugänglich, ermöglichen effiziente Arbeitsabläufe und - zumindest auf den ersten Blick - etwas weniger Verwaltungsaufwand für die IT-Abteilung. Dieser Effekt relativiert sich jedoch, wenn man die Cloud Computing-Nutzung unter dem Aspekt der Sicherheit betrachtet. Die damit einhergehenden Risiken und neuen Bedrohungen erfordern fortschrittliche Sicherheitstechnologien, um den Schutz von Unternehmensdaten gewährleisten zu können.

  • Cloud-Sicherheit: Shared Responsibility-Modell

    Viele Unternehmen setzen auf eine Kombination verschiedener Backup-Lösungen, häufig über mehrere Standorte hinweg. Im Krisenfall macht es solch eine Strategie jedoch oft schwierig, Dateien zeitnah wiederherzustellen. Dagegen bieten Cloud-integrierte Lösungen einfaches Testen der Disaster-Recovery-Strategie und im Notfall die rasche Rückkehr zum Normalbetrieb. Daten sind für Unternehmen heute wertvolle Rohstoffe und müssen besser gesichert werden als je zuvor. Gerade in Zeiten weltweiter Ransomware-Attacken ist eine profunde Backup- und Disaster Recovery-Strategie daher unabdingbar geworden, um im Krisenfall sofort reagieren zu können und die Geschäftskontinuität zu sichern.

  • DevOps: Eine Gefahr oder die Zukunft für ITSM?

    Der digitale Wandel beeinflusst die Unternehmenslandschaft stark. Auch im IT-Service-Management stehen Entscheider zahlreichen neuen Herausforderungen gegenüber. Die Verzahnung von Entwicklung und Betrieb, auch Development and Operations, kurz DevOps, spielt eine immer größere Rolle. Häufig stellen sich die Verantwortlichen jedoch eine Frage: Ist DevOps eine Gefahr oder die Zukunft des IT-Service-Managements (ITSM)? Zu den Ursachen für etwaige Bedenken zählt unter anderem die Infragestellung der Stabilität des IT-Betriebes. Angebote aus der Cloud werden mit einem Angriff auf die eigene IT gleichgesetzt und gestandene ITIL-Change-Manager können sich eine weitere Verkürzung und Vereinfachung der Prozesse nicht mehr vorstellen. Dabei lässt sich bei Betrachtung des Bereichs "Entwicklung und Betrieb von Applikationen" feststellen, dass es zahlreiche Gründe gibt, sich mit den Inhalten von DevOps zu befassen. Veränderungen im IT-Service-Management stellen dabei stets eine Notwendigkeit dar.