- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Mit Cloud-Datenbanken vertraut machen


Maximierung der Cloud-Effizienz: Haben Datenbanken hier eine Chance?
Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden

Autor Gerardo Dada
Autor Gerardo Dada Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind, Bild: SolarWinds

Von Gerardo Dada, Vice President of Product Marketing and Strategy, SolarWinds

(10.09.15) - In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing.

Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden. Die Skalierbarkeit und Geschwindigkeit, mit der Sie bei Bedarf neue Workloads bereitstellen bzw. deren Größe ändern können, sind die Hauptmerkmale der Cloud Computing-Technologie, die zur Umsetzung dieser Ziele beitragen. Dies bedeutet, dass die Cloud für expandierende Unternehmen eine hervorragende Möglichkeit für die schnelle Vergrößerung bzw. Verkleinerung darstellt, während etablierte Unternehmen damit überholte und veraltete Infrastrukturen optimieren können.


Neue Technologien
Eine effiziente IT-Umgebung besteht aus einer Reihe neuer Konzepte und Technologien. Zunächst einmal ist da die Hybrid Cloud – also Umgebungen, die aus lokalen Systemen und der Public Cloud bestehen –, die gewöhnlich bei Sicherung und Archivierung, DisasterRecovery, Testumgebungen und dem Hosting statischer Dateien mit CDN-Zugriff auf Webeigenschaften ansetzt.

Dann ist da das Rechenzentrum, das Prozesse und Technologien wie z. B. Virtualisierung und Dienstkataloge beinhaltet, damit Technologie als Dienst, weitestgehende Automatisierung und Self-Service angeboten werden können. Dies bedeutet, dass Ressourcen wie beispielsweise virtuelle Maschinen mithilfe eines Self-Service-Portals problemlos verwaltet werden können, um sie ohne oder mit wenig Interaktion seitens der IT-Abteilung automatisch online bereitzustellen, und zwar für verschiedene Betriebssysteme, Service-Level und Größen.

Um die Transformation der Technologie zu ermöglichen, müssen Änderungen bei den alltäglichen Aufgaben innerhalb der IT-Abteilung vorgenommen werden. Das übliche Aufgabenspektrum der IT-Profis ist im Wandel begriffen, da sich die Kombination aus virtueller Infrastruktur, Automatisierung und Self-Service als bevorzugte Methode zur Bereitstellung von Computing-Services für Endbenutzer etabliert. Deshalb müssen sich IT-Profis entsprechend an zwei wichtige Trends anpassen, um die Effizienzsteigerungen durch die Technologie zu maximieren.

Rolle der IT im Rechenzentrum
Durch die Nutzung dieser Technologien und Prozesse verändert sich allmählich auch die Rolle der IT im Rechenzentrum. Diese reicht von manuellen Aufgaben wie der Bereitstellung, dem Ressourcenmanagement und der Fehlerbehebung bis hin zur Verwaltung der Automatisierung, der Leistungsüberwachung und der Kostenoptimierung. Silos verschwinden, wenn sich der Schwerpunkt von Technologiekomponenten mit der Darstellung einer bestimmten Komponente des Anwendungs-Stacks hin zu Anwendungen und zur Systemleistung insgesamt verlagert.

Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden. Die DBAs haben traditionell weniger mit der Infrastruktur zu tun als andere IT-Teams. Das Verständnis der Möglichkeiten der Plattform kann jedoch dazu beitragen, dass sie effizienter arbeiten und ein höherer Automatisierungsgrad erreicht werden kann. Heutzutage muss sich der DBA außerdem mit der Infrastruktur auskennen, auf der die Daten ausgeführt werden. Beispielsweise im Hinblick auf die Funktionalität, die Kapazität und das Management der Cloud Computing-Plattform oder die Vorgehensweise zum Importieren und Exportieren von Daten. DBAs müssen sich auch aktiv am Management und an der Optimierung der Betriebszeit, der Leistung und der Effizienz des Systems insgesamt beteiligen.

Datenbanken in der Cloud
Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind. Aber da immer mehr Firmen ihre Geschäftsmodelle auf Daten und deren Auswertung aufbauen – das Stichwort heißt "Big Data" – müssen Unternehmen sicherstellen, dass sich Datenbanken auch gut in die Cloud integrieren lassen.

Um den Verantwortlichen die Migration ihrer Datenbanken in die Cloud so einfach wie möglich zu machen, haben wir daher nachfolgend einige Konzepte und Empfehlungen aufgeführt, die sie beachten sollten:

1. Leistung – eine Sorge weniger. Es sind hauptsächlich Leistungsbedenken, die IT-Profis davon abhalten, Datenbanken in virtuelle Umgebungen oder die Cloud zu verlagern. Allerdings sind sie oft unbegründet, da die Leistungsanforderungen vieler Anwendungen von vielen Cloud Computing-Architekturen mehr als erfüllt werden. In den vergangenen drei Jahren hat die Cloud-Technologie große Fortschritte gemacht und unterstützt jetzt mehrere teils hochleistungsfähige Bereitstellungsoptionen für Datenbanken.

2. Bessere Entscheidungen durch Transparenz. Leistungsprobleme werden häufig auf dem einfachsten Weg gelöst, nämlich indem die Hardware aufgestockt wird. Doch ist diese Vorgehensweise nicht der Weisheit letzter Schluss – insbesondere nicht aus Kostenperspektive. Sinnvoller ist eher ein umfassendes Monitoring. Mithilfe eines Tools für die Datenbanküberwachung werden die tatsächlichen Datenbank- und Ressourcenanforderungen einer Anwendung erfasst. Dazu zählen: CPU, Storage, Arbeitsspeicher, Latenz und Storage-Durchsatz (IOPS ist eine mitunter trügerische Messgröße); das geplante Storage-Wachstum und Backup-Anforderungen; Ressourcenfluktuation auf Grundlage der Anwendungsauslastung in Spitzenzeiten oder bei Batch-Prozessen; und nicht zuletzt Datenverbindungsabhängigkeiten – denn neben den Verbindungen zu den eigentlichen Anwendungen können noch weitere Anforderungen hinsichtlich Datenaustausch, Backups und eingehender Daten bestehen.

Zu den Vorteilen der Cloud gehört die Möglichkeit, Ressourcen bei Mehr- und Minderbedarf dynamisch zu skalieren. Eine Cloud-Bereitstellung muss also nicht nur keine Leistungsbedenken auslösen, sondern kann im Gegenteil die Anwendungsverantwortlichen mit der Tatsache beruhigen, dass sich jeder Anwendung die den Leistungsanforderungen entsprechende Ressourcenkapazität zuweisen lässt. Voraussetzung hierfür ist allerdings, dass diese Anforderungen bekannt sind.

3. Testen nicht vergessen. Weitere Vorteile der Cloud – und zwei der offensichtlichsten – sind die geringen Kosten und die vielfältigen Zugriffsmöglichkeiten, die mit ihr einhergehen. Selbst wenn ein Unternehmen noch nicht an einem Migrationsplan arbeitet, sollte es sich bereits mit Cloud-Datenbanken vertraut machen. Hier hilft experimentieren – und die gesammelten Eindrücke für die Migrationsinitiative zu nutzen. Es dauert nur etwa eine Stunde, eine Datenbank in der Cloud einzurichten. Daher sollten interessierte Unternehmen das also einfach einmal ausprobieren, testen und anschließend löschen. Die Kosten sind minimal. Mit etwas mehr Zeit und Geld können sie auch die Kopie einer Produktionsdatenbank in die Cloud verschieben, um dort die Bereitstellungsoptionen zu testen und herauszufinden, wie sich speziell ihre Anwendung und Datenbank in der Cloud verhalten werden.

4. Das Bereitstellungsmodell sorgfältig planen. Die Bereitstellung kann in der Cloud auf verschiedene Weise erfolgen. Daher müssen Verantwortliche alle diesbezüglichen Optionen prüfen. So bietet DBaaS ("Database-as-a-Service") als Managed Service eine einfache Bereitstellung und Automatisierung. IaaS ("Infrastructure-as-a-Service") dagegen bietet für Administratoren mehr Steuerungsoptionen beim Ausführen von Datenbankinstanzen auf Cloud-Servern. Gleichzeitig bleibt auch die Oberfläche und Funktionsweise des herkömmlichen On-Premise-Deployments erhalten. Darüber hinaus gibt es mehrere Storage-Optionen, zum Beispiel Block-Storage, SSDs, garantierte IOPS-Werte, dedizierte Verbindungen und für Datenbanken optimierte Instanzen. Da Unternehmen sich Cloud-Ressourcen meist mit anderen Nutzern teilen, ist es außerdem notwendig, neben der theoretischen Spitzenleistung auch die Konsistenz und Variabilität der Leistung zu testen.

5. Den Sprung wagen. Kein Migrationsplan kann alle Anwendungsfälle abdecken. Es empfiehlt sich daher, dem Cloud-Anbieter einfach die Unternehmensumgebung zu erklären und ihn um seinen Rat zu bitten, anstatt sich anhand einer Standardstrategie in die Cloud zu wagen. Am besten duplizieren die Verantwortlichen die eigentliche Umgebung in der Cloud, um die Ausführung zu testen. Erst wenn alles reibungslos läuft, sollten Sie auf die Produktionsanwendung umstellen. Zudem ist es ratsam, über die Maßnahmen zur Erfüllung der Datenwiederherstellungs- und Backup-Anforderungen hinaus darauf zu achten, dass sich Replikations- oder Standby-Server nicht in derselben Region wie die primären Server befinden.

6. Überwachen und optimieren. Ebenso wie On-Premise-Deployments müssen auch Cloud Computing-Umgebungen im Betrieb überwacht und optimiert werden. Tools für die Datenbankoptimierung analysieren die Wartezeit und beschleunigen Datenbankvorgänge durch Ressourcenkorrelation erheblich. Außerdem melden sie Fehler, ehe diese zu Problemen werden, steigern die Anwendungsleistung und überwachen Ressourcen zur Unterstützung der Planung. Ebenfalls hilfreich ist ein Tool für die Leistungsanalyse: Es erlaubt Datenbankadministratoren, Entwicklern und dem IT-Betriebsteam, sauber zu programmieren und die Ursache bei Leistungsproblemen einer Datenbank zu identifizieren (z. B. Abfragen, Storage-Ereignisse, Serverressourcen).
(SolarWinds: ra)

SolarWinds: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.

  • Redundante SaaS-Anwendungen ermittetteln

    Die Software-as-a-Service (SaaS)-Landschaft wächst und wächst. Wer bis jetzt noch nicht auf Wolken geht, plant in absehbarer Zeit himmelwärts zu wandern. Für den IT-Betrieb bringt die Cloud bei allen Vorteilen jedoch auch Herausforderungen mit. Das gilt insbesondere bei der Verwaltung von SaaS-Ausgaben. Auf den ersten Blick steht die Inventarisierung und Konsolidierung von SaaS mit Recht ganz unten auf der Prioritätenliste von IT-Abteilung. Bei den unzähligen täglichen Aufgaben und den Herausforderungen im Zuge der digitalen Transformation, wird das "Ausmisten" im IT-Haushalt gerne auf die lange Bank geschoben. Das kann sich auf lange Sicht jedoch zu einem kostspieligen Fehler auswachsen, denn die Ausgaben für die Cloud (22 Prozent) liegen mittlerweile nur noch knapp hinter den Ausgaben für On-Premise (23 Prozent). Dazu gehört auch Software-as-a-Service (SaaS), Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS). Über 80 Prozent der befragten Unternehmen planen die Ausgaben für SaaS und IaaS/PaaS im nächsten Jahr weiter zu erhöhen.

  • CLOUD Act auch für europäische Cloud-Provider?

    Nahezu zeitgleich mit der DSGVO ist der US-amerikanische CLOUD Act in Kraft getreten. In der Praxis geraten damit zwei Rechtsauffassungen unvereinbar miteinander in Konflikt. Nicht nur für Cloud-Anbieter, sondern auch für Unternehmen, die Cloud Computing-Anwendungen nutzen, könnte dies rechtliche Schwierigkeiten mit sich bringen. Anliegen des "Clarifying Lawful Overseas Use of Data" (CLOUD) Act ist es, die US-amerikanische Strafverfolgung zu erleichtern, indem der Zugriff auf im Ausland gespeicherte Kommunikationsdaten von Verdächtigen vereinfacht wird. Was bislang im Rahmen von Rechtshilfeabkommen zwischen den Regierungsbehörden verschiedener Länder im Laufe mehrerer Monate abgewickelt wurde, soll nun schneller möglich sein.

  • Cloud-Repatriation eine Realität

    Unternehmen nutzen vermehrt die Hybrid Cloud um Daten und Anwendungen in alle Umgebungen verschieben zu können. Dies macht das Zurückholen von Daten und Anwendungen ins eigene Rechenzentrum offiziell zu einem Trend. Noch vor wenigen Jahren glaubten wir, dass die Public Cloud die Zukunft der IT ist und früher oder später, physische Rechenzentren ersetzen würde. Tatsächlich ist der Trend Daten und Workloads in Public Clouds zu migrieren seit langem ungebrochen stark und es ist kein Ende dieser Entwicklung auszumachen. Doch trotz dieses generell anhaltenden Trends in Richtung Public Cloud ist Cloud-Repatriation, also die entgegengesetzte Entscheidung, Daten und Workloads zurück nach Hause ins eigene Rechenzentrum zu holen, in letzter Zeit zur Realität geworden. Was treibt diese Entwicklung an?

  • So hilft die KI bei der Datenanalyse

    Die Elektromobilität wird dazu führen, dass Fahrzeuge und Infrastrukturen riesige Datenströme generieren. In dieser Daten-Goldgrube verstecken sich viele Hinweise darauf, wie Unternehmen ihre Angebote und Produkte verbessern, aber auch die Kundenzufriedenheit steigern können. Wer den Datenschatz heben möchte, benötigt eine übergreifende Datenplattform und KI-Lösungen mit Maschine Learning-Komponenten. In den Medien generiert das Thema Elektromobilität derzeit interessante Schlagzeilen. Daimler kündigte an, ab 2021 mit der Produktion von autonom fahrenden Taxis zu starten. Auch Volkswagen steht unter Strom, denn die Wolfsburger wollen in den kommenden zehn Jahren 70 neue vollelektrische Elektrofahrzeuge entwickeln. Dazu meldet nun auch Lidl, dass der Lebensmitteldiscounter auf seinen Parkplätzen künftig Ladestationen für Elektrofahrzeuge installieren wird, wie es schon andere Handelsketten, beispielsweise Aldi, Rewe und Ikea, vormachen. Und im nächsten James Bond-Film wird der Superagent vermutlich mit einem Elektrofahrzeug von Aston Martin auf Gangsterjagd gehen.

  • Funktionierende DevOps-Kultur zu etablieren

    DevOps mit grundlegender IT-Modernisierung verbinden: Weitreichende Veränderungen wie die digitale Transformation oder neue Regularien wie die DSGVO wurden von vielen Unternehmen zum Anlass genommen, die eigene IT-Architektur von Grund auf zu überdenken. Die Ziele dabei waren und sind im Prinzip immer eine flexiblere IT, die schnell auf sich ändernde Umstände reagieren kann - eine der Kernkompetenzen von DevOps. Es ist also überaus sinnvoll, DevOps als eine der zentralen Säulen der neuen IT zu etablieren und sich dadurch kürzere Softwareentwicklungs- und Bereitstellungszyklen zu sichern.

  • Cloud-Big Data-Projekte: Exponentielles Wachstum

    Für IT-Verantwortliche wird es immer wichtiger, mit der Cloud den Einsatz innovativer Technologien zu unterstützen. Cloud Cpmputing-Services für Machine Learning, Künstliche Intelligenz, Blockchain oder Serverless Computing sind heute mit wenigen Mausklicks abrufbar. Damit beschleunigt sich die Umsetzung neuer Geschäftsmodelle ebenso wie die Produktentwicklung. Warum ein organisationsweites Datenmanagement für den Cloud-Erfolg wichtig ist, zeigt der folgende Beitrag. In der Studie "Multi-Cloud in deutschen Unternehmen" berichten die Analysten von IDC, dass 68 Prozent der Unternehmen bereits Cloud Computing-Services und -Technologien für mehrere Workloads verwenden.

  • Multiple Clouds nicht gleich Multi-Cloud

    Multi-Cloud ist derzeit einer der heißesten Trends für Unternehmen. Die Verwendung mehrerer Clouds gleichzeitig, kann viele Vorteile bieten. Richtig eingesetzt kann man mit der richtigen Kombination von Clouds unter anderem die Kosten für Infrastruktur senken, die Präsenz von Daten und Workloads in verschiedenen Regionen verbessern oder die Herstellerbindung an Cloud Computing-Anbieter vermeiden. Unternehmen, die den Ansatz Multi-Cloud hingegen falsch verstanden haben, kann dieses Missverständnis viel Geld kosten. Denn eine fehlgeleitete Multi-Cloud-Strategie hat das Potenzial, Anwendungen, Teams und Budgets unnötig aufzusplitten.