- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Mit Cloud-Datenbanken vertraut machen


Maximierung der Cloud-Effizienz: Haben Datenbanken hier eine Chance?
Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden

Autor Gerardo Dada
Autor Gerardo Dada Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind, Bild: SolarWinds

Von Gerardo Dada, Vice President of Product Marketing and Strategy, SolarWinds

(10.09.15) - In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing.

Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden. Die Skalierbarkeit und Geschwindigkeit, mit der Sie bei Bedarf neue Workloads bereitstellen bzw. deren Größe ändern können, sind die Hauptmerkmale der Cloud Computing-Technologie, die zur Umsetzung dieser Ziele beitragen. Dies bedeutet, dass die Cloud für expandierende Unternehmen eine hervorragende Möglichkeit für die schnelle Vergrößerung bzw. Verkleinerung darstellt, während etablierte Unternehmen damit überholte und veraltete Infrastrukturen optimieren können.


Neue Technologien
Eine effiziente IT-Umgebung besteht aus einer Reihe neuer Konzepte und Technologien. Zunächst einmal ist da die Hybrid Cloud – also Umgebungen, die aus lokalen Systemen und der Public Cloud bestehen –, die gewöhnlich bei Sicherung und Archivierung, DisasterRecovery, Testumgebungen und dem Hosting statischer Dateien mit CDN-Zugriff auf Webeigenschaften ansetzt.

Dann ist da das Rechenzentrum, das Prozesse und Technologien wie z. B. Virtualisierung und Dienstkataloge beinhaltet, damit Technologie als Dienst, weitestgehende Automatisierung und Self-Service angeboten werden können. Dies bedeutet, dass Ressourcen wie beispielsweise virtuelle Maschinen mithilfe eines Self-Service-Portals problemlos verwaltet werden können, um sie ohne oder mit wenig Interaktion seitens der IT-Abteilung automatisch online bereitzustellen, und zwar für verschiedene Betriebssysteme, Service-Level und Größen.

Um die Transformation der Technologie zu ermöglichen, müssen Änderungen bei den alltäglichen Aufgaben innerhalb der IT-Abteilung vorgenommen werden. Das übliche Aufgabenspektrum der IT-Profis ist im Wandel begriffen, da sich die Kombination aus virtueller Infrastruktur, Automatisierung und Self-Service als bevorzugte Methode zur Bereitstellung von Computing-Services für Endbenutzer etabliert. Deshalb müssen sich IT-Profis entsprechend an zwei wichtige Trends anpassen, um die Effizienzsteigerungen durch die Technologie zu maximieren.

Rolle der IT im Rechenzentrum
Durch die Nutzung dieser Technologien und Prozesse verändert sich allmählich auch die Rolle der IT im Rechenzentrum. Diese reicht von manuellen Aufgaben wie der Bereitstellung, dem Ressourcenmanagement und der Fehlerbehebung bis hin zur Verwaltung der Automatisierung, der Leistungsüberwachung und der Kostenoptimierung. Silos verschwinden, wenn sich der Schwerpunkt von Technologiekomponenten mit der Darstellung einer bestimmten Komponente des Anwendungs-Stacks hin zu Anwendungen und zur Systemleistung insgesamt verlagert.

Insbesondere der Aufgabenbereich des Datenbankadministrators (DBA) ändert sich, wenn mehr Anwendungen in die Public Cloud verlagert werden. Die DBAs haben traditionell weniger mit der Infrastruktur zu tun als andere IT-Teams. Das Verständnis der Möglichkeiten der Plattform kann jedoch dazu beitragen, dass sie effizienter arbeiten und ein höherer Automatisierungsgrad erreicht werden kann. Heutzutage muss sich der DBA außerdem mit der Infrastruktur auskennen, auf der die Daten ausgeführt werden. Beispielsweise im Hinblick auf die Funktionalität, die Kapazität und das Management der Cloud Computing-Plattform oder die Vorgehensweise zum Importieren und Exportieren von Daten. DBAs müssen sich auch aktiv am Management und an der Optimierung der Betriebszeit, der Leistung und der Effizienz des Systems insgesamt beteiligen.

Datenbanken in der Cloud
Gerade Datenbanken sind oft schwer einzuschätzen, wenn es darum geht, ob sie für die Cloud geeignet sind. Aber da immer mehr Firmen ihre Geschäftsmodelle auf Daten und deren Auswertung aufbauen – das Stichwort heißt "Big Data" – müssen Unternehmen sicherstellen, dass sich Datenbanken auch gut in die Cloud integrieren lassen.

Um den Verantwortlichen die Migration ihrer Datenbanken in die Cloud so einfach wie möglich zu machen, haben wir daher nachfolgend einige Konzepte und Empfehlungen aufgeführt, die sie beachten sollten:

1. Leistung – eine Sorge weniger. Es sind hauptsächlich Leistungsbedenken, die IT-Profis davon abhalten, Datenbanken in virtuelle Umgebungen oder die Cloud zu verlagern. Allerdings sind sie oft unbegründet, da die Leistungsanforderungen vieler Anwendungen von vielen Cloud Computing-Architekturen mehr als erfüllt werden. In den vergangenen drei Jahren hat die Cloud-Technologie große Fortschritte gemacht und unterstützt jetzt mehrere teils hochleistungsfähige Bereitstellungsoptionen für Datenbanken.

2. Bessere Entscheidungen durch Transparenz. Leistungsprobleme werden häufig auf dem einfachsten Weg gelöst, nämlich indem die Hardware aufgestockt wird. Doch ist diese Vorgehensweise nicht der Weisheit letzter Schluss – insbesondere nicht aus Kostenperspektive. Sinnvoller ist eher ein umfassendes Monitoring. Mithilfe eines Tools für die Datenbanküberwachung werden die tatsächlichen Datenbank- und Ressourcenanforderungen einer Anwendung erfasst. Dazu zählen: CPU, Storage, Arbeitsspeicher, Latenz und Storage-Durchsatz (IOPS ist eine mitunter trügerische Messgröße); das geplante Storage-Wachstum und Backup-Anforderungen; Ressourcenfluktuation auf Grundlage der Anwendungsauslastung in Spitzenzeiten oder bei Batch-Prozessen; und nicht zuletzt Datenverbindungsabhängigkeiten – denn neben den Verbindungen zu den eigentlichen Anwendungen können noch weitere Anforderungen hinsichtlich Datenaustausch, Backups und eingehender Daten bestehen.

Zu den Vorteilen der Cloud gehört die Möglichkeit, Ressourcen bei Mehr- und Minderbedarf dynamisch zu skalieren. Eine Cloud-Bereitstellung muss also nicht nur keine Leistungsbedenken auslösen, sondern kann im Gegenteil die Anwendungsverantwortlichen mit der Tatsache beruhigen, dass sich jeder Anwendung die den Leistungsanforderungen entsprechende Ressourcenkapazität zuweisen lässt. Voraussetzung hierfür ist allerdings, dass diese Anforderungen bekannt sind.

3. Testen nicht vergessen. Weitere Vorteile der Cloud – und zwei der offensichtlichsten – sind die geringen Kosten und die vielfältigen Zugriffsmöglichkeiten, die mit ihr einhergehen. Selbst wenn ein Unternehmen noch nicht an einem Migrationsplan arbeitet, sollte es sich bereits mit Cloud-Datenbanken vertraut machen. Hier hilft experimentieren – und die gesammelten Eindrücke für die Migrationsinitiative zu nutzen. Es dauert nur etwa eine Stunde, eine Datenbank in der Cloud einzurichten. Daher sollten interessierte Unternehmen das also einfach einmal ausprobieren, testen und anschließend löschen. Die Kosten sind minimal. Mit etwas mehr Zeit und Geld können sie auch die Kopie einer Produktionsdatenbank in die Cloud verschieben, um dort die Bereitstellungsoptionen zu testen und herauszufinden, wie sich speziell ihre Anwendung und Datenbank in der Cloud verhalten werden.

4. Das Bereitstellungsmodell sorgfältig planen. Die Bereitstellung kann in der Cloud auf verschiedene Weise erfolgen. Daher müssen Verantwortliche alle diesbezüglichen Optionen prüfen. So bietet DBaaS ("Database-as-a-Service") als Managed Service eine einfache Bereitstellung und Automatisierung. IaaS ("Infrastructure-as-a-Service") dagegen bietet für Administratoren mehr Steuerungsoptionen beim Ausführen von Datenbankinstanzen auf Cloud-Servern. Gleichzeitig bleibt auch die Oberfläche und Funktionsweise des herkömmlichen On-Premise-Deployments erhalten. Darüber hinaus gibt es mehrere Storage-Optionen, zum Beispiel Block-Storage, SSDs, garantierte IOPS-Werte, dedizierte Verbindungen und für Datenbanken optimierte Instanzen. Da Unternehmen sich Cloud-Ressourcen meist mit anderen Nutzern teilen, ist es außerdem notwendig, neben der theoretischen Spitzenleistung auch die Konsistenz und Variabilität der Leistung zu testen.

5. Den Sprung wagen. Kein Migrationsplan kann alle Anwendungsfälle abdecken. Es empfiehlt sich daher, dem Cloud-Anbieter einfach die Unternehmensumgebung zu erklären und ihn um seinen Rat zu bitten, anstatt sich anhand einer Standardstrategie in die Cloud zu wagen. Am besten duplizieren die Verantwortlichen die eigentliche Umgebung in der Cloud, um die Ausführung zu testen. Erst wenn alles reibungslos läuft, sollten Sie auf die Produktionsanwendung umstellen. Zudem ist es ratsam, über die Maßnahmen zur Erfüllung der Datenwiederherstellungs- und Backup-Anforderungen hinaus darauf zu achten, dass sich Replikations- oder Standby-Server nicht in derselben Region wie die primären Server befinden.

6. Überwachen und optimieren. Ebenso wie On-Premise-Deployments müssen auch Cloud Computing-Umgebungen im Betrieb überwacht und optimiert werden. Tools für die Datenbankoptimierung analysieren die Wartezeit und beschleunigen Datenbankvorgänge durch Ressourcenkorrelation erheblich. Außerdem melden sie Fehler, ehe diese zu Problemen werden, steigern die Anwendungsleistung und überwachen Ressourcen zur Unterstützung der Planung. Ebenfalls hilfreich ist ein Tool für die Leistungsanalyse: Es erlaubt Datenbankadministratoren, Entwicklern und dem IT-Betriebsteam, sauber zu programmieren und die Ursache bei Leistungsproblemen einer Datenbank zu identifizieren (z. B. Abfragen, Storage-Ereignisse, Serverressourcen).
(SolarWinds: ra)

SolarWinds: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • File Sharing im Unternehmen: Strategie gesucht

    Um Daten auszutauschen setzen die meisten Unternehmen noch immer auf die gute alte E-Mail, auch wenn diese Technologie offensichtlich nicht mehr auf dem neuesten Stand der Technik ist. Auch das ebenso veraltete FTP ist noch weit verbreitet, wenn es darum geht größere Dateien zu übermitteln. Den IT-Alptraum perfekt machen, intern oft nicht überwachte, File-Sharing-Dienste in der Cloud a la Dropbox & Co. Um striktere Compliance-Vorgaben zu erfüllen und die offensichtlich nicht gegebene Datensicherheit für ihr Unternehmen zu gewährleisten suchen IT-Verantwortliche suchen händeringend nach eine umfassenden Strategie um die genannten, unzuverlässigen Werkzeuge zu ersetzen und somit die Kontrolle über ihre sensiblen Daten zurückzugewinnen.

  • Privacy Shield und die Folgen

    Am 1. August 2016 trat das neue Privacy Shield-Abkommen in Kraft, das für Kunden und Anbieter von Cloud Computing-Services wieder Rechtssicherheit bieten und den transatlantischen Datenfluss wiederherstellen soll. Ob Privacy Shield die Nutzer besser schützen wird als der Vorgänger Safe Harbor wird von vielen Experten jedoch bezweifelt. Auch Subhashini Simha von Thru zweifelt das Abkommen an. Ihre Einschätzung der Folgen von Privacy Shield für Unternehmen hat sie in diesem Artikel zusammengefasst. Demnach benötigen Unternehmen zukünftig mehr denn je Flexibilität ihre Daten im Notfall auch im eigenen Rechenzentrum zu hosten und sie bei sich ändernder Rechtslage aus anderen Regionen abzuziehen.

  • Herausforderungen im Wissensmanagement

    Der Erfolg eines Projekts hängt von vielen Faktoren ab: Unterstützung durch das Top-Management, entsprechende Organisationsstrukturen sowie qualifizierte Mitarbeiter. Zudem spielt Wissen eine wichtige Rolle im Projektmanagement: Welche Methode eignet sich für das Projekt? Mit welchen Maßnahmen lässt sich das Projektziel erreichen? Wie können die Projektanforderungen erfüllt werden? Diese und weitere Fragen müssen Projektleiter beantworten können. Das Problem: Oftmals sind sich diese gar nicht bewusst, was sie und ihre Mitarbeiter wissen oder eben auch nicht wissen. Ein professionelles Wissensmanagement kann das Projektmanagement wirkungsvoll unterstützen, indem es vorhandenes Wissen bündelt, neue Erkenntnisse aufnimmt und alles für zukünftige Projekte verfügbar macht.

  • Unified Communications & Cloud-Kommunikation

    Den Begriff "Unified Communications" (UC) gibt es schon seit vielen Jahren. Er bezeichnet die Integration von Kommunikationsmedien in einer einheitlichen Anwendungsumgebung. Durch die Zusammenführung verschiedener Kommunikationsdienste soll UC die Erreichbarkeit der Kommunikationspartner verbessern und damit die Geschäftsprozesse beschleunigen.

  • Multi Cloud Sourcing

    Die Vorteile von Cloud Computing sind inzwischen bekannt: hohe Flexibilität und Skalierbarkeit zu genau kalkulierbaren Kosten. Doch wer Dienste von mehreren Anbietern nutzt, steht schnell vor einem Problem. Er muss die nötigen Informationen jedes Mal neu übertragen, wodurch unterschiedliche Datenbestände und Mehraufwand für das Management entstehen können. Ein einfaches Springen von Wolke zu Wolke ermöglicht Multi Cloud Sourcing. Für viele Unternehmen ist die Hybrid Cloud attraktiv. Sie kombiniert Skalierbarkeit mit Effizienz und verspricht zusätzlich Kostenersparnisse. Denn die Kunden müssen keine teuren Kapazitäten für Spitzenzeiten bereithalten, die im Rest des Jahres nicht genutzt werden.

  • Cloud als Backup-Speicher

    Rasant wachsende Datenmengen sowie die steigende Abhängigkeit der Unternehmen von ihren operativen Daten setzen die IT-Abteilung gewaltig unter Druck. CIOs müssen daher ihre Strategie für das Datenmanagement den veränderten Realitäten anpassen. Ein mögliches Werkzeug hierfür sind IT-Ressourcen aus der Cloud, die in die Backup- und Storage-Infrastruktur eingebunden werden. Die IT-Abteilung kann es sich nicht mehr leisten, auf die Cloud zu verzichten. Immer mehr Unternehmen in Deutschland setzen mittlerweile auf diese Technologie. In der Studie "Cloud-Monitor 2015" von KPMG und Bitkom vermelden die Analysten, dass bereits 44 Prozent der deutschen Unternehmen IT-Leistungen aus der Cloud beziehen. Weitere 24 Prozent planen oder diskutieren noch über den Einsatz. Dabei sind die gemachten Erfahrungen durchweg positiv, wie bis zu 78 Prozent der Befragten berichten.

  • Mit Cloud-Datenbanken vertraut machen

    In IT-Abteilungen vollzieht sich der größte Umbruch seit Einführung des PC und die modernen Rechenzentren müssen weiterentwickelt werden, um mit dieser Entwicklung Schritt zu halten. Dies ist besonders kritisch, da die IT für fast alle Geschäftsfunktionen eine immer wichtigere Rolle spielt. Unternehmen jeder Größe nutzen alle verfügbaren Technologien und Best Practices, um die Abläufe zu optimieren und Ineffizienzen zu reduzieren, und für viele bedeutet dies in erster Linie zwei Dinge: Virtualisierung und Cloud Computing. Jede IT-Abteilung versucht Zeit zu sparen, die Produktivität zu steigern und Abläufe zu optimieren. Mithilfe der Cloud und der Virtualisierung können in diesem Zusammenhang diese Komponenten nun im gesamten Unternehmen effizienter gestaltet werden.

  • Cloud Computing: Erkundungsphase abgeschlossen

    Das Zeitalter der Entdeckungen im Cloud Computing ist vorbei. Die Unternehmen in Deutschland sind in der Cloud Computing-Ära angekommen, sie haben sich orientiert und ihre Präferenzen definiert. Eine Reihe von Studien, die Ende 2014, Anfang 2015 vorgelegt wurden, zeigen, dass das Ergebnis durchaus sportlich ist - für die Anbieter von Cloud Computing-Lösungen. Denn die Unternehmen wollen sowohl den Komfort von Cloud Computing-Services als auch die Sicherheit klassischer IT; oder anderes formuliert: die kostengünstige Flexibilität, die Amazon, Microsoft oder Google bieten, gepaart mit Privatsphäre und Rechtssicherheit. Und nur wer beide Seiten in hinreichendem Umfang bereitstellen kann, ist im Geschäft.

  • Cloud Computing-Dienste & Weitverkehrsnetze

    Die Nutzung von Cloud Computing-Diensten nimmt drastisch zu. Das gilt vor allem von Software-as-a-Service (SaaS)-Angebote. Doch Unternehmen, die SaaS-Applikationen aus einem Cloud-Rechenzentrum beziehen, müssen die Eigenheiten von Weitverkehrsnetzen berücksichtigen. Vor allem WAN-Verbindungen über das Internet leiden häufig unter zu hohen Latenzzeiten und Paketverlustraten. Abhilfe schafft eine Overlay-Infrastruktur - eine Software-Defined WAN Fabric.

  • Citizen Developer: Software Quick-and-Clean

    Citizen Developer sind die legitimen Nachfahren der berüchtigten Power-User der 80er- und 90er-Jahre. Das waren jene Kollegen, die - besonders gerne in dBase, Excel und Word - riesige Tabellen, kilometerlange Programme und verwinkelte Datenbanken schufen, mit denen sie ihre IT-Abteilungen in die Verzweiflung trieben. Mit Programmierstandards und -regeln wollten sich Power-User nicht lange aufhalten, für sie war das Wichtigste, dass sie schnell fertige Lösungen vorweisen konnten. Und damit waren sie oft die letzte und einzige Rettung für Fachabteilungen, die eben nicht zwei Jahre auf ein ausgereiftes, perfekt strukturiertes und gut durchgetestetes Programm warten konnten.