- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Freie Wahl des Cloud-Dienstleisters


Die fünf wichtigsten Datenbank-Skills für Multi-Cloud-Computing
Die Komplexität von Multi-Cloud-Szenarien muss beherrschbar bleiben, um ihre Vorteile tatsächlich nutzen zu können

- Anzeigen -





Ohne transparente, flexible und leistungsfähige Datenbank-Plattformen sind Multi-Cloud-Szenarien nicht praktikabel. Datenbank-Pionier Couchbase nennt die fünf wichtigsten Fähigkeiten, die eine Datenbank dafür mitbringen muss. Multi-Cloud-Computing ist der aktuell meistdiskutierte Lösungsansatz für eine agile und hocheffiziente IT-Infrastruktur. Dabei werden die Public-Cloud-Angebote verschiedener Provider wie AWS, Azure oder Google Cloud kombiniert. Das vermeidet Abhängigkeiten und durch die freie Wahl des Cloud-Dienstleisters können die jeweils am besten passenden Services genutzt werden. Sie ergänzen in der Regel interne Strukturen wie Legacy-Systeme, eigene Rechenzentren oder Private Clouds. Das klingt nicht nur komplex, es ist auch so. Das Management solcher hybriden Multi-Cloud-Lösungen ist ebenso anspruchsvoll wie die Anforderungen, die an zentrale Dienste wie die Datenbank gestellt werden. Couchbase nennt die fünf wichtigsten Voraussetzungen:
>> Cloud-Agnostik: In Multi-Cloud-Szenarien muss eine Datenbank auf mehreren Cloud-Plattformen, also mindestens zwei Providern lauffähig sein. Das mag selbstverständlich klingen, ist es aber nicht. Um sich zu vergewissern, genügt aus Sicht des Kunden und Anwenders dazu ein Blick auf die Listen der Datenbankanbieter, die bei den verschiedenen Providern zugelassen und verfügbar sind.

>> Infrastruktur-Agnostik: Noch einen Schritt weiter gehen Datenbanken, die generell in allen Clouds, und damit unabhängig von einer Provider-Zulassung oder -zertifizierung lauffähig sind. Ein Datenbank-Cluster kann so auf diversen Cloud-Plattformen arbeiten und beliebig zwischen ihnen hin und her verschoben werden.

>> Cross Cluster Replication: Auf mehrere Clouds verteilte Datenbank-Cluster müssen miteinander interagieren können. Die Herausforderung besteht darin, Änderungen synchron auf mehreren Plattformen vorzunehmen. Voraussetzung dafür ist die, nur bei einer NoSQL-Datenbank mögliche, Cross Data Center Replication (XDCR), beziehungsweise Cross Cluster Replication, die dann letztlich zur Cross Cloud Replication wird, da die Daten über mehrere Cluster in unterschiedlichen Clouds hinweg multidirektional repliziert und synchronisiert werden.

>> DBaaS-In-VPC und Fully-hosted-Fähigkeiten: Bei DBaaS wird die Datenbank als Cloud-Service bereitgestellt. Das gestattet Anwendern, ihre Daten innerhalb einer eigenen Virtual Private Cloud (VPC) in der IaaS des Kunden zu hosten (maximale Transparenz, Privacy und Security Governance) und die NoSQL-Datenbank als Fully-Managed-Offering über die Cloud zu managen. Alternativ kann die Datenbank als Fully-hosted Angebot in der VPC und damit als IaaS direkt beim Datenbank-Anbieter gehostet werden. Das entlastet die eigenen Datacenter-Ressourcen und schont das IT-Budget.

>> Transparente Control Plane: Das Multi-Cloud-Management erfolgt idealerweise über eine "Single pane of glass"-Kontrollebene, die einen 360-Grad-Blick auf alle Datenbankprozesse und -umgebungen erlaubt. Sie erleichtert die Verwaltung und Steuerung der diversen Cluster und Nodes, die Multi-Cloud-Orchestrierung sowie die Benutzerverwaltung und das Kostenmanagement.

"Die Komplexität von Multi-Cloud-Szenarien muss beherrschbar bleiben, um ihre Vorteile tatsächlich nutzen zu können", erklärt Steffen Schneider, Head of Solutions Engineering Central Europe bei Couchbase. "Die Effizienz und Transparenz der Datenbank-Services ist dafür ein elementarer Baustein." (Couchbase: ra)

eingetragen: 29.09.21
Newsletterlauf: 11.11.21

Couchbase: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Gemacht für hybride Multi-Cloud-Infrastrukturen

    Ausfall- und Stillstandzeiten in der IT sind teuer. Laut einer aktuellen ITIC-Studie kostet ein Ausfall pro Stunde zwischen 860.000 und 4,3 Millionen Euro - zuzüglich der Kosten für Rechtsberatung und eventueller Bußgelder. In derselben Studie bestätigten 91 Prozent der Unternehmen, dass ein einstündiger Ausfall eines unternehmenskritischen Servers oder einer Anwendung, allein aufgrund der Betriebsunterbrechung, der Produktivitätsverluste und des Wiederherstellungsaufwands, einen Schaden von mehr als 250.000 Euro verursacht. Derartige Ausfälle passieren nicht einfach so. Sie sind in einigen Fällen auf Katastrophen, beispielsweise Überflutungen, zurückzuführen. Die meisten jedoch sind Resultate von Cyberattacken. Der höchste Anteil an Sicherheitsverletzungen (20 Prozent) entsteht jedoch durch kompromittierte Anmeldedaten und verursacht durchschnittlich Schäden von 3,7 Millionen Euro je Vorfall. Diese hohen Kosten legen es Unternehmen nahe, das Thema Business Continuity in ihre Disaster-Recovery (DR)-Pläne einzubeziehen. Eine Möglichkeit, die hohen Schäden aufgrund von Ausfällen zu vermeiden, bietet die Business Continuity Cloud.

  • Tagging: Wichtigen Ratschlag für Cloud-Neulinge

    Wer regelmäßig Cloud Computing-Services nutzt, fragt sich gewiss von Zeit zu Zeit, warum die Rechnung in manchen Monaten höher ist als in anderen oder was es wohl kosten würde, eine bestimmte Anwendung in die Cloud zu verlagern. Um User gezielt dabei zu unterstützen, die volle Kostenkontrolle über ihre Cloud-Nutzung zu wahren, ohne an Leistung einzubüßen, hat Oracle einen Leitfaden aus fünf Punkten zusammengestellt. Vom Finanzexperten mit Budgetverantwortung über den Entscheidungsträger, der ein neues Projekt evaluiert, bis hin zum DevOps-Ingenieur, der das Funktionsdesign von IT-Anwendungen modigfiziert - Kostenmanagement in der Cloud ist von entscheidender Bedeutung für den Erfolg oder Misserfolg eines Unternehmens. Die Möglichkeiten, die die Cloud bereithält, sind schier grenzenlos. Für Anwender macht sich daher ein systematischer Kurzüberblick bezahlt.

  • Kostenfallen im komplexen Projektmanagement

    Bei Cloud-Strategien liegen die Tücken im Detail: Die variantenreichen Abrechnungsmodalitäten von Cloud-Providern und technische Fallstricke der eigenen IT-Infrastrukturen können Kostenvorteile schnell zunichte machen - es sei denn, so die Projekterfahrung von Apptio, Unternehmen wappnen sich mit Umsicht und Analysen gegen böse Überraschungen. Mit den laufenden Digitalisierungsmaßnahmen haben Unternehmen bereits ein gutes Bewusstsein dafür entwickelt, dass sich die IT-Budgetplanungen und -Kostenstrukturen mit Cloud Computing-Umgebungen erheblich verändern. Doch es lauern kritische Kostenfallen, die im komplexen Projektmanagement einer Cloud-Migration schnell übersehen werden können. Ein Thema, das Unternehmen auch im Cloud-Betrieb begleitet, wie eine aktuelle Studie von Harvard Business Review zeigt. Denn demnach ist zwar der Mehrwert, der aus dem Einsatz von Technologie resultiert, von höchster Bedeutung bei Budgetplanungen. Allerdings vertrauennur 62 Prozent den dazu verfügbaren Informationen. Die Hälfte der Befragten gibt an, dass sie den durch Technologieinvestitionen generierten Mehrwert nur ad hoc (31 Prozent) oder gar nicht (20 Prozent) messen, 16 Prozent tun dies nur zu bestimmten Projektmeilensteinen. Aus derErfahrung mit Projekten zur Einführung von IT-Finanzmanagement hat Apptio die sechs wichtigsten Bereiche identifiziert, die Budgets einer Cloud-Migration sprengen können.

  • Aufstieg in die Cloud

    Am 7. November 2020 bemerkte der Geschäftsführer eines mittelständischen Bremer Unternehmens, das im An- und Verkauf von Merchandising-Artikeln in Deutschland und Frankreich aktiv ist, einige Unstimmigkeiten im unternehmensinternen Netzwerk. Zum Großteil unterlagen die Serverdaten einer undurchdringbaren Verschlüsselung. Über Nacht startete eine in IT-Kreisen bekannte Gruppe von Hackern unter dem Namen REvil diesen Ransomware-Angriff, der viele Prozesse des Betriebes für mehrere Wochen lahmlegte. Etwa 90 Prozent der Daten verschlüsselten die Hacker und stellten für die Herausgabe des Generalschlüssels, der zur Freigabe jeglicher Dateien befähigt, eine hohe monetäre Forderung von rund 300.000 Euro - ein erschreckendes Szenario, das viele weitere kleine und mittlere Unternehmen (KMU) in Deutschland und weltweit betrifft. In den vergangenen Jahren entwickelte sich ein zunehmend beunruhigender Anstieg an Cyberkriminalität. Lag die Zahl der Fälle in Deutschland 2016 noch bei rund 82.000 Fällen, so verzeichnete das Bundeskriminalamt für das Jahr 2020 bereits über 108.000 Angriffe.

  • Fokus auf Managed Service Provider

    Ransomware-Angriffe nehmen weiterhin zu und stellen eine enorme Bedrohung für zahlreiche Branchen und Einrichtungen dar - von öffentlichen Verwaltungen über Finanzinstitute bis hin zur kritischen Infrastruktur. Hierzu hat auch wesentlich die Zunahme der Remote Work im letzten Jahr beigetragen, in deren Folge die Angriffe um 148 Prozent gestiegen sind. Dieser Trend setzt sich mit einer weiterhin steigenden Zahl der Cyberangriffe und der von Cyberkriminellen geforderten Lösegeldhöhe fort. Die Spezialisten des Incident Response Teams von Varonis Systems beobachten dabei folgende aktuelle Trends: Ransomware-Banden haben ihren Fokus auf Managed Service Provider (MSP) verlagert, also auf Plattformen, die viele Kunden gleichzeitig bedienen. Auf diese Weise können sie bei einem erfolgreichen Angriff auf einen Dienstleister auch dessen Kunden kompromittieren. Die meisten Attacken auf MSPs erfolgen dabei über schlecht gesicherte Remote-Access-Tools.

  • Public-Cloud-Workloads auf Linux

    Trend Micro veröffentlichte ihren Bericht über den aktuellen Sicherheitsstatus von Linux-Systemen in der ersten Hälfte des Jahres 2021. Die Studie gewährt einen detaillierten Einblick, wie Linux-Betriebssysteme aufgrund der fortschreitenden Cloud-Transformation verstärkt ins Visier von Angreifern geraten. Darüber hinaus werden weitere verbreitete Bedrohungen in der Linux-Umgebung beleuchtet. Im Jahr 2017 liefen bereits 90 Prozent der Public-Cloud-Workloads auf Linux. Laut Gartner "wirft das steigende Interesse an Cloud-nativen Architekturen die Frage nach dem zukünftigen Virtualisierungsbedarf von Servern in Rechenzentren auf. Am häufigsten wird eine Linux-OS-basierte Virtualisierung genutzt, welche die Grundlage für Container bildet." Linux unterstützt Unternehmen bei der Nutzung Cloud-basierter Umgebungen und bei der digitalen Transformation. Viele moderne IoT-Geräte, Cloud-Anwendungen und -Technologien laufen auf einer Linux-Variante, die als wichtiger Bestandteil moderner Infrastrukturen geschützt werden muss.

  • Kosteneinsparungen in der Cloud

    Wer regelmäßig Cloud Computing-Services nutzt, fragt sich gewiss von Zeit zu Zeit, warum die Rechnung in manchen Monaten höher ist als in anderen oder was es wohl kosten würde, eine bestimmte Anwendung in die Cloud zu verlagern. Um User gezielt dabei zu unterstützen, die volle Kostenkontrolle über ihre Cloud-Nutzung zu wahren, ohne an Leistung einzubüßen, hat Oracle einen Leitfaden aus fünf Punkten zusammengestellt. Vom Finanzexperten mit Budgetverantwortung über den Entscheidungsträger, der ein neues Projekt evaluiert, bis hin zum DevOps-Ingenieur, der das Funktionsdesign von IT-Anwendungen modigfiziert - Kostenmanagement in der Cloud ist von entscheidender Bedeutung für den Erfolg oder Misserfolg eines Unternehmens. Die Möglichkeiten, die die Cloud bereithält, sind schier grenzenlos. Für Anwender macht sich daher ein systematischer Kurzüberblick bezahlt. Tagging ist einer der wichtigsten Ratschläge für Cloud-Neulinge. Selbst wenn eine Umgebung zu Beginn nicht gut strukturiert ist, können User durch Tags, insbesondere obligatorische, vordefinierte Tags und Tags zur Kostenverfolgung, ihre Ressourcen klassifizieren und davon ausgehend Such- und Massenaktionen durchführen. Tags sind am besten zu verstehen als eine beliebige Textfolge, die Anwender einer Ressource zuweisen und die den Ressourcentyp, die Umgebung - Produktion, Staging oder Test -, den Projektnamen, die Rollen, die Business Unit, die Abteilung, die Kostenstelle und so weiter beschreibt.

  • CSPM-Tools eine Erleichterung

    Mit zunehmender Mobilität der Daten und dem Ausbau von Multi-Cloud-Umgebungen kommen einige Herausforderungen auf IT-Teams zu. Es ist schwer, einheitliche Richtlinien umzusetzen und den gesetzlichen Anforderungen gerecht zu werden. Dazu kommen Einschränkungen aufgrund zu niedrig angesetzter Budgets und dem Fachkräftemangel in der Branche. Die Bedrohungslandschaft bleibt derweil agil und passt sich stetig an. Welche Fehler werden am häufigsten begangen und wie sollte man damit umgehen? Im Vergleich zu On-Premise-Umgebungen mangelt es bei der Verlagerung in die Cloud erheblich an Transparenz im Bereich Sicherheit und der Einhaltung von Vorschriften. Öffentliche Cloud Computing-Umgebungen erfordern die Fähigkeit, die in einem anderen physischen Raum befindlichen Ressourcen zu sehen und zu kontrollieren. Im Modell der geteilten Sicherheitsverantwortung ist der Kunde der öffentlichen Cloud für die Sicherung seiner Daten und Daten-Ströme verantwortlich. Die Komplexität wird, durch die sich ständig ändernden Cloud-Ressourcen, noch erhöht. Native Cloud-Technologien, beispielsweise serverlose Anwendungen, bringen neue Herausforderungen mit sich, wenn sie an Umfang zunehmen. Insbesondere serverlose Anwendungen bestehen oft aus Hunderten von Funktionen, was die Verwaltung all dieser Daten und der Dienste sehr unhandlich macht.

  • Tipps zur Sicherung von Cloud-Umgebungen

    Das Identity and Access Management (IAM) wird in der Cloud oft noch stiefmütterlich behandelt, warnen die Sicherheitsspezialisten von Radware. Und dies, obwohl nach einer eigenen Studie bereits 70 Prozent aller Produktivanwendungen in öffentlichen Clouds betrieben werden. Das bedeutet, dass Cloud-Sicherheit zunehmend zum Synonym für Cybersicherheit wird. Laut Gartner werden bis 2023 drei Viertel aller Sicherheitsmängel in der Cloud auf eine unzureichende Verwaltung von Identitäten, Zugriffen und Berechtigungen zurückzuführen sein. In der öffentlichen Cloud gehostete Workloads sind jetzt per Definition remote. Der gesamte Zugriff erfolgt über eine Remote-Verbindung unter Verwendung von Mechanismen und APIs, die vom Hosting-Anbieter der öffentlichen Cloud bereitgestellt werden. Administratoren haben keine physische Kontrolle mehr über ihre Ressourcen, und der gesamte Zugriff auf ihre Ressourcen erfolgt aus der Ferne. Hacker, böswillige Akteure und andere nicht autorisierte Dritte können jedoch grundsätzlich über dieselben standardisierten Protokolle, APIs und Zugriffsmethoden auf dieselben Ressourcen zugreifen. Der Schutz vor Bedrohungen in der öffentlichen Cloud beginnt daher laut Radware mit der Sicherung von Berechtigungen und dem Identitäts- und Zugriffsmanagement.

  • Vorteile der Hybrid Cloud für E-Commerce

    Die Covid-19-Pandemie hat dem bereits darbenden Einzelhandel stark zugesetzt und noch mehr Einkäufe in die Onlineshops verlegt. Es gilt als sicher, dass sich diese Entwicklung fortsetzen wird und sich die Einkaufsgewohnheiten vieler Menschen weiter in Richtung Online verschieben werden. Um zu überleben, müssen stationäre Händler ihre Angebote anpassen - und in E-Commerce-Infrastruktur investieren. Mehr Onlineshop zu wagen, wird manchen Händler vor große Herausforderungen stellen, hält aber gleichsam auch Chancen bereit, für die Zukunft gerüstet zu sein. Anbietern jeder Größe eröffnet sich ein Weg, sich ein Stück vom Kuchen eines boomenden Marktes zu sichern. Dort tummeln sich allerdings - neben Platzhirschen wie Amazon und anderen Online-Größen - Tausende anderer Händler. Um in diesem Habitat mit über Jahrzehnten gewachsenen und durch Milliarden von Kaufprozessen gestählten Webstores bestehen zu können, müssten sie eine durchaus respektable Investitionsleistung in ihren Onlineauftritt aufbringen. Tun sie das nicht, stünde unter Umständen das Überleben des eigenen Unternehmens auf dem Spiel.