- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Die richtige Datenbankplattform wählen


Programmieren im Jahr 2020: Spannende Aspekte kommen auf Software-Entwickler zu
Die Multi-Cloud steht seit einem Jahr ganz oben auf der Wunschliste von CIOs - Sie wollen mit dem Ansatz Public-Cloud-Dienste einführen und gleichzeitig die Kontrolle über die IT-Strategien ihrer Unternehmen behalten

- Anzeigen -





Von Patrick McFadin ist Vice President of Developer Relations bei DataStax

Database-as-a-Service (DBaaS)-Angebote von Cloud Providern und Datenbankherstellern werden 2020 noch einfacher einzusetzen und zu managen sein. Sie unterstützen viele der zu programmierenden Anwendungen, erleichtern ihre Bereitstellung und das Datenmanagement. Die Auswahl für Entwickler an zu nutzenden Datenmodellen steigt. Doch für welche Applikationen eignen sich traditionelle, relationale Datenbanken, NoSQL, Graph- oder Zeitreihendatenbanken am besten? Entwicklern, die über Cloud- und Datenmanagement-Expertise verfügen, fällt es leichter, die jeweils richtige und schnell skalierende Datenbankplattform für ihre Projekte zu wählen. Sicher ist: NoSQL-Datenbanken werden populärer, um mit dem Tempo der eingehenden Daten Schritt halten zu können.

Der sichere Datenbankbetrieb im Fokus
Fehlkonfigurationen von Datenbankinstanzen bleiben auch 2020 ein Thema. Es gilt für Anbieter daher verstärkt, gehärtete Lösungen zu liefern, um ungesicherte Implementierungen standardmäßig auszuschließen. Unternehmen, die Datenbanktechnologie nutzen sowie Cloud-Provider, die diese als Managed Services zur Verfügung stellen, müssen zudem leicht umsetzbare Best Practices für den Sicherheitsfall ausarbeiten. Auf die Weise entsteht in den Unternehmen immer mehr Fachwissen rund um Datenbanken, und es ergeben sich umgekehrt Erkenntnisse für die Anbieter, die zu sicheren Services führen. Noch stehen wir hier aber am Anfang.

Graph-Technologie kommt im Mainstream an
Allgemein bildet die Graph-Technologie stark vernetzte Informationen über Knoten ab, die durch Kanten miteinander verbunden sind. Sie hat sich jedoch weiterentwickelt. Knowledge Graphs und Property Graphs vereinfachen es, Beziehungen zwischen Datenobjekten zu modellieren und zu analysieren. Die Veranschaulichung genau dieser Beziehungen zwischen Dingen, Standorten und Menschen brauchen Unternehmen im kommenden Jahr, um Probleme zu lösen. Das wird Graph-Technologie beliebter machen. Doch was sich 2020 zeigen wird: Das Verständnis für diese Technologie und Fachkräfte auf dem Gebiet fehlen noch. Das Marktwachstum durch neue Graph-Lösungen sowie eine "Relationship-First"-Mentalität werden 2020 dazu beitragen, dass die Einführung dennoch gelingt.

Multi Cloud: Von der Strategie zur Praxis
Die Multi Cloud steht seit einem Jahr ganz oben auf der Wunschliste von CIOs. Sie wollen mit dem Ansatz Public-Cloud-Dienste einführen und gleichzeitig die Kontrolle über die IT-Strategien ihrer Unternehmen behalten. Nach ersten Projekten wird es 2020 ernst: Nun gilt es, geschäftskritische Anwendungen über mehrere unabhängige und skalierbare Cloud-Services hinweg abzubilden. Dabei wird vielen klar werden, was Multi Cloud in Bezug auf Daten wirklich bedeutet: Es geht darum, bestimmte Cloud-Services mit Cloud-übergreifenden Datenbank-Designs zu kombinieren und aufeinander abzustimmen. Das wird eine Herausforderung.

Container und die Frage nach der Datenverwaltung
Immer mehr Anwendungen, die Entwickler als Microservice erstellt haben und die in Containern laufen, werden 2020 in Produktion gehen. Ohne vollständige Unterstützung durch Datenbanktechnologie funktioniert das aber nicht. Das bedeutet: Entwickler müssen mit ihren Teams im IT-Betrieb an Verfügbarkeit, Ausfallsicherheit und Sicherheit der Daten arbeiten, die Microservices produzieren. Dabei hilft ihnen, von Anfang an die richtigen Datenbank- und Datenreplikationsansätze in das Design der Anwendungen zu integrieren.

Kubernetes im "Tal der Enttäuschungen"?
Die vergangenen Jahre liefen wirklich gut für das Kubernetes-Projekt, wofür der große Hype und die hohen Meetup-Zahlen stehen. 2020 stehen reale Einsätze auf dem Programm, die das Projekt erden werden. Es greift der typische Lebenszyklus eines Projektes, und das lässt sich als ein gutes Zeichen für eine starke Zukunft werten. Wir dürfen uns auf eine rege Diskussion einstellen: Zum einen neue Projekte, die Verbesserungen aufzeigen werden. Den Gegenpart übernehmen Zweifler, die sich fragen, warum sie jemals ein Projekt mit Kubernetes gestartet haben. Insgesamt wird die Community, die Kubernetes für umfassende Einsätze in Betracht zieht, bei neuen Projekten sehr sorgfältig abwägen.

Mit 5G steigen die Datenwachstumsraten
Der 5G-Ausbau steckt noch in den Kinderschuhen. Die ersten Implementierungen werden im nächsten Jahr folgen, wobei das Interesse vor allem skalierbaren IoT-Anwendungen gilt. Für Unternehmen, die sich auf IoT konzentrieren, bereitet 5G den Weg zur expansiven Datennutzung. Das Erfassen von mehr Daten pro Gerät sowie das häufigere Abfragen eines Gerätes hat Konsequenzen: Beispielsweise erhalten Logistikunternehmen zwar einen genaueren Einblick in ihr Geschäft und ihre Leistung. Anderseits explodieren die Datenmengen, die gespeichert und gemanagt werden müssen. Dem lässt sich nur mit dem Skalieren von Anwendungen und Datenbankimplementierungen begegnen. Unterm Strich erhöhen sich so die Kosten für das Design von IoT-Diensten.

Apache Cassandra 4.0 wird Upgrade-Welle auslösen
Apache Cassandra, eine spaltenorientierte und auf Java basierende NoSQL-Datenbank, verarbeitet vor allem riesige Datenmengen für Big-Data-Anwendungen oder speichert Daten von transaktionsintensiven Online-Anwendungen in Echtzeit. In dem Release 4.0 stecken nun jede Menge Korrekturen und Tests zur Verbesserung der Stabilität. Eigentlich dauert es Jahre, bis eine Datenbank Stabilitätsfehler bereinigt hat. Einige der subtilsten Fehler lassen sich nur schwer finden. Das Projekt gibt es jetzt über zehn Jahre, dennoch schafft es Cassandra wohl in kürzester Zeit, den Meilenstein Ultrastabilität zu erreichen.

Bewährt hat sich eine inoffizielle Regel bei Cassandra: Erst sechs Monate nach einem größeren Release denkt man überhaupt darüber nach, dieses in der Produktion einzusetzen. Der Fokus des Projektkomitees und der Programmierer lag darauf, dass die Datenbank am Tag Null einsatzbereit ist. Daran besteht kein Zweifel. Wir werden große und sich rasch vollziehende Implementierungen im Laufe des nächsten Jahres sehen. Projekte, die Cassandra nacheifern, können von so einem Anspruch nur träumen. Deshalb ist es verständlich, warum wir eine sehr stolze Cassandra-Community haben – weit über 2020 hinaus. (DataStax: ra)

eingetragen: 29.12.19
Newsletterlauf: 13.03.20

DataStax: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Die Cloud ist bereits der Standard

    Schon längst nutzen die meisten Unternehmen flexible Cloud-Technologien, um ihre IT zu modernisieren. Die Cloud Computing-Angebote sind mittlerweile schon so weit ausgereift, dass viele Organisationen sogar eine "Cloud-First"-Strategie folgen. Das heißt, dass sie von vorneherein eher Cloud Computing-Dienstleistungen nutzen, anstatt eigene Systeme anzuschaffen. Die meisten Unternehmenslenker und IT-Manager wähnen sich bei ihren Bemühungen zur Modernisierung mit dieser Strategie auf der sicheren Seite. Beim genauen Hinsehen fällt jedoch auf, dass der Schritt in die Cloud gut vorbereitet sein muss, damit Organisationen nicht veraltete Prozesse mit in die Cloud nehmen - und somit einen Teil der gewünschten Verbesserungen zunichte machen.

  • Cloud-Services: Basis für digitale Transformation

    Quo vadis, IT? Der Buzzwords-Dschungel ist auch in diesem Frühjahr ziemlich dicht. Doch welche Trends sind für Unternehmen unmittelbar relevant? Ana Campos und Gerald Klump, Co-CEOs von Trivadis, haben die Antworten. Hochautomatisierte Datenplattformen, IT als Innovationspartner, Everything-as-a-Service, Trend-Radar als Kompass und Agilität im ganzen Ökosystem - das waren die Trivadis IT-Trends 2019. Für 2020 hat das IT-Dienstleistungsunternehmen diese Trends aktualisiert und weiterentwickelt. Sie stehen auch in diesem Jahr nicht für sich allein. Erst in Kombination können die beschriebenen Technologien bestmöglich genutzt werden: 2019 identifizierte Trivadis bereits den Trend zur Automatisierung, insbesondere von Datenplattformen. Dieser Trend wird sich in Form von Hyperautomatisierung noch weiter verstärken. Darunter versteht man die Erweiterung bestehender Automatisierungsfunktionen - etwa in Form von Robotic Process Automation (RPA) - um Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML). Auch für Gartner ist Hyperautomatisierung der wichtigste Technologie-Trend 2020. "Mit Hyperautomatisierung können insbesondere sich wiederholende Prozesse ohne menschliches Zutun effizient abgewickelt werden, so zum Beispiel in der Software-Entwicklung. Dies gibt Mitarbeitenden mehr Freiraum, sich um kreative oder komplexe Aufgaben zu kümmern - was das Unternehmen letztlich wettbewerbsfähiger macht", erklärt Ana Campos.

  • Gründe für Data-Warehouse-Modernisierung

    WhereScape stellt die Ergebnisse einer weltweiten Studie des Business Application Research Center (BARC) zum Thema "Modernisierung des Data Warehouse: Herausforderungen und Vorteile" vor. Im Rahmen der Umfrage wurden 368 Nutzer aus einem breiten Spektrum verschiedener Positionen, Branchen und Unternehmensgrößen zu den wichtigsten Trends für die Modernisierung des Data Warehouse befragt. Diese Modernisierung steht bei vielen der Befragten (39 Prozent) hoch auf der Prioritätenliste, um der zunehmenden Komplexität der Datenlandschaft entgegenzuwirken und ihre Infrastruktur und internen Prozesse agil halten zu können. Als der wichtigste Modernisierungsansatz des Data Warehouse- und ETL wird die Automatisierung angesehen. 60 Prozent der Befragten sehen sie als wichtigste Maßnahme zur Modernisierung des Data Warehouse an.

  • KI und Machine Learning spielen wichtige Rolle

    Die Digitalisierung schreitet unaufhaltsam voran, die Datenmengen vervielfachen sich und immer mehr Daten sollen nicht nur einfach gespeichert, sondern auch analysiert werden. Damit Unternehmen auch in naher Zukunft den Wert der Daten noch voll ausschöpfen können, sollten sie bei der gegenwärtigen Storage-Technik stets mithalten und diese Trends berücksichtigen: Ein Hemmschuh für die Modernisierung von Speicher-Infrastrukturen ist häufig das hardwarezentrierte Denken. Daten liegen meistens auf diskreten Speichersystemen, die nur bedingt oder gar nicht kompatibel zueinander sind. So eine Heterogenität führt zu Problemen bei der Datenmigration sowie zu Verwaltungs- und Kostenineffizienz. Heutzutage befreit Software-Defined Storage (SDS) die IT von dieser Abhängigkeit. SDS-basierte Lösungen können mehrere Arten von Speichern, Anbietern, Protokollen und Netzwerkschnittstellen abstrahieren. Speichern ist dann einfach Speichern und keine komplexe Kompatibilitätswissenschaft mehr.

  • Enterprise Applications in der Cloud

    Enterprise Applications sind das Herz der Unternehmens-IT. Sie bilden die wichtigen Geschäftsprozesse ab, sammeln dafür geschäftskritische Daten und werten diese aus. Priorität hat daher die Sicherheit und Integrität der Daten. Diese dürfen beim Speichern, Archivieren und Transport zwischen den Systemen für Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Contract Lifecycle Management (CLM) oder Product Information Management (PIM) nicht verloren gehen. Deshalb müssen Unternehmensanwendungen hochverfügbar sein. Um die hohen Qualitätsansprüche von Enterprise Applications an das Datenmanagement zu gewährleisten, fordern viele Hersteller eine Zertifizierung von Storage-Lösungen für diesen Anwendungsfall. Aktuelle Entwicklungen erhöhen zudem die Anforderungen, um Enterprise Apps schnell den nötigen Datenzugriff zu verschaffen.

  • Fünf Trends, die die Sourcing-Strategie bestimmen

    Der Einsatz von Cloud Computing ist im Jahr 2020 gelebte Praxis. Aufgrund der Einfachheit und Skalierbarkeit solcher Angebote stellen sich immer mehr Mittelständler und Konzerne die Frage, ob sie weiter inhouse das Rechenzentrum betreiben oder Dienste in die Cloud auslagern wollen. Wichtige Aspekte bei solchen Prozessen sind die Berücksichtigung von IT-Sicherheit und die Wahrung der digitalen Souveränität. Für den ITK-Service-Provider Pfalzkom sind aber auch Cybersicherheit, Edge Computing, hybride Architekturen, Nachhaltigkeit sowie der War for Talents wichtige Themen, die den Markt in den kommenden Jahren verändern werden.

  • Cloud-Trends in der Energieversorgung

    Der prognostizierte globale Stromverbrauch soll in den nächsten Jahren immens ansteigen. Dies stellt Energieversorger vor ungeahnte Herausforderungen. Dennis Martin, Experte bei der metalogic GmbH in München, gibt einen Ausblick, wie smarte, Cloud-basierte Lösungsansätze die gesamte Energiebranche revolutionieren. metalogic ist Marktführer im jungen Markt für Forecasting-as-a-Service Lösungen und Managed Prognose Services, zuletzt konnte die Firma einen der sogenannten Big-Six der britischen Energieversorger als Kunden gewinnen. Von den vielen Faktoren, die den Stromverbrauch beeinflussen werden, sind vier als besonders relevant herauszustellen. Erstens die hohe Mobilität und der gestiegene Umfang der Kommunikation. Nur ein Beispiel: Der neue Funkstandard 5G soll den Stromverbrauch in den nächsten vier Jahren um bis zu 3,8 Milliarden Kilowattstunden in die Höhe treiben. Zweitens Industrie 4.0, mit all ihren Transformationsprozessen in den Bereichen Design (CAE, CAD), Produktion (zunehmender 3D-Druck-, Robotereinsatz und Produktionsprozesse) oder der IT-gestützten Steuerung und Logistik. Drittens: der Umstieg von fossilen Brennstoffen auf batteriebetriebene Fahrzeuge. Schlussendlich das Internet an sich ? Schnittstelle bei der Verknüpfung der meisten modernen Anwendungen und Knotenpunkt für das wirtschaftliche und geopolitische Wachstum, aber eben auch einer der größten Stromfresser unserer Zeit.

  • Wachsende Menge an Cloud-Dienstleistungen

    Managed-Service-Provider sind gezwungen, ihre Rolle grundlegend neu zu definieren, meint IT-Dienstleister Consol. Nur so werden sie im Spannungsfeld von großen Cloud-Playern und veränderten Kundenanforderungen überleben können. Der Cloud Computing-Markt hat in den letzten Jahren einen massiven Wandel vollzogen. Große Player wie Amazon, Google oder Microsoft nehmen eine dominierende Rolle ein und die Kunden stellen neue, höhere Anforderungen an Cloud-Angebote. Damit und mit dem Einzug von DevOps und agilen Methoden haben sich die Rahmenbedingungen für den Betrieb im Allgemeinen und für Managed-Services im Besonderen grundlegend geändert. Auf diese Veränderungen muss auch ein Managed-Service-Provider reagieren, um seine Marktposition zu behaupten.

  • Bedeutung umfassender Transparenz für Apps

    Domino's Pizza wird immer beliebter. Ein Grund dafür ist, dass Kunden nach ihrer Bestellung den gesamten Prozess in der App verfolgen können: Wann wird die Pizza zubereitet, wann in den Ofen geschoben, in eine Schachtel verpackt oder im Lieferauto eingeladen. Schließlich kann der Kunde dem Boten schon die Tür öffnen, bevor dieser klingelt. Denn er weiß genau, wann die heiße Pizza ankommt. Obwohl eine solche Nachverfolgung für eine Pizza- oder Paketlieferung heute möglich ist, erreichen viele Unternehmen noch nicht den gleichen Grad an Sichtbarkeit für ihre geschäftskritischen Anwendungen. Warum ist das so?

  • Secure Access Service Edge (SASE)

    Vor nicht allzu langer Zeit noch wurden die Begrifflichkeiten der Cloud-Sicherheit und der Security Cloud oftmals in einen Topf geworfen und miteinander vermischt. Trotz eines gravierenden Unterschieds. War von Cloud-Sicherheit die Rede, wurde ebendiese der Wolke oftmals abgesprochen - es schwang immer ein gewisses Unbehagen mit der sicheren Datenvorhaltung in der Cloud mit. Die Security-Cloud im Unterschied dazu dient gerade der Sicherheit. Denn dabei wird die Funktionalität von Hardware-Appliances in die Cloud verlagert und den Kunden als Service zur Verfügung gestellt. Heute hat die Cloudifizierung auf breiter Front in Unternehmen Einzug gehalten und die Diskussionen um die Cloud-Sicherheit sind angesichts der Vorteile und Entwicklungen verstummt. Da es oftmals sogar die Anwendungen sind, die den jeweiligen Cloud Computing-Anbieter, wie AWS, Google oder Azure auf der Grundlage ihrer spezifischen Anforderungen vorgeben, sind Multicloud-Umgebungen längst auf der Tagesordnung in Unternehmen.