- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

Fragen nach der richtigen Cloud


In der Theorie werden Daten und Workloads dank der Cloud immer mobiler und ungebundener
Statt geschlossener Systeme sind die modernen Architekturen ein abstraktes Netz aus Cloud-basierten Lösungen und Services – also Hybrid-Multi-Cloud Data Fabric statt Rechenzentrum.

- Anzeigen -





Von Atish Gude, Chief Strategy Officer bei NetApp

Viele der Trend-Technologien wie Künstliche Intelligenz (KI) oder das Internet of Things (IoT) sind bereits bekannte Größen. Diese werden sich durch ihre Rolle im Datenmanagement neu definieren – und dann eine noch zentralere Rolle im Arbeitsalltag einnehmen. Zusammen mit Containerisierung und noch intelligenteren IoT-Edge-Geräten können Entwickler damit im kommenden Jahr die nötigen Impulse für einen datengetriebenen Markterfolg und neue Geschäftsmöglichkeiten setzen.

Die NetApp IT-Prognosen für 2019

1) KI-Sprungbrett Cloud
Auch wenn wir gerade erst an der Oberfläche des KI-Potenzials kratzen, stehen immer mehr Software-Tools zur Verfügung, die – unterstützt durch die Rechenpower der Cloud – die Entwicklung von KI-Applikationen immer zugänglicher machen. Diese KI-Lösungen werden zum einen die nötige Performance und Skalierbarkeit für On- oder Off-Premises-Integration bieten. Zusätzlich stellt ihr Variantenreichtum auch die Unterstützung zahlreicher Datenzugriffsprotokolle und Dateiformate sicher – die entsprechende IT-Infrastruktur vorausgesetzt. Denn im KI-Bereich muss diese schnell, verlässlich und automatisiert sein, um die entstehenden Workloads schultern zu können. Diese Architekturen bereitzustellen, wird für Händler die nächste große Herausforderung werden.

2) Das IoT-Edge wird selbstständiger
Bisherige IoT-Geräte folgten immer dem "Nach Hause telefonieren"-Prinzip: Ihre Sensoren sammeln Daten, schicken diese zur Analyse weiter und warten auf weitere Instruktionen. Aber selbst mit dem kommenden 5G-Netz stehen diese Datenwege in die Cloud oder das Rechenzentrum und wieder zurück Entscheidungen in Echtzeit im Weg. Zusätzlich steigen die Datenmengen. Das verlagert die Datenverarbeitung Richtung Anwender bzw. deren Endgeräte. Deshalb werden immer mehr IoT-Geräte inhärente Kapazitäten für die Verarbeitung und Reduzierung ihrer gesammelten Daten enthalten.

Das erlaubt beispielsweise die Vorselektion relevanter Daten direkt im Gerät, das selbstständig entscheidet, welche Daten an Cloud oder Workstation weitergeleitet werden. Für Nutzer bedeutet das einen schnelleren Zugriff auf die Datensätze, die für ihre Arbeit wichtig sind, und eine Beschleunigung datengestützter Entscheidungsprozesse.

3) Einmal automagisch, bitte
Je mehr sich die IT-Infrastruktur von On-Premises-Systemen und -Servern löst, umso wichtiger ist es, dass das Speicher- und Datenmanagement hochgradig verlässlich und verfügbar ist. Statt geschlossener Systeme sind die modernen Architekturen ein abstraktes Netz aus Cloud-basierten Lösungen und Services – also Hybrid-Multi-Cloud Data Fabric statt Rechenzentrum. Dank Containerisierung und Hybrid-Cloud-Umgebungen müssen sich Entwickler nicht mit den Bestandteilen des Systems auseinandersetzen, sondern können voraussetzen, dass es eigenständig und automatisch funktioniert.

Dies kommt der veränderten Erwartungshaltung der Entwickler an die IT-Infrastruktur entgegen – sie soll einfach funktionieren, eben "automagisch". Neuer Faktor dieser zunehmend dynamischen Konstrukte werden prädiktive Technologien und Analysen sein, die Entwicklern und Entscheidern gleichermaßen helfen, fundierte Rückschlüsse aus ihren Daten zu ziehen.

4) Die Frage der richtigen Cloud
In der Theorie werden Daten und Workloads dank der Cloud immer mobiler und ungebundener. Praktisch stehen Unternehmen vor der Herausforderung, bei ihrem Datenmanagement die Balance zwischen vielen konkurrierenden Faktoren zu halten: Datensicherheit, Zugriffszeiten und Portabilität unterschiedlicher Services, um nur einige zu nennen. Und viele dieser Elemente unterliegen den Beschränkungen des jeweiligen Providers, Stichwort Platform- oder Vendor-lock-in. Gerade für kleinere Unternehmen ist deshalb die Einfachheit und Optimierung eines einzelnen Anbieters verlockend.

Komplexere Unternehmensstrukturen großer Konzerne erfordern wiederum eine Flexibilität und Service-Vielfalt, die nur Hybrid-Multi-Cloud-Umgebungen bieten können. Deren Kosteneffizienz ist ein weiteres Plus. Egal welchen Weg ein Unternehmen allerdings in die Cloud wählt, es war nie wichtiger, eine ganzheitliche Datenstrategie zu entwickeln, um das Meiste aus der gewählten Infrastruktur herauszuholen.

5) Containerisierung: Freiheit für die Workloads
Der Einzug der Containerisierung verspricht eine Hybrid-Cloud-Entwicklungsumgebung ohne Vendor-lock-in, die ihr Potenzial maximal ausschöpft. Dank De-facto-Standard Kubernetes für Multi-Cloud-Applikationen steht einem intuitiven Workload-Management nichts mehr im Wege. Das Tolle: Neue Cloud-Orchestrierungstechnologien, die auf Containern basieren, ermöglichen mehr Anwendungsfälle sowohl für Public- als auch On-Premises. Workloads können nun direkt an die Datenquellen verlagert werden, nicht wie bisher umgekehrt. Das fördert eine agile Entwicklungsumgebung und macht Schluss mit dem ständigen Umziehen von Applikationen – eine richtig gute Sache.
(NetApp: ra)

eingetragen: 11.01.19
Newsletterlauf: 20.02.19

NetApp: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Hintergrund

  • Der Cloud Act ist eine ganz reale Gefahr

    Der US Cloud Act ist eine immense Bedrohung für unseren gesamteuropäischen Wirtschaftsraum. Auf seiner Grundlage können US-amerikanische Behörden von Cloud-Providern aus den USA die Herausgabe sämtlicher Daten einer Person oder eines Unternehmens verlangen. Das gilt selbst dann, wenn sie sich auf Servern befinden, die in Deutschland oder der EU stehen - DSGVO-Hoheitsgebiet hin oder her. Häufig wird hier der Begriff "regionale Datenhaltung" verwendet, um deutsches Datenschutzrecht zu suggerieren - freilich ohne dabei das Durchgriffsrecht der US-Regierung zu benennen.

  • Der Mitarbeiter im Fokus der Cloud

    Cloud Computing verändert die Unternehmen und die Arbeitswelt. Die langjährige Skepsis der Deutschen gegenüber der Cloud ist vielerorts überwunden. Laut einer Bitkom-Studie setzten über 80 Prozent der großen Unternehmen bereits auf die Cloud. In der Praxis hat sich gezeigt, dass Flexibilität, Agilität, Skalierbarkeit und Kosteneffizienz gewichtige Vorteile der Cloud sind. Mitarbeiter können in der Wolke effektiver und entspannter arbeiten und das von jedem Ort der Welt aus. Die Marktforscher von Gartner haben dafür den Begriff "People-Centric Business" geprägt. Unternehmen werden künftig nur dann erfolgreich sein, wenn sie ihre Mitarbeiter in den Mittelpunkt ihrer Anstrengungen stellen und dabei die Vorteile nutzen, die die Cloud bietet. Die IT-Services-Marke der ManpowerGroup begleitet Kunden auf allen Schritten dieser digitalen Transformation.

  • Die Cloud ist bereits der Standard

    Schon längst nutzen die meisten Unternehmen flexible Cloud-Technologien, um ihre IT zu modernisieren. Die Cloud Computing-Angebote sind mittlerweile schon so weit ausgereift, dass viele Organisationen sogar eine "Cloud-First"-Strategie folgen. Das heißt, dass sie von vorneherein eher Cloud Computing-Dienstleistungen nutzen, anstatt eigene Systeme anzuschaffen. Die meisten Unternehmenslenker und IT-Manager wähnen sich bei ihren Bemühungen zur Modernisierung mit dieser Strategie auf der sicheren Seite. Beim genauen Hinsehen fällt jedoch auf, dass der Schritt in die Cloud gut vorbereitet sein muss, damit Organisationen nicht veraltete Prozesse mit in die Cloud nehmen - und somit einen Teil der gewünschten Verbesserungen zunichte machen.

  • Cloud-Services: Basis für digitale Transformation

    Quo vadis, IT? Der Buzzwords-Dschungel ist auch in diesem Frühjahr ziemlich dicht. Doch welche Trends sind für Unternehmen unmittelbar relevant? Ana Campos und Gerald Klump, Co-CEOs von Trivadis, haben die Antworten. Hochautomatisierte Datenplattformen, IT als Innovationspartner, Everything-as-a-Service, Trend-Radar als Kompass und Agilität im ganzen Ökosystem - das waren die Trivadis IT-Trends 2019. Für 2020 hat das IT-Dienstleistungsunternehmen diese Trends aktualisiert und weiterentwickelt. Sie stehen auch in diesem Jahr nicht für sich allein. Erst in Kombination können die beschriebenen Technologien bestmöglich genutzt werden: 2019 identifizierte Trivadis bereits den Trend zur Automatisierung, insbesondere von Datenplattformen. Dieser Trend wird sich in Form von Hyperautomatisierung noch weiter verstärken. Darunter versteht man die Erweiterung bestehender Automatisierungsfunktionen - etwa in Form von Robotic Process Automation (RPA) - um Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML). Auch für Gartner ist Hyperautomatisierung der wichtigste Technologie-Trend 2020. "Mit Hyperautomatisierung können insbesondere sich wiederholende Prozesse ohne menschliches Zutun effizient abgewickelt werden, so zum Beispiel in der Software-Entwicklung. Dies gibt Mitarbeitenden mehr Freiraum, sich um kreative oder komplexe Aufgaben zu kümmern - was das Unternehmen letztlich wettbewerbsfähiger macht", erklärt Ana Campos.

  • Gründe für Data-Warehouse-Modernisierung

    WhereScape stellt die Ergebnisse einer weltweiten Studie des Business Application Research Center (BARC) zum Thema "Modernisierung des Data Warehouse: Herausforderungen und Vorteile" vor. Im Rahmen der Umfrage wurden 368 Nutzer aus einem breiten Spektrum verschiedener Positionen, Branchen und Unternehmensgrößen zu den wichtigsten Trends für die Modernisierung des Data Warehouse befragt. Diese Modernisierung steht bei vielen der Befragten (39 Prozent) hoch auf der Prioritätenliste, um der zunehmenden Komplexität der Datenlandschaft entgegenzuwirken und ihre Infrastruktur und internen Prozesse agil halten zu können. Als der wichtigste Modernisierungsansatz des Data Warehouse- und ETL wird die Automatisierung angesehen. 60 Prozent der Befragten sehen sie als wichtigste Maßnahme zur Modernisierung des Data Warehouse an.

  • KI und Machine Learning spielen wichtige Rolle

    Die Digitalisierung schreitet unaufhaltsam voran, die Datenmengen vervielfachen sich und immer mehr Daten sollen nicht nur einfach gespeichert, sondern auch analysiert werden. Damit Unternehmen auch in naher Zukunft den Wert der Daten noch voll ausschöpfen können, sollten sie bei der gegenwärtigen Storage-Technik stets mithalten und diese Trends berücksichtigen: Ein Hemmschuh für die Modernisierung von Speicher-Infrastrukturen ist häufig das hardwarezentrierte Denken. Daten liegen meistens auf diskreten Speichersystemen, die nur bedingt oder gar nicht kompatibel zueinander sind. So eine Heterogenität führt zu Problemen bei der Datenmigration sowie zu Verwaltungs- und Kostenineffizienz. Heutzutage befreit Software-Defined Storage (SDS) die IT von dieser Abhängigkeit. SDS-basierte Lösungen können mehrere Arten von Speichern, Anbietern, Protokollen und Netzwerkschnittstellen abstrahieren. Speichern ist dann einfach Speichern und keine komplexe Kompatibilitätswissenschaft mehr.

  • Enterprise Applications in der Cloud

    Enterprise Applications sind das Herz der Unternehmens-IT. Sie bilden die wichtigen Geschäftsprozesse ab, sammeln dafür geschäftskritische Daten und werten diese aus. Priorität hat daher die Sicherheit und Integrität der Daten. Diese dürfen beim Speichern, Archivieren und Transport zwischen den Systemen für Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Contract Lifecycle Management (CLM) oder Product Information Management (PIM) nicht verloren gehen. Deshalb müssen Unternehmensanwendungen hochverfügbar sein. Um die hohen Qualitätsansprüche von Enterprise Applications an das Datenmanagement zu gewährleisten, fordern viele Hersteller eine Zertifizierung von Storage-Lösungen für diesen Anwendungsfall. Aktuelle Entwicklungen erhöhen zudem die Anforderungen, um Enterprise Apps schnell den nötigen Datenzugriff zu verschaffen.

  • Fünf Trends, die die Sourcing-Strategie bestimmen

    Der Einsatz von Cloud Computing ist im Jahr 2020 gelebte Praxis. Aufgrund der Einfachheit und Skalierbarkeit solcher Angebote stellen sich immer mehr Mittelständler und Konzerne die Frage, ob sie weiter inhouse das Rechenzentrum betreiben oder Dienste in die Cloud auslagern wollen. Wichtige Aspekte bei solchen Prozessen sind die Berücksichtigung von IT-Sicherheit und die Wahrung der digitalen Souveränität. Für den ITK-Service-Provider Pfalzkom sind aber auch Cybersicherheit, Edge Computing, hybride Architekturen, Nachhaltigkeit sowie der War for Talents wichtige Themen, die den Markt in den kommenden Jahren verändern werden.

  • Cloud-Trends in der Energieversorgung

    Der prognostizierte globale Stromverbrauch soll in den nächsten Jahren immens ansteigen. Dies stellt Energieversorger vor ungeahnte Herausforderungen. Dennis Martin, Experte bei der metalogic GmbH in München, gibt einen Ausblick, wie smarte, Cloud-basierte Lösungsansätze die gesamte Energiebranche revolutionieren. metalogic ist Marktführer im jungen Markt für Forecasting-as-a-Service Lösungen und Managed Prognose Services, zuletzt konnte die Firma einen der sogenannten Big-Six der britischen Energieversorger als Kunden gewinnen. Von den vielen Faktoren, die den Stromverbrauch beeinflussen werden, sind vier als besonders relevant herauszustellen. Erstens die hohe Mobilität und der gestiegene Umfang der Kommunikation. Nur ein Beispiel: Der neue Funkstandard 5G soll den Stromverbrauch in den nächsten vier Jahren um bis zu 3,8 Milliarden Kilowattstunden in die Höhe treiben. Zweitens Industrie 4.0, mit all ihren Transformationsprozessen in den Bereichen Design (CAE, CAD), Produktion (zunehmender 3D-Druck-, Robotereinsatz und Produktionsprozesse) oder der IT-gestützten Steuerung und Logistik. Drittens: der Umstieg von fossilen Brennstoffen auf batteriebetriebene Fahrzeuge. Schlussendlich das Internet an sich ? Schnittstelle bei der Verknüpfung der meisten modernen Anwendungen und Knotenpunkt für das wirtschaftliche und geopolitische Wachstum, aber eben auch einer der größten Stromfresser unserer Zeit.

  • Wachsende Menge an Cloud-Dienstleistungen

    Managed-Service-Provider sind gezwungen, ihre Rolle grundlegend neu zu definieren, meint IT-Dienstleister Consol. Nur so werden sie im Spannungsfeld von großen Cloud-Playern und veränderten Kundenanforderungen überleben können. Der Cloud Computing-Markt hat in den letzten Jahren einen massiven Wandel vollzogen. Große Player wie Amazon, Google oder Microsoft nehmen eine dominierende Rolle ein und die Kunden stellen neue, höhere Anforderungen an Cloud-Angebote. Damit und mit dem Einzug von DevOps und agilen Methoden haben sich die Rahmenbedingungen für den Betrieb im Allgemeinen und für Managed-Services im Besonderen grundlegend geändert. Auf diese Veränderungen muss auch ein Managed-Service-Provider reagieren, um seine Marktposition zu behaupten.