Meilenstein der Quantum Supremacy


Um Quanten-basierte Cloud-Dienste zu entwickeln, egal ob für kommerzielle oder akademische Zwecke, muss Google Quantenbits (Qubits) und Netzwerkdaten zusammenführen
Die Überlegenheit der Quantencomputer ist belegt – aber ohne maximale Transparenz in den Datenverkehr wird es nicht erfolgreich sein


Von Ron Lifton, Senior Enterprise Solutions Manager bei Netscout

Obwohl es zweifellos ein enormer Meilenstein ist, dass Google die Überlegenheit der Quantencomputer – die so genannte Quantum Supremacy – belegen konnte, steht dem Unternehmen noch eine gewaltige Aufgabe bevor.

Wenn schnelles und leistungsfähiges Quanten-Computing über die Cloud verfügbar wird, können riesige Datenmengen und Aufgaben millionenfach schneller bearbeitet werden. Die Technik wird damit unser Alltags- und Geschäftsleben entscheidend prägen. Beispielsweise könnten Anwendungen, die auf Quanten-Computing basieren, so diverse Problemfelder wie Verkehrsstaus, Internetkriminalität oder Krebserkrankungen einschränken oder gar verhindern. Dass Google nun den Meilenstein der Quantum Supremacy erreicht hat, bedeutet jedoch noch nicht, dass sie nun den Fuß vom Gas nehmen können. Vielmehr hat das Unternehmen damit den Startschuss für das Wettrennen um die Kommerzialisierung des Quanten-Computing gegeben. Denn nur mit dem Beleg, dass etwas möglich ist, kann man die Technologie noch lange nicht beherrschen.

Um Quanten-basierte Cloud-Dienste zu entwickeln, egal ob für kommerzielle oder akademische Zwecke, muss Google Quantenbits (Qubits) und Netzwerkdaten zusammenführen. Wenn Quanten-Cloud-Dienste jemals in der ersten Liga mitspielen sollen, benötigen sie immer eine Korrelation zu den im netzwerk verfügbaren Traffic-Daten, um den Benutzern einen Mehrwert zu bieten. Dies erzeugt eine besondere Herausforderung für IT- und Sicherheitsexperten, die einerseits die Verfügbarkeit von Services sicherstellen und eine andererseits einwandfreie Benutzererfahrung bieten müssen. Zum einen lösen Quanten-Cloud-Dienste eine Million Berechnungen gleichzeitig; zum anderen werden die Ergebnisse via Datentransfer über ein Cloud-, SD-WAN- oder ein 5G-Netzwerk bereitgestellt. Es spielt keine Rolle, ob Quanten-Computing heute oder morgen eine 100 Millionen Mal schnellere Antwort liefern kann als ein normaler Computerchip, wenn eine davon abhängige Anwendung Leistungsprobleme aufweist, die resultierenden Daten nicht sicher am Endgerät ankommen oder ein Datenschutzrisiko in Ihrem lokalen Rechenzentrum lauert.

Unabhängig davon, wie die Welt des Quanten-Computings in Zukunft aussehen wird, müssen IT-Teams wie NetOps und SecOps immer noch Netzwerkdaten verwenden, um einen umfassenden Einblick in den Datenverkehr zu erhalten, unabhängig davon, ob dieser im lokalen Rechenzentren oder in einer Cloud-Umgebung stattfindet. Netzwerkdaten werden verwendet, um Sichtbarkeitslücken zu füllen und damit Informationen einzusehen, die anderen verwehrt bleiben. Dies hilft wiederum dabei, verwertbare Informationen zu erhalten, um Cyber-Angriffe zu erkennen oder Beeinträchtigungen in der Verfügbarkeit schnell zu beheben. Quanten-Computing erhöht zwar die Geschwindigkeit, erweitert jedoch auch die Komplexität der Infrastruktur in ganz neue Dimensionen – was wiederum zu völlig neuen Herausforderungen und Fehlern führen kann. Um das Risiko zu verringern, muss daher der tote Winkel bei der Bereitstellung von Diensten entfernt werden. Dazu müssen Netzwerkdaten weiter mit Informationen angereichert und mit anderen Daten in Korrelation gesetzt werden, um dadurch die Komplexität der Infrastruktur zu verringern und so maximale Transparenz zu erreichen. Nur dann kann die IT im Unternehmen die Probleme, die sich auf Serviceleistung und -sicherheit auswirken, verstehen.

Bei aller Aufregung um die zukünftigen Möglichkeiten des Quanten-Computings können und sollte die Bedeutung von Netzwerkdaten daher nicht ignoriert werden. Während Google nach qualitativ hochwertigen Qubits strebt und neue Wege der Quantum Supremacy beschreitet, beruht der Erfolg letztendlich auf der Verwendung der richtigen Daten für die Gewährleistung und Sicherheit von Diensten in Zeiten einer unbegrenzten Anzahl von Geräten, Cloud-Anwendungen und exponentieller Skalierbarkeit. (NetScout: ra)

eingetragen: 16.10.19
Newsletterlauf: 21.11.19

Netscout Systems: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser PMK-Verlags-Newsletter
Ihr PMK-Verlags-Newsletter hier >>>>>>



Meldungen: Kommentare und Meinungen

  • Europäische digitale Souveränität

    Das Bundeswirtschaftsministerium hat den Förderstart für ein erstes Teil-Projekt des EU-Programms "IPCEI-CIS" angekündigt, mit dem Cloud- und Edge-Computing-Kapazitäten in der EU gestärkt werden sollen.

  • Von Abo- zu On-Premises-Lizenzen

    In einem aktuellen Interview warnt die renommierte Strategieberatung Gartner im Zusammenhang mit Cloud-Diensten vor schwerwiegenden Problemen wie Kostenzwängen und Kontrollverlust, die auch mit anderen Abo-Modellen einhergehen. Die Experten sprechen sich hingegen einmal mehr für klassische On-Premises-Softwarelizenzen aus und stellen sich damit gegen die oft einseitige und herstellernahe Berichterstattung zu Cloud- und Abo-Modellen. Eine Empfehlung, die LizenzDirekt bereits seit vielen Jahren in zahlreichen Publikationen, Podcasts und Gesprächen vertritt.

  • Abo- und Lizenz-Modelle hinterfragen

    Auf den ersten Blick ist lizenzbasierte Software außerordentlich überzeugend: Monatliche Belastungen sind niedrig, Laufzeiten flexibel und Abo-Kosten lassen sich als Betriebskosten sogar direkt absetzen. Alles im grünen Bereich also? Das Modell hat leider eine gigantische Schattenseite.

  • E-Commerce-Richtlinie ablösen

    Das EU-Parlament entschied über den Digital Services Act (DSA) und den Digital Markets Act (DMA). Dazu erklärt eco Geschäftsführer Alexander Rabe: "Der Digital Services Act bietet die Möglichkeit, den horizontalen Rechtsrahmen an die technologischen Entwicklungssprünge der letzten 20 Jahre anzupassen und damit die E-Commerce-Richtlinie abzulösen, die den Gegebenheiten der digitalen Kommunikation nicht mehr vollumfänglich gerecht wurde."

  • Nearshoring eine perfekte Lösung

    Während die Digitalisierung zügig voranschreitet, nimmt der Mangel an IT-Fachkräften stetig zu. Laut einer aktuellen Umfrage von Bitkom blieben im Jahr 2021 branchenübergreifend 96.000 IT-Stellen unbesetzt. Rund zwei Drittel (65 Prozent) aller befragten Unternehmen beklagten den Mangel an Fachkräften und fast ebenso viele (66 Prozent) erwarten, dass sich die Situation in Zukunft weiter verschärfen wird.

  • Die Angriffe auf Cloud-Service-Anbieter

    Mit dem Anstieg hybrider Arbeitsmodelle sehen wir, dass Unternehmen vermehrt Workloads (IT-Serviceeinheiten mit bestimmter Aufgabe) in die Cloud verlagern. Dieser Wandel bietet zwar große Vorteile in Bezug auf Flexibilität und Skalierbarkeit, birgt aber auch erhöhte Risiken für Sicherheit und Compliance. Ein einfacher Konfigurationsfehler kann dazu führen, dass Ihr gesamtes Unternehmen Bedrohungsakteuren ausgesetzt ist, die so auf Ihre kritischen Daten zuzugreifen oder Ransomware-Angriffe durchführen können.

  • Cloud Enabler: dedizierten Ansprechpartner stellen

    Immer mehr Unternehmen haben im Zuge der digitalen Transformation ihre IT bereits in die Cloud verlagert, sind gerade dabei oder planen die Migration. Ist der komplexe Prozess bewältigt, stehen Unternehmen vor der Frage, wie sie ihre Cloud Services managen. Zwar werden viele Aufgaben, die früher bei der eigenen IT-Abteilung angesiedelt waren, nun vom Cloud Provider als Service bezogen. Doch das Management gehört nicht dazu und muss von jemand anderem erbracht werden. Und auch für den Support muss eine gute Lösung gefunden werden.

  • Vorteile von Multi-Cloud-Arbitrage

    Während es von vielen als zynischer Trick gegen die führenden Cloud-Plattformen Microsoft und AWS angesehen wird, könnte das lange angekündigte BigQuery Omni, das Google auf der Next '21 allgemein freigibt, ein Meisterstück sein, mit dem Unternehmen die Möglichkeit erhalten, die Vorteile von Multi-Cloud-Arbitrage zu nutzen. Einfach ausgedrückt: Indem Google mit ihrer ganzen Macht eine Hybrid-Cloud-Strategie unterstützt, versetzt sie jeden in die Lage, über die vertraute Standardschnittstelle Daten abzufragen, die sich in anderen Clouds wie Microsoft Azure und AWS befinden - ohne Kopien der Daten zwischen den Clouds verschieben zu müssen.

  • Remote-Management über die Cloud

    Nach Solarwinds ist mit Kaseya binnen weniger Monate der zweite große Anbieter von Lösungen für Remote Management and Monitoring (RMM) zum Opfer von Hackern geworden - bereits vor zwei Jahren hatte es das deutsche Vorzeige-Start-up Teamviewer erwischt. Erneut sind damit auf einen Schlag hunderte oder sogar tausende Unternehmen ins Visier von Cyberkriminellen geraten, weil ihre remote gemanagten Systeme plötzlich für Eindringlinge offenstehen. Die Folgen sind kaum absehbar, denn die ersten Firmen - darunter die Supermarktkette Coop in Schweden - wurden bereits gezielt attackiert. Dem BSI zufolge sind zunehmend auch deutsche Unternehmen von Ransomware betroffen, die auf die Schwachstellen in der Kaseya-Software abzielt.

  • Auch in der Cloud hat Sicherheit ihren Preis

    Wer glaubt, dass die Daten in der Cloud in einem unangreifbarem Raum schweben, wird gerade eines Besseren belehrt, denn am 10. März 2021 brannte eines der Rechenzentren eines großen europäischen Cloud-Anbieters bis auf die Grundmauern nieder. In den fünf Etagen gingen über 12.000 Server in Flammen auf, wodurch laut Presse-Angaben auf einen Schlag alleine 3,6 Millionen Webseiten offline gingen. Viele denken, sich mit der Cloud auch ein Stück Sicherheit erkauft zu haben. In der Regel sind die Daten dort bestmöglich gegen viele Eventualitäten geschützt. Jedoch entbindet es die Dateninhaber nicht, die klassischen Sicherungsmaßnahmen der IT zu beachten. Die Welt ist nicht perfekt und immer kann die eine Festplatte zu viel ausfallen, ein Feuer ausbrechen oder ein tagelanger Starkregen die Wasserpumpen überfordern und die Stromzufuhr im Rechenzentrum stören. So ist es nicht das erste Mal, dass ein sicher geglaubtes System durch einen Störfall komplett ausgefallen ist.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen