- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

Herausforderung Netzwerk-Edge


Netzwerk-Edge – Schlüsselfaktor im Wettbewerb
Fünf Herausforderungen beim Thema Netzwerk-Edge

- Anzeigen -





Digitalisierung und IoT gehören zu den meistdiskutierten Themen für die strategische Weiterentwicklung von Geschäftsprozessen in Unternehmen und die Bereitstellung neuer Angebote. Weniger diskutiert wird die Infrastruktur, die für die Umsetzung dieser Entwicklungen nötig ist. Das Netzwerk ist nicht nur die Basis für die heute erforderliche Agilität und unterbrechungsfreie Konnektivität, sondern auch der Wegbereiter für digitale Initiativen. Dabei spielt die Netzwerk-Edge eine Schlüsselrolle mit der Unternehmen einen Wettbewerbsvorteil erzielen können.

Denn hier verbinden sich Mitarbeiter, Kunden und Partner miteinander. Den Edge-Bereich optimal zu handhaben kann daher heute den entscheidenden Faktor für Geschäftserfolge oder Niederlagen ausmachen. Netzwerkspezialist Extreme Networks hat die fünf größten Herausforderungen zusammengefasst, die Unternehmen hierbei bewältigen müssen und zeigt auf, wie Weiterentwicklungen in der Netzwerktechnologie dabei helfen können.

Die Zusammenführung von Technologie, Standorten, Benutzern und Geräten hat eine hohe Komplexität geschaffen. Standorte, an denen sich Benutzer verbinden, sind über das unternehmenseigene Campus-Netzwerk hinaus gewachsen. Das gilt für alle Branchen – im Einzelhandel genauso wie in der Fertigung, dem Gesundheitswesen, bei großen Veranstaltungszentren oder Firmen mit Standorten auf der ganzen Welt.

Die Benutzerkonnektivität umfasst nicht nur Ethernet und Wi-Fi, sondern auch Technologien wie Bluetooth, IoT und vieles mehr. So entsteht ein Gewirr aus Hardware, Betriebssystemen und Diensten, die alle über verschiedene Dashboards verfügen und unterschiedliche Benutzererfahrungen mit sich bringen. Die Aufgabe, an der viele Unternehmen scheitern, ist, diese Vielzahl an Komponenten an die sich ändernden Geschäftsanforderungen anzupassen.

Zu den größten Herausforderungen gehören dabei:

1. Das Internet of Things: Die Integration von IoT-Technologie birgt einerseits eine enorme Schwierigkeit für Unternehmen, andererseits bietet sie aber auch ein großes Geschäftspotenzial für IT- und Services-Anbieter. Das Spektrum der unter IoT zusammengefassten Technikthemen ist dabei groß und reicht von intelligentem Beleuchtungs- und Energiemanagement über Videoüberwachung bis hin zu Datenerfassungsprojekten. Das Management und die Sicherheit von IoT-Geräten sind dabei Schlüsselfaktoren für die Organisationen. Gesichertes Onboarding und eine zentrale Überwachung für kabelgebundene und drahtlose IoT-Geräte ist daher besonders wichtig, um den sicheren Zugriff von IoT-Geräten auf das Netzwerk zu gewährleisten.

2. Big Data: Eine der größten Problemstellungen für das Netzwerk-Edge Management ist die schiere Menge an Daten. Da immer mehr Benutzer und IoT-Geräte miteinander vernetzt werden, haben viele Organisationen große Schwierigkeiten, die Datenflut der anfallenden Informationen zu verarbeiten, zu transportieren, zu analysieren und zeitnah zu reagieren. Herkömmliche Architekturen, bei denen der Datenverkehr vom Edge zum Rechenzentrum fließt, können dies nicht länger gewährleisten.

3. Cloud-Nutzung: Nutzer suchen zunehmend nach Cloud Computing-Lösungen für eine schnellere und einfachere Bereitstellung von Anwendungen. Heute werden die meisten Anwendungen für die Cloud geschrieben. Der Marktwert für Projekte im Bereich Public Cloud wird nach Schätzungen von Forrester in diesem Jahr 178 Milliarden US-Dollar erreichen. 2017 lag er bereits bei 146 Milliarden US-Dollar. 50 Prozent der Unternehmen werden laut der Analysten mindestens eine Public Cloud Computing-Lösung einsetzen, was eine entsprechende Verlagerung der Ressourcen mit sich bringt.

4. Enterprise Wi-Fi: Nahezu alle Unternehmen sind heute auf eine ununterbrochene mobile Konnektivität angewiesen, wie das anhaltend starke Wachstum des Marktes für Enterprise WiFi zeigt. Laut Interop ITX "2018 State of Infrastructure" planen 55 Prozent der Unternehmen mehr Ausgaben für den Bereich Netzwerk, darunter vor allem auch Wireless- und Wide-Area-Networking. Denn die meisten Probleme haben Unternehmen laut zahlreicher Umfragen bei der Bereitstellung und dem Management der drahtlosen Netzwerkbereiche.

5. Netzwerk-Sicherheit: Durch die Ausweitung von Netzwerken nimmt auch die Gefahr von Sicherheitslücken weiter zu. Berichte über Angriffe zeigen, dass kein Unternehmen vor dieser Gefahr sicher ist. Die Angriffsmethoden nehmen an Komplexität zu, und auch die Zahl der Attacken steigt weiter. Neben dieser Bedrohung zwingen aber auch die Infrastrukturänderungen im Zuge der digitalen Transformation Unternehmen dazu, ihre Sicherheitsstrategie grundlegend zu ändern, wie 69 Prozent der IT-Verantwortlichen laut Forbes und BMC angeben.

Innovationsschub in der Netzwerktechnologie
Erfreulicherweise findet im Bereich der Netzwerktechnologie aber auch ein bedeutender Innovationsschub statt, der dazu beitragen kann, diese Probleme zu lösen.

Künstliche Intelligenz und Machine Learning: Der Einsatz von künstlicher Intelligenz und maschinellem Lernen kann Unternehmen auf vielfältige Weise unterstützen. Die Einsatzoptionen reichen von der Verbesserung der Sicherheit bis hin zur Unterstützung von Geschäftsprozessen, um wertvolle IT-Ressourcen freizusetzen. Machine Learning kann auch dabei helfen, veraltete (Legacy) Modelle des Infrastruktur-Managements zu transformieren. Dabei können Betriebsabläufe vereinfacht werden, was zusätzlich die Kosten senkt. Gleichzeitig bieten die neuen Modelle umfassende Einblicke in das Benutzerverhalten, was die Aussagekraft von Netzwerkanalysen steigert und die Produktivität von Netzwerkbetreibern verbessert.

Multi Cloud: Die Vorherrschaft der Cloud, hybride IT-Strategien und Multi-Cloud-Dienste beeinflussen die Art und Weise, wie Unternehmensnetzwerke bereitgestellt werden. IDC erwartet, dass traditionelle Rechenzentren bis zum Jahr 2020 nur noch knapp 50 Prozent des Marktes ausmachen, während Lösungen auf Public Cloud Basis gut 30 Prozent und Lösungen mit Private Cloud rund 20 Prozent des Marktvolumens einnehmen werden. Es geht also heute auch darum, ein Bereitstellungsmodell zu wählen, das langfristig Flexibilität und maximalen Nutzen ermöglicht.

Multi-Cloud-Konnektivität sicherzustellen ist daher ein Weg, Flexibilität im Unternehmen einzurichten, um Cloud-Technologien und -Dienstleistungen verschiedener Anbieter so zu kombinieren, dass sie genau den jeweiligen Anforderungen entsprechen. Dies kann zukünftig über öffentliche Clouds, mehrere virtuelle oder lokale private Clouds, verwaltete oder nicht verwaltete Cloud-Lösungen sowie eine Mischung dieser Komponenten umgesetzt werden.

Personalisierung im Edge-Bereich: Um heute erfolgreich zu sein, müssen Unternehmen ihre Dienstleistungen differenzieren und personalisieren, um den Bedürfnissen ihrer Kunden gerecht zu werden. Fortschrittliche Netzwerklösungen schaffen die Basis für Analysen, die nicht nur mehr Transparenz für die Netzwerknutzung bieten und die Leistungsfähigkeit verbessern, sondern auch Einsichten in die Interaktion mit Kunden liefern. Auf diese Weise können Angebote passgenau zugeschnitten und für eine optimale Benutzererfahrung angepasst, die betriebliche Effizienz verbessert und das Netzwerk somit gewinnbringend genutzt werden.

Resümee
oT-Geräte, von Blutdruckmessgeräten über Fusionspumpen bis hin zu Preis-Checkern oder Sensoren, sind in den Randbereichen des Netzwerks angeschlossen und schaffen damit auch neue Angriffsflächen für Sicherheitslücken. Gleichzeitig werden im Edge-Bereich Daten für Analysen gewonnen, durch die entscheidende Vorteile erzielt und personalisierte Services bereitgestellt werden können. Der Einsatz von künstlicher Intelligenz, Multi-Cloud-Lösungen und neuer Möglichkeiten für die Personalisierung können nicht nur dabei helfen, die Netzwerk-Edge unter Kontrolle zu bringen, sondern auch die angesprochenen Wettbewerbsvorteile umzusetzen. Wer nicht nur Sicherheitskonzepte direkt im Netzwerk integrieren, sondern auch mit Datenanalysen und maschinellem Lernen sowie AI-Funktionen eine Prozessautomatisierung und personalisierte Angebote umsetzen kann, der hat sehr gute Chancen, sich von der Konkurrenz abzusetzen.
(Extreme Networks: ra)

eingetragen: 23.08.18
Newsletterlauf: 13.08.18

Extreme Networks: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Grundlage für anstehende Pilotzertifizierungen

    Das Ziel des Forschungsprojektes "Auditor" ist, eine EU-weite nachhaltig anwendbare Datenschutzzertifizierung von Cloud-Diensten zu konzeptionieren, exemplarisch umzusetzen und zu erproben. Nun haben die Projektpartner einen wesentlichen Meilenstein erreicht: Mit der Neufassung des Kriterienkatalogs liegt ab jetzt ein Prüfstandard für die Datenschutz-Zertifizierung von Cloud-Diensten gemäß den Anforderungen der EU-Datenschutz Grundverordnung (DSGVO) vor. Ein Cloud-Anbieter muss in seiner Rolle als Auftragsverarbeiter Vorschriften erfüllen, um seine Datenverarbeitungsvorgänge zertifizieren zu lassen. Durch den "Auditor"-Kriterienkatalog werden die technikneutralen Vorschriften der DSGVO in prüffähige, normative Kriterien übersetzt.

  • Sechs Gründe für Cloud-basiertes Data Warehouse

    Ein Data Warehouse, das Daten aus verschiedenen Quellen zusammenfasst, um sie analysieren und darauf reagieren zu können, ist heute entscheidend für den Geschäftserfolg. Denn es verarbeitet schnell die enormen Datenmengen, die sich heute in Unternehmen ansammeln. Darauf basierend können Führungskräfte zuverlässige datenbasierte Entscheidungen treffen. Allerdings halten es fast zwei Drittel der kürzlich befragten Experten für "schwierig" oder "sehr schwierig", ihre Data Warehouse-Lösung zu verwalten. So entwickeln sich Cloud-basierte Data Warehouses aufgrund der steigenden Komplexität und Menge der Daten zur effizientesten Möglichkeit, diese Komplexität zu reduzieren und gleichzeitig die zunehmend geforderte Agilität, Sicherheit und Performance zu gewährleisten.

  • Nach Möglichkeit keine Nur-Cloud-Ansätze

    Cloud-Lösungen sind auch im IT-Security-Bereich zunehmend verbreitet. Viele Anbieter verlagern Sicherheitsmechanismen und andere Dienste in ihre Rechenzentren, anstatt diese auf klassische Weise bei den Kunden vor Ort (On-Premises) zu betreiben. Doch ist die Anti-Malware-Lösung aus der Cloud tatsächlich die geeignete Variante für jeden Anwendungsfall? Und wo genau liegen eigentlich die möglichen Vor- und Nachteile des Virenschutzes aus der Wolke?

  • Argumente für Unified Communications

    In der heutigen Arbeitswelt, die von Dienstleistungen und wissensbasierten Tätigkeiten geprägt ist, steigt die Bedeutung von Kommunikation und Zusammenarbeit immer weiter. Gleichzeitig erhöht die Consumerization den Druck auf Organisationen, ihren Mitarbeitern intuitive und einfach zu nutzende Applikation zur Verfügung zu stellen. Schon seit geraumer Zeit überlegen daher viele Unternehmen und IT-Führungskräfte, ihre Kommunikationslösungen zu streamlinen und Video, Telefonie, Chat und das Teilen von Dateien in einem zentralen System zusammenzuführen.

  • Cloud: Effizienter Weg zum E-Government

    Um in Zeiten von "Cloud first"-Strategien und IoT Bürgern bestmöglich behilflich zu sein, müssen sich auch die Behörden selbst neu erfinden - und mit ihnen die IT-Profis, die den digitalen Wandel gestalten und verwalten. Während neue Technologien im Privaten heute so schnell Einzug halten wie noch nie, sind IT-Experten in Behörden vielerorts noch mit Überzeugungsarbeit oder Kinderkrankheiten beschäftigt. Hie und da fehlen schlichtweg die Mittel, woanders ist die digitale Transformation eben noch kein Teil der Unternehmenskultur - beides kann sich negativ auf Effizienz und Sicherheit auswirken.

  • DataOps: Eine willkommene Hilfestellung

    In der heutigen Geschäftslandschaft ist jede Firma mit Wettbewerbsanspruch ein Datenunternehmen. Denn wer dauerhaft erfolgreich bleiben möchte, muss alle verfügbaren Daten strategisch einsetzen. Dabei sollen Firmen aber weiterhin sensible Kundeninformationen konsequent schützen und die Vielzahl neuer und strengerer Datenvorschriften (über)erfüllen. Gleichzeitig benötigen allerdings immer mehr Nutzer und Mitarbeiter Zugang zu immer mehr und umfangreicheren Datensätzen. Mit DataOps können Unternehmen hier die Balance zwischen Sicherheit und Zugänglichkeit finden.

  • AIOps-Ansatz liefert klare Vorteile

    Über Fehler in ihrem IT-Betrieb erfahren Unternehmen heute meist dadurch, dass sich Kunden über Probleme beschweren. Eine Umfrage von AppDynamics hat ergeben, dass 58 Prozent der IT-Teams durch Anrufe oder Kunden-E-Mails über Fehlfunktionen informiert werden. Führungskräfte oder andere Mitarbeiter außerhalb der IT entdecken 55 Prozent der bekannten Probleme. 38 Prozent werden durch User Posts in sozialen Netzwerken aufgedeckt. Natürlich wäre es für alle Beteiligten besser, wenn Unternehmen Fehler finden, bevor sich Kunden beschweren, oder sogar strukturelle Probleme so früh erkennen, dass Fehler gar nicht erst auftreten. Die enorme Komplexität heutiger Systeme und Infrastrukturen erlaubt das, zumindest auf konventionellen Wegen, nicht mehr. In einem vergleichsweise einfachen technischen System, wie einer Dampfmaschine, kann ein guter Maschinist durch regelmäßige Wartung für einen reibungslosen Betrieb sorgen. Er weiß, wo er seine Maschine schmieren muss, welche Belastungen er ihr zumuten kann und wann es Zeit wird, Verschleißteile auszutauschen. In modernen digitalen Systemen können Menschen dieses Verständnis nicht mehr erreichen.

  • Angst vor einem "Lock-in"

    Die Wahl der richtigen Plattform für Unternehmensapplikationen mag auf den ersten Blick nebensächlich erscheinen, dabei hat sie immensen Einfluss auf alle folgenden Entscheidungen im Hinblick auf die Entwicklungsumgebung. Denn fällt die Wahl auf den falschen Cloud Computing-Anbieter, das falsche Betriebssystem oder die falsche Programmiersprache kann das im Nachhinein bei Mitarbeitern zu Unzufriedenheit und Zähneknirschen führen und durch erhöhten Personalaufwand richtig teuer werden. Um das zu vermeiden, geht der Trend in Entwicklungsteams immer mehr zu (Software-)Containern und Microservices. Indem sie Fremdmaterial entfernen und die Größe der Images auf das erforderliche Maß reduzieren, erleichtern es Container, Software zielgerichtet einzusetzen. Und diese Konzentration auf das Wesentliche steigert die Produktivität von Entwicklern enorm. Eine Umfrage von 451 Research hat das jüngst noch einmal eindrucksvoll belegt: Rund 57 Prozent der befragten Unternehmen nannten die Produktivität der Entwickler als einen entscheidenden Grund für ihren Wechsel zu Containern.

  • Wie Hosting scheitern kann

    Wer ein Unternehmen betreibt, kommt um eine Präsenz im Web nicht herum. Egal ob Gastronomie, Industrie, Handwerk, Fashion, Kosmetik, Medien, Versicherungen oder Anwälte, selbst kleinste Privatunternehmer nutzen eine Internetseite, um ihre Dienste oder Produkte anzubieten. Dabei ist es wichtig, dass die Seite online immer verfügbar ist, sehr schnell lädt und es nicht zu Ausfallzeiten kommt. Je mehr Inhalt eine Website bietet und je höher die Besucherzahlen sind, umso größer ist die Gefahr, dass es zu Ausfällen oder langen Ladezeiten kommt. Dies betrifft jedoch nicht nur kleine Unternehmen, sondern auch Mittelständler und Enterprise. "Ein optimaler Webauftritt kann nur mithilfe von Hosting in professionellen Rechenzentren ausfallsicher und hochperformant abgebildet werden", weiß Torben Belz, Geschäftsführer der Plutex GmbH, und fügt hinzu: "Wer sich im Dschungel der Hosting-Optionen nicht auskennt, kann hier schnell Fehler machen."

  • Georedundanz gebender Rechenzentren

    Kurz vor Weihnachten hat das BSI (Bundesamt für Sicherheit in der Informationstechnik) seine Empfehlung für die Entfernung georedundanter Rechenzentren von fünf auf 200 Kilometer angehoben. Die Gründe für diese Empfehlung sind im neuen Leitfaden des BSI "Kriterien fu¨r die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" genau dokumentiert. Was die Entfernung von einander Georedundanz gebender Rechenzentren betrifft, empfahl das BSI bisher einen Mindestabstand von fünf Kilometern. Mit der neuen, im Dezember 2018 veröffentlichten Empfehlung, hebt das BSI diese Distanz drastisch an. "Da es aber, insbesondere durch den Blick in die Vergangenheit, nicht möglich ist, zukünftige potentiell schädliche Situationen und Ereignisse ausreichend sicher vorherzusagen, sollten einander Georedundanz gebende Rechenzentren einen Mindestabstand von circa 200 Kilometer zueinander haben", führt das BSI in seinen Standort-Kriterien unter Punkt 3.3 aus - 40-mal so viel wie bisher. "Ist im Einzelfall ein deutlich geringerer Abstand unabweisbar", so das BSI weiter, " ist diese Notwendigkeit schriftlich ausführlich darzulegen und einer Risikoanalyse zu unterziehen". Doch auch dann, sollten georedundante Rechenzentren keinesfalls unter 100 Kilometer auseinanderliegen.