- Anzeige -


Sie sind hier: Startseite » Markt » Hintergrund

IoT benötigt Automatisierung


In welche Richtungen investiert werden muss, um digitale Souveränität zu stärken
Aktuell zeigt sich in Europa eine starke Nutzung US-amerikanischer Digitalisierungstechnologien


- Anzeigen -





Mit Techniken wie Cloud Computing, IoT, AIT, Industrie 4.0 und KI durchzieht die digitale Transformation mittlerweile so gut wie alle Bereiche des Lebens. ITK-Infrastrukturen werden immer größer und komplexer und verändern sich aufgrund der Bereitstellung und Nutzung von Technologien aus unterschiedlichsten Ländern immer schneller. "Internationale Technologien zu nutzen und Entwicklungen zu beobachten ist für jedes Land wichtig. Doch darf der eigene Pioniergeist nicht einschlafen", warnt Torben Belz, Geschäftsführer der Plutex GmbH, und erläutert: "Gehen Innovations- und Entwicklungskraft verloren, büßt ein Land seine digitale Souveränität ein. Sie ist jedoch ein wichtiger Aspekt, um Entwicklungen der Branche aktiv mitzugestalten, Sicherheiten zu schaffen, politisch unabhängig zu bleiben und sich im globalen Ranking als Wirtschaftsstandort zu behaupten."

Wer nur nimmt, bleibt auf der Strecke
Aktuell zeigt sich in Europa eine starke Nutzung US-amerikanischer Digitalisierungstechnologien. Ansätze und Entwicklungen aus dem Technologiemekka Silicon Valley finden ihren Weg in die Köpfe deutscher Informatiker und Programmierer. Doch wer nur auf fremde Strategien setzt, verliert den Anschluss. Felix Herrmann, Historiker und Informatiker von der Forschungsstelle Osteuropa an der Universität Bremen, forscht zu Themen an der Schnittstelle von Informatik und Geschichte. Er weiß: "An den Entwicklungen in der UdSSR von den 50er Jahren bis in die 80er sieht man, welche fatalen Folgen es für die digitale Souveränität haben kann, wenn ein Land von Wissen und Technologien abgeschnitten wird."

Durch Technologiesanktionen und Geheimhaltungskultur geriet die UdSSR in den 50er Jahren in einen technologischen Rückstand und machte sich daraufhin, um diesen Rückstand schnell aufzuholen, die US-amerikanischen Entwicklungen, Designs und Systeme zu eigen. Ein Beispiel war an dieser Stelle die Entwicklung der ESER-Computerreihe. Hier beschaffte sich die UdSSR in Kooperation mit ihren osteuropäischen Verbündeten die technischen Unterlagen des IBM System/360 und entwickelte es nach. Zwar funktionierte die Adaption grundsätzlich, doch gab es diverse Nachteile, vor allem die hohen Importkosten für die komplizierten und oft illegalen Beschaffungen von Mustersystemen und Produktionsgeräten aufgrund von Sanktionen. Zum anderen trieb die UdSSR keine eigenen Entwicklungen mehr an, sondern konzentrierte sich auf die Adaption bereits bestehender, etablierter Entwicklungen. "Trotz dieser kostspieligen Maßnahmen hinkte der Ostblock zwischen 1950 und 1989 dem technologischen Standard des Westens vier bis zehn Jahre hinterher. Dieses Beispiel zeigt, dass digitale Souveränität von geopolitischen Konjunkturen abhängig ist und Hard- und Softwareproduktion im eigenen Land erfordert – und die kostet."

Entwicklung unterstützen
Deutschland rangierte vor vier Jahren noch im Mittelfeld. Wie jedoch aus dem Bitkom-Positionspapier "Digitale Souveränität" von 2015 zu entnehmen war, zeigt sich durchaus eine Entwicklung, was die Innovationskraft angeht. Deutsche Technologie-Start-ups leisten hier in puncto Innovationsgeist einen großen Beitrag, damit Deutschland weiter aufrückt und seine Position als souveräner Entwickler festigt. Doch häufig fehlen jungen und vor allem kleinen Unternehmen die Möglichkeiten, Entwicklungsumgebungen über eigene IT auf Hard- und Softwareebene zu realisieren. Das gilt in Bezug auf den finanziellen Aufwand sowie auf die benötigte Manpower, um diese Systeme nach den geforderten Kriterien sicher zu verwalten.

"Outsourcing in ein externes Rechenzentrum bietet den Vorteil, IT-Infrastrukturen nach dem Prinzip ‚so viel wie nötig, so wenig wie möglich‘ aufzubauen, sowie die Option, 24/7-Supports und Experten-Know-how nach Bedarf in Anspruch zu nehmen. Der geringe finanzielle Einsatz erleichtert es Unternehmern zu experimentieren und so ohne großes Risiko neue Ideen auszuprobieren", erklärt Torben Belz. Bei Investitionen und Förderungen sollten Regierung, Politik und Wirtschaft abwägen, wann es Sinn macht, ausländische Technologien und Know-how zu beziehen und wann finanzielle Mittel in eigene Entwicklungsprojekte fließen sollte.

Sicherheit, Struktur und Transparenz vereinen
Im Diskurs zum Thema digitale Souveränität nehmen Rechenzentren eine wichtige Position ein. "Wichtige Aspekte bei digitaler Souveränität sind regionale Verfügbarkeit der IT-Dienste und Ansprechbarkeit der Dienstleister sowie Sicherheit und vertrauenswürdige Infrastrukturen, das gilt für IT- und Netzinfrastrukturen, Soft- und Hardware sowie Cloud Computing-Technologien", weiß Torben Belz. Regionale europäische Rechenzentren bilden hier die Grundlage digitaler Souveränität von Wirtschaft und Politik in der Europäischen Union, denn nur sie erfüllen die angesprochenen Aspekte in vollem Umfang. Hier werden Rechenleistung, Hard- und Software sowie Netzwerkinfrastrukturen im großen Maßstab nach dokumentierten und kontrollierbaren Richtlinien bereitgestellt. Geschäftsführer und Techniker sind direkt ansprechbar, sodass Kunden aus Wirtschaft und Verwaltung die Kontrolle über ihre Daten und Anwendungen behalten und sichergehen, dass Wissen nicht durch Dritte abgeschöpft wird.

Zudem unterliegen europäische Rechenzentren dem strengen europäischen Datenschutzrecht, das unter anderem dafür sorgt, dass persönliche Daten nicht einfach in Rechenzentren von Dritten eingesehen, weitergegeben oder unbefristet aufgehoben werden dürfen. Hier sind klare Regeln zu Umgang und Speicherung definiert. Für die Einhaltung sind die jeweiligen regionalen Datenschutzbehörden verantwortlich. "Um eine schnelle, gut ausgebaute und sichere Netzwerkinfrastruktur aufzubauen, sind viele kleine Netzwerkprovider sinnvoller als ein großer Monopolist. Denn zum Beispiel gerade bei Entwicklungen im Bereich IoT und Realtime-Anwendungen ist es ein wichtiger Sicherheitsaspekt, dass die Verfügbarkeit des Netzwerkes nicht nur von wenigen großen Anbietern gesteuert werden kann, sondern die Netzwerke auch laufen, wenn einzelne Akteure ausfallen", schließt Torben Belz. (Plutex: ra)


eingetragen: 10.02.20
Newsletterlauf: 30.03.20

Plutex: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Hintergrund

  • Die Cloud ist bereits der Standard

    Schon längst nutzen die meisten Unternehmen flexible Cloud-Technologien, um ihre IT zu modernisieren. Die Cloud Computing-Angebote sind mittlerweile schon so weit ausgereift, dass viele Organisationen sogar eine "Cloud-First"-Strategie folgen. Das heißt, dass sie von vorneherein eher Cloud Computing-Dienstleistungen nutzen, anstatt eigene Systeme anzuschaffen. Die meisten Unternehmenslenker und IT-Manager wähnen sich bei ihren Bemühungen zur Modernisierung mit dieser Strategie auf der sicheren Seite. Beim genauen Hinsehen fällt jedoch auf, dass der Schritt in die Cloud gut vorbereitet sein muss, damit Organisationen nicht veraltete Prozesse mit in die Cloud nehmen - und somit einen Teil der gewünschten Verbesserungen zunichte machen.

  • Cloud-Services: Basis für digitale Transformation

    Quo vadis, IT? Der Buzzwords-Dschungel ist auch in diesem Frühjahr ziemlich dicht. Doch welche Trends sind für Unternehmen unmittelbar relevant? Ana Campos und Gerald Klump, Co-CEOs von Trivadis, haben die Antworten. Hochautomatisierte Datenplattformen, IT als Innovationspartner, Everything-as-a-Service, Trend-Radar als Kompass und Agilität im ganzen Ökosystem - das waren die Trivadis IT-Trends 2019. Für 2020 hat das IT-Dienstleistungsunternehmen diese Trends aktualisiert und weiterentwickelt. Sie stehen auch in diesem Jahr nicht für sich allein. Erst in Kombination können die beschriebenen Technologien bestmöglich genutzt werden: 2019 identifizierte Trivadis bereits den Trend zur Automatisierung, insbesondere von Datenplattformen. Dieser Trend wird sich in Form von Hyperautomatisierung noch weiter verstärken. Darunter versteht man die Erweiterung bestehender Automatisierungsfunktionen - etwa in Form von Robotic Process Automation (RPA) - um Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML). Auch für Gartner ist Hyperautomatisierung der wichtigste Technologie-Trend 2020. "Mit Hyperautomatisierung können insbesondere sich wiederholende Prozesse ohne menschliches Zutun effizient abgewickelt werden, so zum Beispiel in der Software-Entwicklung. Dies gibt Mitarbeitenden mehr Freiraum, sich um kreative oder komplexe Aufgaben zu kümmern - was das Unternehmen letztlich wettbewerbsfähiger macht", erklärt Ana Campos.

  • Gründe für Data-Warehouse-Modernisierung

    WhereScape stellt die Ergebnisse einer weltweiten Studie des Business Application Research Center (BARC) zum Thema "Modernisierung des Data Warehouse: Herausforderungen und Vorteile" vor. Im Rahmen der Umfrage wurden 368 Nutzer aus einem breiten Spektrum verschiedener Positionen, Branchen und Unternehmensgrößen zu den wichtigsten Trends für die Modernisierung des Data Warehouse befragt. Diese Modernisierung steht bei vielen der Befragten (39 Prozent) hoch auf der Prioritätenliste, um der zunehmenden Komplexität der Datenlandschaft entgegenzuwirken und ihre Infrastruktur und internen Prozesse agil halten zu können. Als der wichtigste Modernisierungsansatz des Data Warehouse- und ETL wird die Automatisierung angesehen. 60 Prozent der Befragten sehen sie als wichtigste Maßnahme zur Modernisierung des Data Warehouse an.

  • KI und Machine Learning spielen wichtige Rolle

    Die Digitalisierung schreitet unaufhaltsam voran, die Datenmengen vervielfachen sich und immer mehr Daten sollen nicht nur einfach gespeichert, sondern auch analysiert werden. Damit Unternehmen auch in naher Zukunft den Wert der Daten noch voll ausschöpfen können, sollten sie bei der gegenwärtigen Storage-Technik stets mithalten und diese Trends berücksichtigen: Ein Hemmschuh für die Modernisierung von Speicher-Infrastrukturen ist häufig das hardwarezentrierte Denken. Daten liegen meistens auf diskreten Speichersystemen, die nur bedingt oder gar nicht kompatibel zueinander sind. So eine Heterogenität führt zu Problemen bei der Datenmigration sowie zu Verwaltungs- und Kostenineffizienz. Heutzutage befreit Software-Defined Storage (SDS) die IT von dieser Abhängigkeit. SDS-basierte Lösungen können mehrere Arten von Speichern, Anbietern, Protokollen und Netzwerkschnittstellen abstrahieren. Speichern ist dann einfach Speichern und keine komplexe Kompatibilitätswissenschaft mehr.

  • Enterprise Applications in der Cloud

    Enterprise Applications sind das Herz der Unternehmens-IT. Sie bilden die wichtigen Geschäftsprozesse ab, sammeln dafür geschäftskritische Daten und werten diese aus. Priorität hat daher die Sicherheit und Integrität der Daten. Diese dürfen beim Speichern, Archivieren und Transport zwischen den Systemen für Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Contract Lifecycle Management (CLM) oder Product Information Management (PIM) nicht verloren gehen. Deshalb müssen Unternehmensanwendungen hochverfügbar sein. Um die hohen Qualitätsansprüche von Enterprise Applications an das Datenmanagement zu gewährleisten, fordern viele Hersteller eine Zertifizierung von Storage-Lösungen für diesen Anwendungsfall. Aktuelle Entwicklungen erhöhen zudem die Anforderungen, um Enterprise Apps schnell den nötigen Datenzugriff zu verschaffen.

  • Fünf Trends, die die Sourcing-Strategie bestimmen

    Der Einsatz von Cloud Computing ist im Jahr 2020 gelebte Praxis. Aufgrund der Einfachheit und Skalierbarkeit solcher Angebote stellen sich immer mehr Mittelständler und Konzerne die Frage, ob sie weiter inhouse das Rechenzentrum betreiben oder Dienste in die Cloud auslagern wollen. Wichtige Aspekte bei solchen Prozessen sind die Berücksichtigung von IT-Sicherheit und die Wahrung der digitalen Souveränität. Für den ITK-Service-Provider Pfalzkom sind aber auch Cybersicherheit, Edge Computing, hybride Architekturen, Nachhaltigkeit sowie der War for Talents wichtige Themen, die den Markt in den kommenden Jahren verändern werden.

  • Cloud-Trends in der Energieversorgung

    Der prognostizierte globale Stromverbrauch soll in den nächsten Jahren immens ansteigen. Dies stellt Energieversorger vor ungeahnte Herausforderungen. Dennis Martin, Experte bei der metalogic GmbH in München, gibt einen Ausblick, wie smarte, Cloud-basierte Lösungsansätze die gesamte Energiebranche revolutionieren. metalogic ist Marktführer im jungen Markt für Forecasting-as-a-Service Lösungen und Managed Prognose Services, zuletzt konnte die Firma einen der sogenannten Big-Six der britischen Energieversorger als Kunden gewinnen. Von den vielen Faktoren, die den Stromverbrauch beeinflussen werden, sind vier als besonders relevant herauszustellen. Erstens die hohe Mobilität und der gestiegene Umfang der Kommunikation. Nur ein Beispiel: Der neue Funkstandard 5G soll den Stromverbrauch in den nächsten vier Jahren um bis zu 3,8 Milliarden Kilowattstunden in die Höhe treiben. Zweitens Industrie 4.0, mit all ihren Transformationsprozessen in den Bereichen Design (CAE, CAD), Produktion (zunehmender 3D-Druck-, Robotereinsatz und Produktionsprozesse) oder der IT-gestützten Steuerung und Logistik. Drittens: der Umstieg von fossilen Brennstoffen auf batteriebetriebene Fahrzeuge. Schlussendlich das Internet an sich ? Schnittstelle bei der Verknüpfung der meisten modernen Anwendungen und Knotenpunkt für das wirtschaftliche und geopolitische Wachstum, aber eben auch einer der größten Stromfresser unserer Zeit.

  • Wachsende Menge an Cloud-Dienstleistungen

    Managed-Service-Provider sind gezwungen, ihre Rolle grundlegend neu zu definieren, meint IT-Dienstleister Consol. Nur so werden sie im Spannungsfeld von großen Cloud-Playern und veränderten Kundenanforderungen überleben können. Der Cloud Computing-Markt hat in den letzten Jahren einen massiven Wandel vollzogen. Große Player wie Amazon, Google oder Microsoft nehmen eine dominierende Rolle ein und die Kunden stellen neue, höhere Anforderungen an Cloud-Angebote. Damit und mit dem Einzug von DevOps und agilen Methoden haben sich die Rahmenbedingungen für den Betrieb im Allgemeinen und für Managed-Services im Besonderen grundlegend geändert. Auf diese Veränderungen muss auch ein Managed-Service-Provider reagieren, um seine Marktposition zu behaupten.

  • Bedeutung umfassender Transparenz für Apps

    Domino's Pizza wird immer beliebter. Ein Grund dafür ist, dass Kunden nach ihrer Bestellung den gesamten Prozess in der App verfolgen können: Wann wird die Pizza zubereitet, wann in den Ofen geschoben, in eine Schachtel verpackt oder im Lieferauto eingeladen. Schließlich kann der Kunde dem Boten schon die Tür öffnen, bevor dieser klingelt. Denn er weiß genau, wann die heiße Pizza ankommt. Obwohl eine solche Nachverfolgung für eine Pizza- oder Paketlieferung heute möglich ist, erreichen viele Unternehmen noch nicht den gleichen Grad an Sichtbarkeit für ihre geschäftskritischen Anwendungen. Warum ist das so?

  • Secure Access Service Edge (SASE)

    Vor nicht allzu langer Zeit noch wurden die Begrifflichkeiten der Cloud-Sicherheit und der Security Cloud oftmals in einen Topf geworfen und miteinander vermischt. Trotz eines gravierenden Unterschieds. War von Cloud-Sicherheit die Rede, wurde ebendiese der Wolke oftmals abgesprochen - es schwang immer ein gewisses Unbehagen mit der sicheren Datenvorhaltung in der Cloud mit. Die Security-Cloud im Unterschied dazu dient gerade der Sicherheit. Denn dabei wird die Funktionalität von Hardware-Appliances in die Cloud verlagert und den Kunden als Service zur Verfügung gestellt. Heute hat die Cloudifizierung auf breiter Front in Unternehmen Einzug gehalten und die Diskussionen um die Cloud-Sicherheit sind angesichts der Vorteile und Entwicklungen verstummt. Da es oftmals sogar die Anwendungen sind, die den jeweiligen Cloud Computing-Anbieter, wie AWS, Google oder Azure auf der Grundlage ihrer spezifischen Anforderungen vorgeben, sind Multicloud-Umgebungen längst auf der Tagesordnung in Unternehmen.