- Anzeige -


Sie sind hier: Startseite » Fachartikel » Grundlagen

Die Zukunft des File Sharing


Drei wichtige Technologien, die Filesharing fit für die Zukunft machen
Für Unternehmen zählen vor allem die komplette Hoheit über die Daten und deren Sicherheit, wie sie auch oft durch rechtliche Verpflichtungen vorgegeben werden, zu den wichtigsten Eigenschaften einer Filesharing-Lösung

- Anzeigen -





Von Lee Harrison, CEO Thru Inc.

Um den Austausch von Forschungsdaten zwischen verschiedenen Teams am CERN zu ermöglichen, erfand Tim Berners-Lee in den achtziger Jahren, als Nebenprodukt sozusagen, das Internet. Heute ist das Internet die tragende Säule der weltweiten Kommunikation und aus unserem digitalen Leben nicht mehr wegzudenken. Überraschenderweise hat sich seit den frühen Tagen des Internets kaum etwas verändert: Nach wie vor werden für die Übermittlung von Dateien Protokolle aus den Anfangstagen des Internets genutzt. Zum damaligen Zeitpunkt war jedoch eine Welt, in der Datenmengen exponentiell wachsen, Hacker an allerlei Daten interessiert sind und Organisationen in denen zehntausende Mitarbeiter täglich millionenfach Dateien teilen, noch nicht vorstellbar. Worauf sollten Unternehmen also achten, wenn sie eine zukunftssichere File Sharing-Lösung nutzen möchten? Und welche neuen Technologien halten Einzug um Filesharing sicherer, komfortabler und schneller zu machen?

File Sharing heute – EFSS ist die Lösung erster Wahl
Jahrelang setzten Unternehmen hauptsächlich auf E-Mail oder FTP um Dateien zu versenden. Beide sind, wie wir heute wissen, nicht sonderlich sicher. Auch unkontrollierte Filesharing-Dienste im Internet, meist konzipiert für Privatpersonen, wucherten wild in vielen Unternehmen. Angesichts wachsender Dateigrößen, mobilem Zugriff und gestiegenen Compliance-Anforderungen, mussten CIOs, CSOs und IT-Manager sich etwas einfallen lassen, um die Kontrolle über die sensiblen Daten ihres Unternehmens zurückzuerlangen. Die Lösung des Problems erfordert einen unternehmensweiten Ansatz, der sowohl sicher als auch einfach zu handhaben ist und sich idealerweise auch in alle wichtigen Anwendungen des Unternehmens integrieren lässt. Deshalb verabschieden sich mehr und mehr Unternehmen heutzutage von ihren veralteten Strategien und nutzen EFSS-Lösungen, mit denen von jedem Gerät aus Dateien jeglicher Größe einfach und sicher versendet werden können. EFSS ist allerdings kein industrieller Standard und niemand möchte auf Insellösungen setzen. Auf lange Sicht werden sich wohl nur Lösungen einiger Hersteller auszahlen, die eine ganzheitliche Vision verfolgen.

Für Unternehmen zählen vor allem die komplette Hoheit über die Daten und deren Sicherheit, wie sie auch oft durch rechtliche Verpflichtungen vorgegeben werden, zu den wichtigsten Eigenschaften einer Filesharing-Lösung. Die Lösung muss außerdem der IT volle Kontrolle überlassen und Möglichkeiten für umfassende Audits geben. Für Anwender wiederum sollte sie einfach zu nutzen sein und zahlreiche APIs bieten, damit sie nahtlos in zahlreiche bestehende Unternehmensanwendungen integriert werden kann. Um größtmögliche Flexibilität zu erlangen und von den Vorteilen der Cloud zu profitieren, sollte eine moderne EFSS-Lösung als Private, Public oder Hybrid Cloud einsetzbar sein.

Die auf dem Markt gängigen Lösungen bauen auf Plattformen für Privatanwender auf und in der Regel teilen Unternehmenskunden sich diese Plattformen in der Tat mit Hinz und Kunz. Plattformen wie etwa Dropbox, One Drive oder Google Drive, eignen sich allerdings von vorneherein nicht für Unternehmenskunden, da sie von Haus aus beispielsweise kein sicheres BYOD oder automatische Workflows bieten. Unternehmen verlangen heutzutage hingegen nach "schlüsselfertigen" Cloud Computing-Lösungen und zahlreiche Anbieter haben damit zu kämpfen, den hohen Anforderungen moderner Unternehmen gerecht zu werden. Diese Anforderungen werden sich mit der fortschreitenden digitalen Transformation noch weiter erhöhen und noch mehr Herausforderungen an das Filesharing stellen.

So sehen die künftigen File-Sharing-Anforderungen aus
Herausforderungen, die derzeit gemeistert werden müssen, sind das Versenden von Dateien über Leitungen mit geringer Bandbreite, das Versenden von sehr großen Dateien über den Globus hinweg und die Verbesserung der Zusammenarbeit vieler durch automatisierte Workflows.

Kontinuierliches Filesharing auch über geringe Bandbreite
In städtischen Gegenden ist schnelles Internet überall vorhanden. Unternehmen mit weit verzweigten Niederlassungen, Logistikfirmen oder etwa Kreuzfahrtanbieter haben jedoch nicht den Luxus von schnellen Verbindungen. Sie benötigen Lösungen, die das Filesharing und die Zusammenarbeit der Belegschaft über Verbindungen mit hoher Latenz garantieren, wie sie etwa Satellitenverbindungen bieten. Um die Bandbreite dieser Verbindungen voll auszuschöpfen, muss eine moderne EFSS-Lösung die verfügbare Bandbreite bestmöglich ausnutzen können. Dabei kommen Technologien wie Parallel Block Streaming, Data Caching und die Priorisierung von wichtigen Transfers zum tragen. Da Verbindungen mit geringer Bandbreite zu häufigen Unterbrechungen neigen, ist es wichtig, dass die Lösung in der Lage ist, die Übertragung an dem Punkt der Unterbrechung fortzusetzen anstatt, sie von neuem zu beginnen. Auf diese Weise kann die sichere Übertragung von Dateien und Nachrichten unabhängig von Netzwerkgeschwindigkeit garantiert werden. Darüber hinaus werden Kosten für teure Satellitenverbindungen eingespart.

Schnelleres Übertragen großer Dateien
Immer mehr Unternehmen nutzen zur Zusammenarbeit web-basierte Anwendungen für den Dateiaustausch. Die schnelle Übertragung von unterschiedlichen Geräten ist dabei von essentieller Bedeutung. Eine Plattform mit Rechenzentren überall in der Welt ist von Vorteil, wenn es darum geht, Daten schnell von überall her überall hin zu transferieren. Um nicht im allgemeinen Internetstau hängen zu bleiben und stets eine möglichst schnelle Übertragung zu garantieren, kommen unterschiedliche neue Technologien zum Einsatz:

Intelligentes Cloud-optimiertes Routing beispielsweise garantiert Übertragungen mit der jeweils größtmöglichen Geschwindigkeit. Die Technologie funktioniert wie ein Navi für Dateiübertragungen: Sie misst mit virtuellen Routern und Network Measure Agents in Echtzeit den weltweiten Datenstrom im Internet, um Staus zu ermitteln und diese durch aktives Routing zu vermeiden. Compliance und Sicherheit sind damit ebenso gewährleistet wie die volle Transparenz sämtlicher Übertragungen ohne Caching der Daten.

Automatisierung und Workflows von Filesharing mit zentralisiertem Management
Die Verwaltung von Dateien innerhalb bestehender Systeme wird für viele Unternehmen allmählich zu einem großen Problem. Diese gestaltet sich nicht nur auf Grund der steigenden Dateigröße komplex, sondern auch, weil die Systeme mit vielen unterschiedlichen Dateitypen und Protokollen klarkommen müssen. Was Unternehmen tatsächlich brauchen, sind spezialisierte Lösungen um Workflows einfach innerhalb ihrer genutzten EFSS-Plattform, zwischen Unternehmensapplikationen, Speicherdestinationen und Diensten zu erstellen.

Die richtige Lösung sollte es Unternehmen erlauben, simple und komplexe Workflows einfach zu erstellen um damit die Zusammenarbeit ihrer Belegschaft mit minimalem Aufwand zu vereinfachen. IT-Manager müssen eine Lösung in Betracht ziehen, die eine zentralisierte Verwaltung von oben herab zulässt, damit die Zersplitterung von Workflows vermieden wird. Automation richtig gemacht kann die profanen und lästigen Dinge des Arbeitsalltags von Mitarbeitern und Systemen nehmen, indem automatische Synchronisation zwischen verschiedenen Speicherdestinationen automatisiert wird. Dazu gehören FTP, SFTP, HTTP, Amazon S3, Azure, EFSS-Server und maßgeschneiderte Speicherlösungen.

Das Austauschen von Informationen ist, seitdem Tim Berners-Lee das HTTP-Protokoll für den Dateiversand genutzt hat, deutlich komplexer geworden. Archaische Technologien wie E-Mail, können den File-Sharing-Anforderungen moderner Organisationen längst nicht mehr gerecht werden. EFSS-Plattformen können diese Lösungen ersetzen und erhöhen damit Flexibilität, Sicherheit und Benutzerkomfort. In Zukunft werden bestehende File-Sharing-Plattformen um weitere Funktionen erweitert werden um das File-Sharing über geringe Bandbreite zu verbessern, große Dateien schneller zu übermitteln und dabei helfen Workflows zu optimieren. Unternehmen, die in EFSS-Lösungen investieren wollen, müssen sicher sein, dass eine Lösung sowohl aktuellen als auch zukünftigen Anforderungen gerecht wird.

Über Lee Harrison
Lee Harrison ist Chief Executive Officer bei Thru Inc., das er selbst im Jahr 2002 gegründet hat, um eine umfassende Lösung für die Dateiübertragung von Unternehmen zu entwickeln. Harrison ist ein Industrieveteran mit mehr als zwei Jahrzehnten Erfahrung im Management von Technologieunternehmen und setzte fortan die Markteinführung von Thrus robuster cloud-basierter Enterprise-Lösung um. Mit seiner Erfahrung sowohl im operativen Geschäft als auch bei Finanzen, Vertrieb und Mitarbeiterführung, führte Harrison Thru bis in Gartners Magic Quadrant als "Cool Verdorr". Vor Thru war Harrison Director of Operations bei Southwest Teleproductions sowie Gründer und CEO von I/O Partners Inc.
(Thru: ra)

eingetragen: 07.01.17
Home & Newsletterlauf: 10.01.17

Thru: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Grundlagen

  • Die richtigen Migrationsmethoden wählen

    Migrationen sind eine wenig beliebte Aufgabe vieler IT-Abteilungen. Wenn schon nicht alltäglich, so sind Migrationen doch eine regelmäßige Pflichtaufgabe, für die es zahlreiche Gründe gibt. Das Verschieben von Daten wird von der Führungsetage vieler Unternehmen oft nur als eine simple Fleißaufgabe wahrgenommen, bei der Ordner und Dateien per "Copy and Paste" wie im Windows Explorer einfach von A nach B verschoben werden. Man unterschätzt die notwendige Erfahrung, das spezielle Fachwissen und den Bedarf an Tools, um eine Migration erfolgreich umzusetzen. In der Realität wächst der Unternehmens-IT so manches Umzugsprojekt, das zunächst einfach aussah, schnell über den Kopf.

  • Auf Microservices setzen

    Die unternehmensinterne IT-Infrastruktur gereicht manchmal zum Mysterium: Sehr große Cloud Computing-Systeme, eine wachsende Anzahl an Microservices und zusätzlich bringt Homeoffice dutzende neue Schnittstellen, die es zu sichern gilt. Kurzum: Das alles zeigt, dass es bei Software-as-a-Service (SaaS)-Anbietern ein Umdenken braucht, wie sie ihren Kunden die zuverlässigsten und sichersten Cloud-Infrastrukturen zur Verfügung stellen. Unternehmen müssen daher einen neuen Standard bei sich anlegen, um die Erwartungen ihrer Kunden erfüllen zu können, denn nur zuverlässige Systeme ermöglichen eine erfolgreiche Service-Bereitstellung. Im Umkehrschluss bedeutet das allerdings, dass Entwickler noch mehr leisten.

  • Zwischen Utopie und Realität: Die dynamische Cloud

    Die Auswahl an Produkten, Funktionalitäten und Preisstaffelungen verschiedener Cloud-Plattformen ist vielfältig. Unternehmen können aus den Angeboten von Hyperscalern sowie zahlreicher mittelständischer Anbieter, die über spezifische Cloud-Portfolios inklusive Bare Metal und Dedicated Compute verfügen, wählen. In der Regel nutzen Organisationen mehr oder weniger flexible hybride Cloud Computing-Infrastrukturen, indem sie die Public Clouds der Hyperscaler mit ihrer eigenen Infrastruktur verbinden. Innerhalb einer Hybrid Cloud wünschen sich Kunden vor allem ein hohes Maß an Flexibilität, inklusive der Möglichkeit, einzelne Bestandteile der Cloud-Infrastruktur mühelos auf andere Anbieter übertragen zu können. Eine dynamische Cloud ist im Prinzip eine Multi-Cloud-Umgebung, in der sich Workloads und Daten zwischen den einzelnen Clouds verschieben lassen. Dies kann die jeweils effektivste Mischung und Skalierung ermöglichen, indem freie Instanzen in einem Umfeld von Multi-Cloud-Providern identifiziert und genutzt werden.

  • Datenzentrierte Sicherheit in der Multi-Cloud

    Datenzentrierung ist ein Faktor, der maßgeblich die Cloud- und IT-Security-Strategie in Unternehmen mitbestimmt. Je nach regulatorischen Vorgaben werden diverse Datenprozesse in geeigneter Weise abgesichert. Mit der wachsenden Cloud-Nutzung in den vergangenen Jahren entstehen in Unternehmen auch mehr und mehr Multi-Cloud-Umgebungen. Für diese spricht vor allem der Vorteil hoher Effizienz: Prozesse können zu den jeweils geringsten Kosten zu den am besten geeigneten Anbietern ausgelagert werden. Weitere Nebeneffekte für Unternehmen sind eine höhere Ausfallsicherheit, Skalierbarkeit und Stabilität der IT-Prozesse. Eigenschaften, die vor allem für den Remote-Betrieb in jüngster Vergangenheit überaus gefragt waren.

  • Das Datengedächtnis des Unternehmens sichern

    Sie besitzen sicherlich seit Jahren oder Jahrzehnten eine beachtliche Anzahl an Versicherungen. Doch spätestens bei der Durchsicht der eigenen Unterlagen zum Jahresabschluss beschleicht Sie in Anbetracht der vielen Abschlüsse und deren Kosten der Gedanke, warum Sie eigentlich diese Versicherungen Jahr für Jahr bezahlen, ohne sie ein einziges Mal in Anspruch genommen zu haben. Sie fackeln nicht lange und kündigen einige davon, unter anderem die Hausratversicherung. Doch kurz darauf ruiniert eine Rohrverstopfung mit Folgewasserschaden die Elektrik Ihrer sündhaft teuren Heimkinoanlage, den Edelteppich und die eben erst neu beschaffte Wohnzimmereinrichtung gleich mit dazu. Für den Schaden will niemand haften. Sie bleiben darauf und auf den hohen Folgekosten sitzen. Übertragen auf die Unternehmenspraxis wird sofort klar, warum eine klare Backup- und Recovery-Strategie zusammen mit einer zuverlässigen Backup-Lösung großen Ärger, lange Betriebsausfälle und hohe Umsatzverluste ersparen kann. Daher sollen im Folgenden drei Aspekte der Notwendigkeit einer funktionierenden Datensicherung und Datenwiederherstellung beleuchtet werden.

  • Kompromittierungsversuche von Cybersicherheit

    Cloud-Sicherheit war bis vor nicht allzu langer Zeit für die meisten Unternehmen zweitrangig. Das hat sich längst geändert, denn auf der Suche nach dem nächsten Ziel machen Cyberkriminelle sich bevorzugt Schwachstellen und Sicherheitslücken bei Cloud Computing-Diensten zunutze. Unternehmen können mit virtuellen privaten Netzwerken und Antivirensystemen zwar eine Menge tun, um Systeme sicherer zu machen. Einer der kritischsten und gerne übersehenen Aspekte ist allerdings nicht computerbezogen. Tatsächlich gehen 95 Prozent der Cyber-Sicherheitsverletzungen auf menschliches Versagen zurück. Dazu kommt, dass sich die meisten Cyberangriffe, auf kleinere Unternehmen konzentrieren, die sich im Gegensatz zu Großunternehmen keine teuren Sicherheitsteams leisten können. Für diese Firmen ist es nicht ganz leicht eventuelle Schwachstellen aufzufinden. Hier konzentrieren wir uns auf die Top 3 der Sicherheitsbedrohungen und was man dagegen tun kann.

  • SD-WAN bringt Stabilität ins Unternehmensnetzwerk

    Geringere Betriebskosten, effiziente Bandbreitennutzung, verbesserte User-Experience - Marktforscher attestieren dem Software-Defined Wide Area Network (SD-WAN) eine goldene Zukunft im Unternehmens-Backbone. Tatsächlich aber steht und fällt der Erfolg von SD-WAN mitdem Management von Netzwerkdiensten wie DNS, DHCP und IP-Adressverwaltung (DDI) in der Cloud. SD-WAN steht bei Netzwerkadministratoren derzeit hoch im Kurs.Gefragt sind entsprechende Technologien vor allem im Zusammenhang mit Migrationen in die Multi- beziehungsweise Hybrid-Cloud oder der Umsetzung von Software-as-a-Service (SaaS)-Strategien. Der Grund: Ein Umstieg in die Welt der dezentralen Datenverarbeitung bringt klassische Netzwerkinfrastrukturen - und deren Nutzer - rasch an die Belastungsgrenze. Hier wirken sich technische Herausforderungen wie hohe Latenzen oder Bandbreitenengpässe, etwa beim Einsatz ressourcenhungriger Anwendungspakete wie Microsoft Office 365, besonders negativ aus. Hinzu kommt, dass mit der IT aus der Wolke Netzwerk- und Security-Architekturen mehr und mehr zusammenwachsen. Anders ausgedrückt: Mit Cloud-First-Strategien wird die Administration traditioneller Netzwerke schnell zur Sisyphusarbeit.

  • DevOps werden zunehmend datengetrieben

    DevOps haben sich in der Software-Entwicklung in den vergangenen Jahren immer weiter durchgesetzt. Die effizientere und effektivere Zusammenarbeit von Entwicklung und IT-Betrieb bringt allen Beteiligten zahlreiche Vorteile: So steigt nicht nur die Qualität der Software, sondern auch die Geschwindigkeit, mit der neue Lösungen entwickelt und ausgeliefert werden. In 2019 haben wir gesehen, dass Automatisierung, künstliche Intelligenz und AIOps immer häufiger eingesetzt und von der DevOps-Gemeinschaft erforscht werden. Container und Functions as a Service nahmen weiter zu, so dass Entwickler und Betriebsteams ihre Anwendungen und Infrastruktur besser kontrollieren konnten, ohne die Geschwindigkeit zu beeinträchtigen. Doch wohin geht die Reise jetzt?

  • Cloud Computing-Daten schützen

    Mit wachsenden digitalen Geschäftsanforderungen investieren Unternehmen massiv in die Erweiterung ihrer Netzwerkverbindungsfähigkeiten, um sicherzustellen, dass ihre Daten den richtigen Personen zur richtigen Zeit zur Verfügung stehen. Insbesondere für Cloud-basierte, hochgradig vernetzte und agile Geschäftsmodelle ist die Gewährleistung eines ordnungsgemäßen Zugriffs auf Daten und Systeme unerlässlich. Zusammen mit der Konnektivität in immer komplexeren Infrastrukturen wachsen auch die Anforderungen an Netzwerk- und Datensicherheit. Wenn nicht die richtigen Schutzvorkehrungen getroffen werden, können Bedrohungen, die von Datenlecks und Fehlkonfigurationen bis hin zu Risiken durch Insider reichen, in jedem komplexen Cloud- und Netzwerkökosystem ihr Schadenspotenzial entfalten.

  • Durchsetzung von Cloud-Sicherheitsrichtlinien

    Cloud Computing-Services bieten Unternehmen heute eine kostengünstige und flexible Alternative zu teurer, lokal implementierter Hardware. Vorteile wie hohe Skalierbarkeit, Leistung und Effizienz sowie reduzierte Kosten liegen auf der Hand, sodass immer mehr Unternehmen ihre Anwendungen und Daten in die Cloud migrieren. Sensible Daten wie personenbezogene Informationen, Geschäftsgeheimnisse oder geistiges Eigentum sind jedoch neuen Risiken ausgesetzt. Denn in der Cloud gespeicherte Daten liegen außerhalb der Reichweite vieler lokaler Sicherheitsvorkehrungen. Unternehmen müssen deshalb zusätzliche Maßnahmen ergreifen, um ihre Daten in der Cloud, über den teils rudimentären Schutz der Anbieter hinaus, gegen Cyberangriffe und Datenlecks abzusichern. Allgemein sind Public-Cloud-Provider für die physische Sicherheit, globale und regionale Konnektivität sowie die Stromversorgung und Kühlung ihrer eigenen Rechenzentren zuständig. Dies ermöglicht Unternehmen eine flexible Skalierbarkeit und entlastet sie davon, eine eigene Infrastruktur wie ein Rechenzentrum oder Server-Hardware bereitzustellen. Zugleich liegt es in der Verantwortung der Unternehmen, all ihre in die Cloud migrierten Daten und Anwendung selbst auf gewünschte Weise zu schützen.