- Anzeige -


Sie sind hier: Startseite » Markt » Tipps und Hinweise

VoIP behindert das Faxen


Warum der leise ISDN-Tod einen Angriff auf den Kommunikationskanal Fax darstellt
Die Deutsche Telekom möchte ISDN-Anschlüsse sukzessive auf VoIP-Verbindungen umstellen - Die Änderungen werden den Faxversand extrem be- bzw. verhindern - Fax.de erklärt die Probleme beim Umstieg von ISDN-Anschlüssen

(26.08.15) - ISDN-Anschlüsse gehören in Deutschland bald der Vergangenheit an. Die Deutsche Telekom plant, sie ab 2018 nicht mehr zu verkaufen und sukzessive auf Voice over IP umzustellen. Leider sind VoIP-Verbindungen längst nicht so zuverlässig wie ISDN-Verbindungen. Was die Telefonie nicht stört, behindert den Faxversand enorm. Die Telekom erzwingt die Digitalisierung, ohne eigene alternative Faxmöglichkeiten zu schaffen. Wer weiterhin schnell und sicher faxen möchte, muss zukünftig auf Faxdienstleister im Web umsteigen. Was das für den seit den Achtzigerjahren etablierten Kommunikationsweg Fax bedeutet, erklärt Telekommunikationsanbieter Fax.de.

VoIP mit Mut zur Lücke
Der Faxversand funktioniert mit einer konstanten Datenübertragungsrate von 64kBit/s, die ISDN, nicht aber VoIP garantiert. Für die Sprachübertragung optimiert, gehen hier ab und zu Datenpakete verloren. Telefonierende stört das kaum. Ihnen fällt womöglich ein kleines Knacken in der Leitung auf. Mit dem Verlust von Datenpaketen können die auf Modemsignale angewiesenen Faxübertragungen nicht umgehen. Sie führen zum Abbruch; eine Faxübertragung kommt nicht zustande. Eine Herausforderung für Unternehmen, Anwälte oder Ärzte: Sie faxen täglich umfangreiche, vertrauliche Dokumente und Handschriftliches, weil es schnell und sicher gelingt und weil Gerichte Faxe als rechtssicher betrachten. Zudem ist es vergleichsweise schwer, Faxübertragungen anzuzapfen und Dokumente zu manipulieren.

Welche Optionen bleiben?
Für Fax over IP gibt es das Protokoll T.38, das moderne Router beherrschen. Viele VoIP-Anbieter unterstützen es allerdings nicht mit der widerlegten Begründung, Modemverbindungen würden auch über die qualitativ hochwertigen VoIP-Verbindungen klappen. Trotz großer Bandbreiten kommt es bei Internetverbindungen jedoch jederzeit zu Paketverlusten oder Laufzeit-Schwankungen.

"Mag bei entsprechender Router-Einstellung der Versand eines Einseiters noch klappen, sind mehrseitige Faxe via VoIP unmöglich", weiß Fax-Pionier Bernd Zschaler. Um die zugrunde liegende verlässliche Übertragung von Modemsignalen zu garantieren, hat sich sein Unternehmen Fax.de ISDN-Leitungen im Glasfasernetz gesichert. Seine Kunden managen den Faxdienst im Internet mit wenigen Klicks. Von ihnen hochgeladene digitale Dokumente, wie zum Beispiel PDFs, Doc- oder Jpg-Files, sendet Fax.de im Telefonnetz ausschließlich über analoge und ISDN-Leitungen in bester Übertragungsqualität. Ungestörte Abläufe sichert das eigene deutsche Rechenzentrum. Wer also weiterhin erfolgreich faxen will, weicht ins Internet aus.

Bei der Wahl des Fax-Anbieters empfiehlt Zschaler generell einen Blick ins Kleingedruckte: "Manche Dienste versenden nur Text, während wir das gesamte Layout inklusive Logos und Bilder transportieren. Wenn der Anbieter das Fax bei fehlgeschlagenem Zustellversuch ausdruckt und per Post ausliefert, sieht man sich unter Umständen mit Tempo und Preisen der Deutschen Post konfrontiert und die Vorteile des Faxes sind dahin." (Fax.de: ra)

Fax.de: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Tipps und Hinweise

  • Applikationen nur so gut wie das Netzwerk

    Die Cloud-Nutzung ist laut bitkom auf Rekordniveau bei Unternehmen. Allerdings ist die Leistung der Applikationen in der Cloud nur so gut wie das Netzwerk. Doch herkömmliche WANs können den Ansprüchen eines modernen Datenverkehrs kaum gerecht werden. Das traditionelle Router-zentrierte Modell ist netzwerkgesteuert. Dies bedeutet im Wesentlichen, dass das Unternehmen gezwungen ist, sich an die Einschränkungen des Netzwerks anzupassen. Traditionelle Router, die vor der Cloud entwickelt wurden, führen den gesamten für die Cloud bestimmten Datenverkehr von Zweigstellen zurück zum Rechenzentrum, anstatt direkt zu Software-as-a-Service (SaaS)- bzw. Infrastructure-as-a-Service (IaaS)-Anwendungen und -Instanzen. Das beeinträchtigt die Leistung und die Produktivität immens.

  • Im Visier: Managed Service Provider

    Chester Wisniewski, Principal Researcher bei Sophos, hat ein Gespür für Trends, und zwar welche neuen perfiden Methoden sich im kriminellen Online-Ökosystem entwickeln. Angriffe über Managed Service Provider (MSP) hat er kommen sehen. Die jüngsten Beispiele von attackierten Zahnarztpraxen bestätigen nun seinen Spürsinn. Allerdings können wenige Sicherheitsmaßnahmen bereits große Wirkung im Kampf gegen die Hacker erzielen. Ransomware ist eine starke Waffe der Cyberkriminellen. Und es entwickelt sich ein neuer Trend - die Infizierung von Unternehmen über deren Managed Service Provider. Die jüngsten Opfer allein in den USA: Hunderte von Zahnarztpraxen und Kommunen. Chet Wisniewski, der Forensik und das Vorhersagen von cyberkriminellen Entwicklungen zu seinem Beruf gemacht hat, hatte die Probleme und Gefahren von MSPs bereits seit langem im Auge und empfiehlt konkrete Schritte zur Vermeidung.

  • Sicherheitsmodell für Cloud-gehostete Anwendungen

    Die wichtigsten Sicherheitsprobleme im Zusammenhang mit der Cloud sind laut einer Studie von Checkpoint die mangelnde Transparenz und die Konformität der Infrastruktur. Der nicht autorisierte Zugriff auf die Cloud, unsichere Schnittstellen, Cloud-Konfigurationsfehler und die missbräuchliche Verwendung von Konten sind die vier Hauptschwachstellen der Public Cloud. Für Kristian Thyregod, Vice President EMEA bei Silver Peak, stehen diese Themen im Mittelpunkt der digitalen Transformationsprozesse von Unternehmen. SaaS-Anwendungen und die IT-Infrastruktur ihrer eigenen Rechenzentren stellen eine beachtliche Herausforderung für CIOs dar.

  • Fehlende Präzision: Formulierung der Projektziele

    Eine unpräzise Formulierung der Projektziele, unklare Kompetenzverteilung und zum Teil eine unzureichende Ausbildung und Fähigkeiten in der Anwendung von Projektmanagement-Methoden sind nach Angaben des Beratungsunternehmens iTSM Group die häufigsten Ursachen für das Scheitern von IT-Projekten in der Öffentlichen Verwaltung. Und ein solches Scheitern ist nicht selten - nach unterschiedlichen Studien wird in diesem Bereich nur jedes zweite Projekt erfolgreich abgeschlossen. Das kürzlich vom Bundesrechnungshof massiv kritisierte Digitalisierungsprojekt der Bundesregierung ist hier also nur der Gipfel des Eisbergs. Die fehlende Präzision bei der Formulierung der Projektziele führt laut iTSM zum einen zu Orientierungslosigkeit bei den Projektbeteiligten und zum anderen zu einem gefährlichen Eigenleben von Teilprojekten, denen ein gemeinsames Ziel fehlt und die sich zum Schluss nicht sinnvoll integrieren lassen. Nachbesserungen, Verzögerungen oder gar das Scheitern des gesamten Projekts sind die Folgen.

  • Sicherheitsniveau in der Cloud

    Die Cloud bietet zahllose Vorteile, auf die heute kaum mehr ein Unternehmen verzichten kann. Wer sich jedoch für den Schritt in die Cloud entscheidet, sollte sich im Vorfeld vor allem mit einem Thema auseinandersetzen: der Sicherheit. Die meisten denken dabei wohl zuerst an entsprechende Software-Lösungen. Wirkliche Sicherheit in der Cloud lässt sich jedoch nur über ein komplexes Geflecht aus Prozessen, Richtlinien und Technologien bewerkstelligen, das sich vom Endpoint, über die Daten, bis hin zur Umgebung selbst erstreckt. Anwender müssen sich darüber im Klaren sein, dass es in Cloud-Umgebungen Unmengen an sensiblen Daten zu schützen gilt. Im Durchschnitt sehen Unternehmen sich mittlerweile mit 31,3 sicherheitsrelevanten Zwischenfällen pro Monat konfrontiert - eine enorme Steigerung gegenüber dem Vorjahr.

  • Cloud-Trends werden Cloud-native

    Cloud-native Anwendungen stellen spezifische Anforderungen an die Softwareentwicklung und -bereitstellung. Klassische CI- und CD-Tools stoßen hier schnell an ihre Grenzen. Consol stellt drei neue CI- und CD-Projekte vor und beleuchtet ihr Potenzial. Im Zuge des allgemeinen Cloud-Trends werden Cloud-native Applikationen immer wichtiger. Sie basieren verstärkt auf Microservices-Architekturen, die neue Anforderungen an Continuous Integration (CI) und Continuous Delivery (CD) stellen. CI- und CD-Tools sowie Workflows müssen sich vor allem an die Geschwindigkeit und die Komplexität der Cloud-nativen Möglichkeiten anpassen. "Klassische" CI- und CD-Tools wie Jenkins mit ihren Funktionalitäten sind hier weniger geeignet. Stattdessen rücken inzwischen vermehrt neue Tools ins Blickfeld, die direkt aus der Cloud-nativen Entwicklung heraus entstanden sind und somit keine "Altlasten" mit sich tragen. Wichtige Kriterien, die sie erfüllen sollten, sind unter anderem Hosting und Scheduling auf Kubernetes, Container als Pipeline-Schritte, Web-UI und "Pipeline as Code".

  • Einsatz Cloud-basierter ERP-Systeme

    Daten sind der Treibstoff des digitalen Wandels, und der enorme Zuwachs an Geschäftsanwendungen und Tools trägt dazu bei, dass die Datenmenge stetig wächst. So haben die Analysten von 451 Research herausgefunden, dass bei 29 Prozent der befragten Führungskräfte die Datenmenge um 100 bis 500 Gigabyte (GB) pro Tag und bei 19 Prozent sogar um 500 GB bis 1 Terabyte (TB) zunimmt. Bei 13 Prozent ist es ein Zuwachs von 2 TB. Eine umfassende Datenstrategie sowie ein gut gemanagter und sicherer Datenbestand, der Entscheidungen unterstützt, sind in diesem Zusammenhang mehr als ein Wettbewerbsvorteil, sondern essentieller Schlüssel zum Erfolg. Oracle gibt Unternehmen fünf Tipps, worauf sie in Bezug auf die sich stetig wandelnde Position des Chief Data Officer (CDO) achten sollten.

  • In fünf Schritten zu mehr Sicherheit in der Cloud

    Der beschleunigte Wandel der technischen Infrastruktur, die digitale Transformation und die zunehmende Cloud-Nutzung verändern die Herausforderungen für Unternehmen, ihre kritischen Vermögenswerte zu sichern, erheblich. Cloud-Security gewinnt somit immer mehr an Bedeutung. Die Dynamik der Public Cloud schafft dazu eine komplexe Steuerungsebene, in der zu schützende Daten in einer Umgebung wahrgenommen werden, die das Sicherheitsteam nicht kontrollieren oder überwachen kann. Die großen Plattformen Amazon, Google und Microsoft nehmen einen immer größeren Anteil des Cloud-Markts ein. Grund genug für Hacker, diese Plattformen aktuell sehr genau ins Visier zu nehmen, um deren Schwachstellen zu finden. Welche Maßnahmen können Unternehmen ergreifen, um ihre Cloud-Umgebung besser zu schützen?

  • Steigende Beliebtheit von Cloud-Lösungen

    Cloud Computing-Services werden bei deutschen Unternehmen immer beliebter: Im Jahr 2018 setzten laut Statista bereits 73 Prozent Cloud-Dienste ein. Laut Bitkom Research speichert die Hälfte deutscher Unternehmen auch personenbezogene Daten in der Cloud, rund ein Drittel der befragten Unternehmen sogar geschäftskritische Inhalte in der Public Cloud. Sicherheitsanbieter McAfee veröffentlichte jüngst noch genauere Zahlen, nach denen Office 365 31 Prozent, Salesforce rund 16 Prozent, Slack und Google Docs je 2 Prozent dieser Unternehmensdaten beherbergt. "Das ist problematisch, wenn man bedenkt, dass 47 Prozent der Unternehmen in 2018 Attacken auf Cloud-Services registrierten und im selben Jahr fast jeder zweite Anbieter von Cloud-Services zum Ziel einer DDoS-Attacke wurde", warnt Patrycja Tulinska, Geschäftsführerin der PSW Group. Nicht ohne Grund, denn der Nachholbedarf in Sachen Datensicherheit in der Cloud ist tatsächlich groß. Insbesondere in der Microsoft-eigenen Cloud-Lösung OneDrive stiegen die Missbrauchsvorfälle enorm: Allein im ersten Quartal 2019 wurden bereits 60 Vorkommnisse gezählt. Auch Dropbox wird vermehrt für Schadsoftware missbraucht: Zwischen dem letzten Quartal 2018 und dem ersten Quartal 2019 wurden mehr als 80 Vorfälle registriert.

  • Cloud-Angebotslücke schließen

    Noch hält sich in der Geschäftswelt hartnäckig der Irrglaube, dass Public Cloud Provider ausreichend Daten sichern. Ein gefährlicher Trugschluss, denn Gesetzesverstöße, IT-Ausfälle und die Unfähigkeit, darauf zu reagieren, können sehr schnell sehr teuer werden. Jedoch stehen Drittanbieter-Lösungen, die für die nötige Sicherheit und hohe Datenverfügbarkeit sorgen, längst bereit. In der Regel betreiben Unternehmen heute hybride, sich wandelnde Umgebungen. Jeder neue Cloud Provider, der hinzukommt, fordert die IT-Abteilung stark. Unter anderem ist es ihre Aufgabe, die nötigen Datensicherungen zu etablieren, die im Notfall zum Wiederherstellen dienen. "Zum Glück kümmern sich die Cloud Provider um Backup & Recovery", da die meisten Cloud Services als hochverfügbar ausgelegt sind, denken sich Verantwortliche dann oft und atmen auf. Leider ist das ein großer Irrtum, der fatale Folgen haben kann.