- Anzeige -


Sie sind hier: Startseite » Markt » Unternehmen

Strategie und Lösungen für Big Data


Red Hat stellt Strategie für Big Data und Open Hybrid-Clouds vor: Big-Data-Infrastrukturlösungen und Applikationsplattformen für den Einsatz in Open Hybrid Clouds geeignet
Ferner wird das Unternehmen sein "Red Hat Storage Hadoop Plug-in" der Apache Hadoop Community zur Verfügung stellen


(12.03.13) - Red Hat hat ihre Strategie und Lösungen für Big Data vorgestellt. Unternehmen sind damit in der Lage, hochzuverlässige, skalierbare und einfach zu verwaltende Big-Data-Analytics-Applikationen zu erstellen und zu betreiben. Darüber hinaus wird das Unternehmen sein "Red Hat Storage Hadoop"-Plug-in der Apache Hadoop-Community zur Verfügung stellen. Das Ziel: "Red Hat Storage" soll zu einem Hadoop-kompatiblen Dateisystem für Big-Data-Umgebungen weiterentwickelt werden. Parallel dazu baut Red Hat ein umfangreiches Partnernetzwerk auf, um Unternehmen leistungsfähige Big-Data-Lösungen anbieten zu können. Dies ist ein weiteres Beispiel für die vielfältigen Initiativen von Red Hat im Big-Data-Sektor, die auf Innovationen aus der Open-Source-Community beruhen.

Die Big-Data-Infrastrukturlösungen und die Applikationsplattformen von Red Hat sind bestens für den Einsatz in Open-Hybrid-Clouds geeignet. In enger Kooperation mit der Open Source Community unterstützt Red Hat Kunden, die Big-Data-Anwendungen einsetzen. Viele Unternehmen weltweit nutzen Public Clouds, wie Amazon Web Services (AWS), für die Entwicklung, ein Proof-of-Concept und in der Pre-Production-Phase von Big-Data-Projekten. Anschließend übertragen sie die Ergebnisse in Private Clouds und bearbeiten mit ihren Analytics-Anwendungen sehr große Datenmengen.

Eine Open Hybrid Cloud ermöglicht Unternehmen, ihre Applikationen ohne Anpassungen von einer Public in eine Private Cloud zu übertragen. Red Hat engagiert sich im Rahmen von Projekten wie OpenStack und OpenShift Origin intensiv in der Open Cloud Community, um Unternehmen heute und in Zukunft optimal bei Big-Data-Projekten zu unterstützen.

Aktuell bietet Red Hat bereits eine Reihe von Lösungen an, mit denen Unternehmen Big-Data-Applikationen erstellen und betreiben können. Die Strategie konzentriert sich auf drei Hauptbereiche: Dazu gehört der Ausbau des Produktportfolios erstens bei Infrastrukturlösungen und zweitens bei Applikationsplattformen sowie drittens der Aufbau von Partnerschaften mit führenden Big-Data-Analytics-Anbietern und Systemintegratoren.

Big-Data-Infrastrukturlösungen

Red Hat Enterprise Linux:
Dem Linux Foundation Enterprise Linux User Report zufolge läuft die Mehrheit der Big-Data-Anwendungen unter Linux. Gleichzeitig ist Red Hat Enterprise Linux, die führende Lösung unter den kommerziellen Linux-Distributionen, die bedeutendste Plattform für Big-Data-Applikationen. Red Hat Enterprise Linux bietet eine hohe Leistung in verteilten Architekturen und enthält umfangreiche Features für Big Data. Die Verarbeitung riesiger Datenvolumina und anspruchsvolle Analytics-Berechnungen erfordern eine performante, zuverlässige, ressourceneffiziente und skalierbare Server- und Storage-Infrastruktur.

Red Hat Enterprise Linux adressiert diese Herausforderungen und bietet umfangreiche Features, um leistungsfähige Big-Data-Applikationen zu erstellen und sicher zu integrieren, die mit der hohen Geschwindigkeit mithalten können, mit der Daten generiert, analysiert und transferiert werden. Dies kann in der Cloud erfolgen, wo es einfacher ist, Daten aus einer Vielzahl von Quellen zu speichern, zu aggregieren und zu optimieren sowie sie plattformübergreifend zu integrieren – unabhängig davon, ob sie sich in physischen, virtuellen oder Cloud Computing-Umgebungen befinden.

Red Hat Storage Server:Auf Basis von Red Hat Enterprise Linux und dem verteilten Dateisystem GlusterFS können Unternehmen mit der Softwarelösung Red Hat Storage Server einen Pool standardbasierter Serversysteme miteinander verbinden und so eine kostengünstige, skalierbare und zuverlässige Big-Data-Umgebung aufbauen.

Im weiteren Verlauf des Jahres wird Red Hat ihr Hadoop Plug-in für Red Hat Storage an die Hadoop Community übergeben. Das Plug-in ist aktuell als Technology Preview erhältlich und bietet eine neue Storage-Option für den Unternehmenseinsatz von Hadoop, wobei die API-Kompatibilität beibehalten wird und ein lokaler Datenzugriff möglich ist, wie ihn die Hadoop-Community erwartet. Red Hat Storage Server bietet leistungsfähige Features für Big-Data-Applikationen wie Geo Replication, High Availability, POSIX-Compliance, Disaster-Recovery und -Management – unabhängig vom Ort der Datenspeicherung und unter Beibehaltung der API-Kompatibilität. Unternehmen erhalten damit eine vereinheitlichte Daten- und Scale-out-Storage-Software-Plattform, mit der sie Datei- und Objekt-basiert in physischen und virtuellen Umgebungen sowie in Public und Hybrid Clouds arbeiten können.

Red Hat Enterprise Virtualization:Red Hat Storage Server ist optimal auf Red Hat Enterprise Virtualization 3.1 abgestimmt und ermöglicht eine gemeinsame, sichere Nutzung eines Speicherpools, der von Red Hat Storage Server verwaltet wird. Unternehmen profitieren von dieser Integration durch geringere Betriebskosten, eine bessere Portabilität, freie Wahl bei der Infrastruktur, Skalierbarkeit, Verfügbarkeit und den Innovationen, wie sie durch die oVirt- und Gluster-Projekte gefördert werden. Durch die Kombination dieser Plattformen kann Red Hat ihre Open-Hybrid-Cloud-Strategie konsequent umsetzen: ein integrierter und konvergenter Knoten, bestehend aus Red Hat Storage Server und Red Hat Enterprise Virtualization, der gleichzeitig Rechen- und Speicherressourcen bereitstellt.

Applikations- und Integrationsplattformen

Red Hat JBoss Middleware:
Die Red Hat JBoss Middleware bietet Unternehmen leistungsfähige Funktionen für die Erstellung und die Integration von Big-Data-Applikationen, die mit neuen Technologien wie Hadoop oder MongoDB arbeiten. Big Data bringt nur dann einen Mehrwert, wenn Unternehmen schnell Informationen zur Verfügung haben und darauf intelligent reagieren können. Lösungen, die mit Red Hat JBoss Middleware erstellt wurden, können mit Hilfe schneller Messaging-Technologien Hadoop mit sehr großen Mengen unterschiedlichster Daten versorgen. Sie vereinfachen zudem die Zusammenarbeit mit MongoDB via Hibernate OGM und verarbeiten große Datenvolumina einfach und schnell mit Red Hat JBoss Data Grid. Die JBoss-Enterprise-Services-Plattform ermöglicht einen Zugriff auf Hadoop und auf traditionelle Datenquellen. Eine Mustererkennung in Datenströmen zur Identifizierung von Chancen und Risiken ist mit JBoss Enterprise BRMS möglich. Das Middleware-Portfolio von Red Hat bietet Unternehmen so eine umfangreiche Unterstützung bei Big Data.

Big-Data-Partnerschaften

Big-Data-Ecosystem-Partner:
Um Unternehmen ein umfangreiches Angebot an Big-Data-Lösungen anbieten zu können, wird Red Hat aus Gründen der Interoperabilität mit führenden Big-Data-Software- und -Hardware-Anbietern kooperieren. Zertifizierte und dokumentierteReferenz-Architekturen sollen Unternehmen bei der Integration und Implementierung komplexer Big-Data-Lösungen unterstützen.

Enterprise-Partner:Mit Hilfe von Integrationspartnern will Red Hat ein umfangreiches Big-Data-Solutions-Portfolio aufbauen und dazu die Referenz-Architekturen nutzen, die in Zusammenarbeit mit den Big-Data-Ecosystem-Partnern entstehen.
(Red Hat: ra)

Red Hat: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.

- Anzeigen -





Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Unternehmen

  • Open Telekom Cloud & OpenStack

    Offen, flexibel, einfach: Das sind Kernmerkmale des Software-Projekts OpenStack. Nicht zuletzt deshalb hatte sich die Telekom dafür entschieden, ihre "Open Telekom Cloud" auf der Basis von OpenStack zu bauen. Der offene Standard vereinfacht Kunden die Nutzung sowie die Integration von Anwendungen. Für die kontinuierliche Weiterentwicklung der OpenStack-Plattform engagieren sich die Telekom und ihre Großkundensparte T-Systems in der OpenStack Foundation. Im Rahmen des von T-Systems gesponsorten OpenStack Days werden zahlreiche Experten aus der Branche referieren.

  • Digitalisierung im Mittelstand

    Ausgezeichnetes Netz, Lösungen aus der sicheren deutschen Cloud, IoT-Pakete und starke Partner: Mit diesem einmaligen Digitalisierungs-Mix aus einer Hand hat sich die Telekom als Digitalisierer des deutschen Mittelstands etabliert. "Unsere Mittelstandsinitiative greift", sagte Hagen Rickmann, Geschäftsführer Geschäftskunden der Telekom Deutschland, auf der CeBIT 2017 in Hannover. Die Telekom ist nicht nur weiter Marktführer im Geschäftskundenmarkt, sie hat ihre Marktanteile im vergangenen Jahr sogar weiter ausgebaut. Dabei stieg der IT-Umsatz im Vorjahresvergleich um rund 20 Prozent. Rickmann: "Wir sind 2016 durchgestartet und haben zahlreiche Kunden gewinnen können, die mit uns Digitalisierungs­projekte umsetzen."

  • Web-Sicherheit für KMU

    Barracuda Networks und Zscaler werden künftig in punkto Web-Sicherheit zusammenarbeiten. Wie beide Unternehmen mitteilten, soll die neue Partnerschaft vor allem Kunden kleinerer und mittlerer Unternehmen einen umfassenden, skalierbaren und performanten Cloud-basierten Internetschutz bieten, und ihnen die mit einer aufwändigen On-Premises-Hardware-Ausstattung verbundenen Kosten und Komplexität ersparen. Zscalers Cloud-basierte Internet Security-Plattform ermöglicht Barracuda-Kunden ab sofort orts- und geräteunabhängigen Zugriff auf den Barracuda Web Security Service.

  • Threat-Intelligence & Security Analytics

    Die Zahl der sicherheitsrelevanten Informationen, die die Telekom verarbeitet, ist gewaltig: Mehr als eine Milliarde im Netz und in eigenen Systemen - jeden Tag. Die Deutsche Telekom registriert, analysiert, verdichtet und verarbeitet diese Datenmengen seit vielen Jahren erfolgreich in so genannten Security Operations Centers (SOC). Die Security-Analysten destillieren aus der Unmenge von Daten die relevanten intelligent heraus und verarbeiten Verdachtsfälle in Bruchteilen von Sekunden. Im letzten Schritt analysieren Experten tatsächliche Vorfälle und leiten Gegenmaßnahmen ein.

  • Schub fürs Internet der Dinge

    Von Trendthemen wie Künstliche Intelligenz bis zu Dauerbrennern der Digitalisierung wie Cloud und Netzausbau - die Deutsche Telekom zeigte auf der CeBIT 2017 alle Facetten des Internets der Dinge (englisch Internet of Things, abgekürzt IoT). "Wir treiben das Internet der Dinge massiv in der Geschäftswelt voran", sagt Telekom-Vorstand und T-Systems-Chef Reinhard Clemens. "Das Echtzeitalter hat begonnen, Maschinen brauchen bei IoT Reaktionszeiten unter einer Millisekunde. Die Eckpfeiler für eine weitere erfolgreiche Entwicklung sind Cloud, Sicherheit und Netze. In alle drei Bereiche hat die Deutsche Telekom über die Jahre Milliarden investiert. Ich sehe den Konzern deshalb gut gerüstet für die vernetzte Welt."

  • Datenschutz und SaaS

    Die Speicherung von Daten ausschließlich in Deutschland spielt für Entscheider in der digitalen Transformation eine wesentliche Rolle. Dies zeigt eine aktuelle Studie der techconsult GmbH im Auftrag der Microsoft Deutschland GmbH, die vor allem Unternehmen aus dem Mittelstand und den Branchen Finanzwesen, Bildung, Gesundheitswesen und öffentliche Verwaltung untersucht. Cloud Computing gehört weltweit und branchenübergreifend zu den zentralen Antworten auf Fragen der Digitalisierung von Unternehmen oder dem öffentlichen Sektor. Zu den Hürden, Software-as-a-Service (SaaS) zu beziehen, zählen bei den Entscheidern häufig Bedenken, hinsichtlich des Datenschutzes.

  • Security im Entwicklungsprozess

    Für rund 614 Millionen US-Dollar in bar hat CA Technologies Veracode gekauft - einen Spezialisten zur Absicherung von Web-, Mobile- und Dritt-Applikationen während des gesamten Lebenszyklus in der Softwareentwicklung. Die Transaktion wird voraussichtlich im ersten Quartal des Finanzjahres 2018 abgeschlossen sein und unterliegt den üblichen Abschlussbedingungen und behördlichen Genehmigungen. Die Kombination beider Portfolios sichert CA Technologies eine führende Position im Secure DevOps Markt. Ermöglicht wird dies durch die Automatisierung und Skalierung von Applikationssicherheitstests (AST), die dazu beitragen, Applikationen schneller und fehlerfreier zu entwickeln und einzusetzen.

  • Cloud-Plattform für Schwachstellen-Management

    Tenable Network Security, Unternehmen im Bereich Cybersicherheit, kündigte auf der RSA Conference 2017 ihr Tenable.io-Partnersystem an. Dank dieser Zusammenarbeit erhalten Kunden Zugriff auf umfangreiche Schwachstellendaten, mit denen sie die Gefahrenlage besser erkennen können. "Voneinander abgeschottete Silo-Lösungen geben Sicherheitsteams nicht den nötigten Einblick und den Kontext, um Gefahren präzise zu bewerten", sagt Renaud Deraison, Co-Founder and Chief Technology Officer bei Tenable. "Aus diesem Grund basiert Tenable.io auf Zusammenarbeit und einer offenen Struktur: Sie ist so flexibel und leistungsstark, dass sie den Sicherheitsanforderungen unterschiedlichster Unternehmen gerecht wird."

  • Experten für Sicherheit in der Public Cloud

    Viele Unternehmen nutzen bereits die Vorteile der Cloud und dieser Trend wird anhalten: Einer Schätzung nach werden die weltweiten Investitionen für Cloud Computing-Infrastrukturen, die sich 2016 noch auf 50 Milliarden US-Dollar beliefen, bis 2026 auf rund 228 Milliarden US-Dollar steigen. Barracudas aktuelles "Cloud Ready"- Programm soll Unternehmen und Organisationen dabei helfen, ihre Workloads und Anwendungen sicher in die Cloud auszulagern. Mit jeder neu gekauften on-Premises Barracuda NextGen Firewall oder Barracuda Web Application Firewall - egal ob es sich um eine physikalische oder virtuelle Appliance einer WAF handelt - bekommen die Kunden eine 90 Tage gültige Lizenz für die Public Cloud-Umgebungen Amazon Web Services (AWS) und Microsoft Azure kostenfrei dazu. Die Lizenz beinhaltet alle üblichen Leistungsmerkmale und intuitiven User-Interfaces der Sicherheitslösungen von Barracuda.

  • Pironet erhält ISAE 3402-Zertifizierung

    Der deutsche Cloud-Provider Pironet hat erfolgreich die Prüfung des International Standard on Assurance Engagements (ISAE) 3402 Typ II bestanden und hat damit die Wirksamkeit seines Internen Kontrollsystems (IKS) nachgewiesen. Auditiert wurden dabei die Prozesse zur Leistungserbringung der Outsourcing-Dienstleistungen für Kunden. Denn bei diesen Prozessen, die für die Rechnungslegung relevant sind, bleiben die Unternehmen letztendlich selbst rechtlich verantwortlich - das gilt auch für unterstützende IT-Services. Die auslagernden Unternehmen stehen deshalb in der Pflicht, den Service Provider auf seine Zuverlässigkeit zu überprüfen.