Sie sind hier: Startseite » Markt » Tipps und Hinweise

Tagging: Wichtigen Ratschlag für Cloud-Neulinge


Fünf Möglichkeiten für Kosteneinsparungen in der Cloud
Oracle liefert Unternehmen einen Leitfaden für das Erschließen von Cloud-Potenzialen



Wer regelmäßig Cloud Computing-Services nutzt, fragt sich gewiss von Zeit zu Zeit, warum die Rechnung in manchen Monaten höher ist als in anderen oder was es wohl kosten würde, eine bestimmte Anwendung in die Cloud zu verlagern. Um User gezielt dabei zu unterstützen, die volle Kostenkontrolle über ihre Cloud-Nutzung zu wahren, ohne an Leistung einzubüßen, hat Oracle einen Leitfaden aus fünf Punkten zusammengestellt.

Vom Finanzexperten mit Budgetverantwortung über den Entscheidungsträger, der ein neues Projekt evaluiert, bis hin zum DevOps-Ingenieur, der das Funktionsdesign von IT-Anwendungen modigfiziert – Kostenmanagement in der Cloud ist von entscheidender Bedeutung für den Erfolg oder Misserfolg eines Unternehmens. Die Möglichkeiten, die die Cloud bereithält, sind schier grenzenlos. Für Anwender macht sich daher ein systematischer Kurzüberblick bezahlt.

1. Alles von Anfang an taggen
Tagging ist einer der wichtigsten Ratschläge für Cloud-Neulinge. Selbst wenn eine Umgebung zu Beginn nicht gut strukturiert ist, können User durch Tags, insbesondere obligatorische, vordefinierte Tags und Tags zur Kostenverfolgung, ihre Ressourcen klassifizieren und davon ausgehend Such- und Massenaktionen durchführen. Tags sind am besten zu verstehen als eine beliebige Textfolge, die Anwender einer Ressource zuweisen und die den Ressourcentyp, die Umgebung – Produktion, Staging oder Test –, den Projektnamen, die Rollen, die Business Unit, die Abteilung, die Kostenstelle und so weiter beschreibt. Liegen die Elemente lückenlos vor, lassen sich schnell Kostentreiber und ihre Relevanz für das Ergebnis identifizieren. Anschließend können User ihre Erkenntnisse mithilfe einer dafür vorgesehenen Anwendung automatisch an die relevanten Stakeholder weitergeben oder unmittelbare Aktionen für die betreffenden Ressourcen ausführen. Darüber hinaus lassen sich für alle Ressourcen, die ein bestimmtes Tag verwenden, ein maximales Budget und ein Budgetalarm festlegen, um ungewollte Ausgaben zu verhindern.

2. Sharing ist eben nicht Caring
Ein weiterer Faktor, der zur Kostensenkung beiträgt, sind isolierte Compartments innerhalb einer Tenancy, in der Administratoren die Ressourcen hierarchisch aufteilen können. Diese Compartments und Sub-Compartments können ein Projekt, ein Team oder eine andere Gruppe von Ressourcen sein, die benötigt werden. In großen Organisationen lässt sich zudem ein Konzept übergeordneter und untergeordneter Tenancies implementieren, um die Verwaltungsaufgaben zu vereinfachen.

Durch die Aufteilung der Ressourcen nach Projekten oder Abteilungen in verschiedene Compartments können Anwender die Auslastung und die Kosten verfolgen. Noch wichtiger ist jedoch, dass sie Servicekontingente einrichten können. Damit lassen sich die Ressourcen sinnvoll begrenzen, auf die das Team in bestimmten Abteilungen standardmäßig Zugriff hat.

3. Zeit ist Geld
Ein wesentlicher Vorteil der Cloud für das Geschäft besteht darin, dass Anwender ihre Ressourcen leicht skalieren können und nur für die genutzten Ressourcen zahlen. Zudem können sie ihre Ressourcen leicht reduzieren, sofern sie nicht benötigt werden. Selbst wenn Produktionssysteme rund um die Uhr laufen müssen, laufen andere virtuelle Maschinen (VMs) zum Beispiel in Test- oder Entwicklungsumgebungen nur während der Bürozeiten und nicht in der Nacht oder am Wochenende. Das Ein- und Ausschalten von Servern vor Ort kann eine mühsame Aufgabe sein. In der Cloud können Nutzer diesen Vorgang per Skript steuern – ein exklusives Feature, das es nur in der Cloud gibt. Durch die Flexibilität der Cloud können verschiedenen Gruppen von Anwendern unterschiedliche Zeitpläne zugewiesen werden, damit die Entwickler, die mit den Ressourcen arbeiten, über eine transparente Gesamtsicht verfügen. Zugleich hindert das Prozedere keinen Entwickler daran, eine bestimmte Instanz neu zu starten, wenn er sie außerplanmäßig benötigt.

4. Stakeholder einbeziehen und auf Automatisierung setzen
In vielen Unternehmen gibt es ein spezielles Team für exzellente Cloud Computing-Prozesse, das als eine Art Gatekeeper fungiert und die Entwickler und den Betrieb kontrolliert sowie Best Practices für alle neu erstellten Ressourcen durchsetzt. Allerdings sind Engpässe nicht unbedingt der ideale Weg zur Kostensenkung. Stattdessen empfiehlt es sich, feste Regeln im Unternehmen zu etablieren unter Verwendung von rollenbasierten Richtlinien, Tags, Benutzergruppen und Maßnahmen für das Kostenmanagement. Auf diese Weise wird das DevOps-Team nicht ausgebremst, sondern mithilfe von Leitplanken ein Abdriften erschwert. Empfehlenswert ist es außerdem, dem Team die Freiheit zu lassen, sich innerhalb der gesetzten Vorgaben auszuprobieren und zugleich offene Kommunikation zu fördern. Durch eine transparente Weitergabe von Informationen an das gesamte Team lässt sich eine stärkere Beteiligung der Beteiligten erzielen. Diese sind dann im Fall von Abweichungen in der Lage, selbst geeignete Korrekturmaßnahmen zu ergreifen.

5. Cloud-native Technologien und Container verwenden
Die Cloud verfügt über eine praktisch unbegrenzte Kapazität. Vor diesem Hintergrund sollte nicht allein der der Cloud-Anbieter für sämtliche Optimierungsaufgaben zur Verantwortung gezogen werden. Von der Fülle der Möglichkeiten profitieren insbesondere die Unternehmen, die über die Nutzung von Rechen- und Speicherdiensten in der Cloud hinausgehen und alle Vorteile nutzen, die Cloud Native Services bieten.

Nach dem initialen Schritt in die Cloud sollte der logische zweite darin bestehen, von einem gewissermaßen monolithischen Code zu einer vollständig containerisierten Anwendung zu wechseln, die auf Microservices basiert und alle aktuellen Cloud Native Services nutzt. Dazu gehört etwa eine serverlose Anwendung, bei der Container an Ort und Stelle erstellt werden, um einen Code auszuführen, und dann stillgelegt werden, wenn die Anfrage abgeschlossen ist.

Der Prozess der Containerisierung senkt die Cloud-Rechnung für Anwender, vervielfacht die Bereitstellungsgeschwindigkeit und steigert die Produktivität ganzer Teams. Die Cloud Native Computing Foundations (CNCF) hat zahlreiche Forschungsstudien zu diesem Thema veröffentlicht. Ein anschauliches Beispiel liefert ein Testszenario des CERN, das auf OCI gehostet wird und die Skalierung auf eine Umgebung mit 320 Tausend Kernen und die Bereitstellung eines neuen Clusters in wenigen Minuten anstelle von Stunden ermöglicht. (Oracle: ra)

eingetragen: 10.11.21
Newsletterlauf: 21.01.22

Oracle: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • XLAs: Der Mensch als Maßstab

    Über Jahrzehnte galten Service Level Agreements (SLAs) als Maßstab für gutes IT- und Servicemanagement: Wurde ein Ticket fristgerecht gelöst, war die Aufgabe erledigt. Doch in einer zunehmend digitalisierten Arbeitswelt zeigt sich: Diese Logik greift zu kurz. Effizienz allein entscheidet nicht mehr, ob Mitarbeitende zufrieden und produktiv bleiben. Gefragt ist ein neues Verständnis, das die tatsächliche Erfahrung der Menschen in den Mittelpunkt rückt.

  • Cloud-Souveränität immer stärker im Mittelpunkt

    Mit dem rasanten Fortschritt der digitalen Wirtschaft und dem Aufkommen zahlreicher neuer Technologien - allen voran Künstlicher Intelligenz (KI) - stehen europäische Entscheidungsträger vor einer neuen Herausforderung: Wie lässt sich ein innovatives Ökosystem regionaler Cloud-Anbieter schaffen, das sowohl leistungsfähige Lösungen als auch ausreichende Skalierbarkeit bietet? Und wie kann dieses Ökosystem mit internationalen Anbietern konkurrieren und zugleich die Abhängigkeit von ihnen verringern? Politik, Regulierungsbehörden, Forschungseinrichtungen und Industrievertreter in Europa konzentrieren sich darauf, wie der Kontinent seine Position im globalen Wettlauf um Cloud-Innovationen verbessern kann - ohne dabei die Kontrolle, Autonomie und Vertraulichkeit über europäische Daten aufzugeben, die andernfalls womöglich in anderen Märkten gespeichert, verarbeitet oder abgerufen würden.

  • Vom Nearshoring zum Smart Sourcing

    Aufgrund des enormen IT-Fachkräftemangels und der wachsenden Anforderungen von KI und digitaler Transformationen benötigen Unternehmen heute flexible und kosteneffiziente Lösungen, um wettbewerbsfähig zu bleiben. Für die Umsetzung anspruchsvoller Innovationsprojekte mit hohen Qualitätsstandards entscheiden sich deshalb viele Unternehmen für Nearshoring, da dieses Modell ihnen Zugang zu hochausgebildeten IT-Fachkräften in räumlicher und kultureller Nähe ermöglicht.

  • Sechs stille Killer des Cloud-Backups

    Cloud-Backups erfreuen sich zunehmender Beliebtheit, da sie auf den ersten Blick eine äußerst einfache und praktische Maßnahme zu Schutz von Daten und Anwendungen sind. Andy Fernandez, Director of Product Management bei Hycu, nennt in der Folge sechs "stille Killer", welche die Performance von Cloud-Backups still und leise untergraben. Diese werden außerhalb der IT-Teams, die täglich damit zu tun haben, nicht immer erkannt, können aber verheerende Folgen haben, wenn sie ignoriert werden.

  • Datenaufbewahrungsstrategie und SaaS

    Die Einhaltung von Richtlinien zur Datenaufbewahrung sind für Unternehmen unerlässlich, denn sie sorgen dafür, dass wertvolle Informationen sicher gespeichert und Branchenvorschriften - egal wie komplex sie sind - eingehalten werden. Diese Governance-Frameworks legen fest, wie Unternehmen sensible Daten verwalten - von deren Erstellung und aktiven Nutzung bis hin zur Archivierung oder Vernichtung. Heute verlassen sich viele Unternehmen auf SaaS-Anwendungen wie Microsoft 365, Salesforce und Google Workspace. Die Verlagerung von Prozessen und Daten in die Cloud hat jedoch eine gefährliche Lücke in die Zuverlässigkeit der Datenaufbewahrung gerissen, denn die standardmäßigen Aufbewahrungsfunktionen der Drittanbieter entsprechen häufig nicht den Compliance-Anforderungen oder Datenschutzzielen.

  • Lücken der SaaS-Plattformen schließen

    Die zunehmende Nutzung von Software-as-a-Service (SaaS)-Anwendungen wie Microsoft 365, Salesforce oder Google Workspace verändert die Anforderungen an das Datenmanagement in Unternehmen grundlegend. Während Cloud-Dienste zentrale Geschäftsprozesse unterstützen, sind standardmäßig bereitgestellte Datenaufbewahrungsfunktionen oft eingeschränkt und können die Einhaltung der Compliance gefährden. Arcserve hat jetzt zusammengefasst, worauf es bei der Sicherung der Daten führender SaaS-Anbieter ankommt.

  • Nicht mehr unterstützte Software managen

    Von Windows bis hin zu industriellen Produktionssystemen: Wie veraltete Software Unternehmen angreifbar macht und welche Strategien jetzt nötig sind Veraltete Software ist weit verbreitet - oft auch dort, wo man es nicht sofort vermuten würde. Beispiele für besonders langlebige Anwendungen sind das SABRE-Flugbuchungssystem oder die IRS-Systeme "Individual Master File" und "Business Master File" für Steuerdaten, die seit den frühen 1960er-Jahren im Einsatz sind. Während solche Anwendungen ihren Zweck bis heute erfüllen, existiert daneben eine Vielzahl alter Software, die längst zum Sicherheitsrisiko geworden ist.

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen