Sie sind hier: Startseite » Markt » Tipps und Hinweise

Cloud-basierte Tests


Cloud-Technologie auch im Qualitätsmanagement nutzen
Fünf Tipps, wie Quality Engineering zur Nachhaltigkeit beiträgt


Mit der Digitalisierung steigt das Datenvolumen und der Energieverbrauch. Daher stehen Unternehmen jetzt vor der Herausforderung, ihre IT nachhaltiger zu gestalten. Auch das Qualitätsmanagement kann dazu einen wertvollen Beitrag leisten, indem es den CO2-Fußabdruck von Software verringert.

Rechenzentren sind für zwei Prozent des Energieverbrauchs weltweit verantwortlich, so der Jahresbericht der International Energy Agency (IEA). Bis im Jahr 2026 könnte sich der Wert durch rechenintensive Workloads wie KI und Kryptomining sogar verdoppeln, prognostizieren die Experten. Die IT-Infrastruktur grüner zu machen, spielt daher eine wichtige Rolle für Unternehmen, um ihre Nachhaltigkeitsziele zu erreichen. Laut einer IDC-Studie ist Green IT nicht länger nur "Nice to have", sondern wird zum Must-have. Dabei setzen deutsche Unternehmen zu je einem Drittel auf neue Hardware, einen Mix aus erneuerbaren Energiequellen und ein verbessertes Energiebewusstsein für Software (Green Coding). Oft noch nicht ausgeschöpft wird aber das Potenzial von Quality Engineering, so der World Quality Report von Capgemini – obwohl 72 Prozent der Unternehmen weltweit der Ansicht sind, dass dies zur Nachhaltigkeit von IT beitragen könnte. Hier kommen fünf Tipps, wie ein strategisches Qualitätsmanagement den CO2-Fußabdruck in der Softwareentwicklung verringert.

1. Ineffizienten Code identifizieren
Die größten Energieverbraucher im Data Center sind Rechenleistung und Kühlung. Wie viel Ressourcen die Ausführung von Software benötigt, wirkt sich daher unmittelbar auf die Nachhaltigkeit aus. Deshalb ist es wichtig, den Code so zu optimieren, dass er möglichst effizient und performant funktioniert. Wenn zum Beispiel eine Datenbankabfrage unnötig komplex programmiert ist, kann die Erstellung eines BI-Reports bis zu einer Minute dauern. Mit sauberem, schlankem Code wären die Kennzahlen dagegen in wenigen Sekunden berechnet. Schlechte Ressourcenverwaltung, unzureichende Speichernutzung und redundante Berechnungen sind einige der häufigsten Faktoren für ineffizienten Code. Solche Probleme frühzeitig in der Entwicklung zu erkennen und zu beheben, reduziert nicht nur den Energieverbrauch, sondern steigert auch die Performance und verbessert die Nutzererfahrung. Mit einem Tool wie Tricentis Live Compare lässt sich die Code Qualität automatisiert bewerten. Außerdem sind Performance-Tests wichtig. Sie zeigen, wie viel CPU-Leistung eine Applikation unter hoher Last verbraucht, und ermöglichen es, Schwachstellen im Code aufzudecken.

2. Daten-Ballast abwerfen
Neben ineffizientem Code wirken sich überflüssige Daten negativ auf die Software-Performance aus und belasten Speicher- und Serverkapazitäten unnötig. Wenn eine Datenbankabfrage Millionen Zeilen an Informationen durchforsten muss, von denen etliche veraltet oder redundant sind, verschwendet sie Ressourcen. Gerade Legacy-Systeme stecken häufig voller Altlasten. Unternehmen trauen sich oft nicht, Daten zu löschen, weil sie Angst haben, wichtige Informationen zu verlieren. Mit Datenintegritätstests lässt sich dieses Problem lösen. Indem Unternehmen die Datenqualität bewerten und Redundanzen identifizieren, können sie unnötigen Ballast abwerfen, Ressourcen sparen und damit ihre Emissionen reduzieren.

3. KI-generierten Code prüfen
Viele Entwickler nutzen bereits generative KI. Mithilfe von Tools wie Copilot können sie wiederkehrende und einfache Programmieraufgaben automatisieren und ihre Effizienz erheblich steigern. Doch der Einsatz der neuen Technologie hat auch eine Kehrseite. Wie eine Studie von GitClear zeigt, die mehr als 150 Millionen Zeilen Code aus den vergangenen vier Jahren analysiert hat, drohen Qualitätseinbußen. So stieg der Anteil an aufgeblähtem Code, während die Wiederverwendungsrate von Bausteinen sank. Entwickler sollten KI-generierten Code daher nicht blind übernehmen, sondern stets genauso sorgfältig prüfen wie manuell generierten Code. Entspricht er den gesetzten Qualitätsstandards und löst er die Aufgabe optimal? Wichtig ist, den Code möglichst schlank zu halten und Redundanzen zu vermeiden.

4. Auf Testautomatisierung setzen
Auch das Testing selbst verbraucht Rechenleistung und Speicher und trägt so zum CO2-Fußabdruck bei. Hier kommt Testautomatisierung ins Spiel: Mit dem richtigen Framework können QA-Teams erheblich effizienter und ressourcensparender testen, was den Energieverbrauch reduziert. Vorteilhaft ist ein modellbasierter Ansatz, der es ermöglicht, Tests wiederzuverwenden, sodass sie nicht jedes Mal neu erstellt werden müssen. Außerdem lässt sich mit einer intelligenten Auswirkungsanalyse und einem risikobasierten Testansatz die Zahl der erforderlichen Regressions-Tests um bis zu 80 Prozent reduzieren. Statt bei einer Software-Änderung alles zu testen, können QA-Teams sich dann auf die Bereiche konzentrieren, die wirklich relevant sind. All das spart Zeit, Kosten und Energie.

5. Cloud-Technologie auch im Qualitätsmanagement nutzen
Um ihre IT-Infrastruktur nachhaltiger zu gestalten, setzen viele Unternehmen auf Cloud-Technologie, so die IDC-Studie. Durch die Virtualisierung brauchen sie weniger eigene Hardware, können besser skalieren und den Ressourcenbedarf an den tatsächlichen Verbrauch anpassen. So reduzieren sie ihren Energiebedarf und produzieren weniger Elektroschrott. Auch für das Qualitätsmanagement empfiehlt sich eine SaaS-Plattform. Gerade im Bereich Mobile-Testing können Unternehmen damit viel Hardware einsparen. Bisher müssen QA-Teams einen großen Bestand an mobilen Endgeräten vorhalten, um ihre Applikationen mit den verschiedenen Modellen zu testen. Eine Cloud-Plattform wie die "Tricentis Device Cloud" ermöglicht dagegen Cloud-basierte Tests, sodass keine eigenen physischen Smartphones und Tablets mehr für die Qualitätssicherung erforderlich sind. Unternehmen müssen nicht mehr laufend neue Modelle für den Testpool kaufen und dadurch auch weniger Altgeräte entsorgen.

Fazit
Nachhaltigkeit ist eine gesamtgesellschaftliche Verantwortung, zu der die IT – und damit auch das Qualitätsmanagement – einen wertvollen Beitrag leisten kann. Je schlanker der Softwarecode und je sauberer der Datenbestand, desto performanter und energiesparender funktioniert eine Anwendung. Indem Unternehmen Softwareprobleme und Ineffizienzen bereits frühzeitig in der Entwicklung erkennen und beheben, vermeiden sie hohe Folgekosten und unnötigen Ressourcenverbrauch. Viktoria Praschl, VP Sales Central Europe bei Tricentis rät: "Ein leistungsfähiger Ansatz, der wesentlich zur Nachhaltigkeit beitragen kann, ist der Shift-Left-Approach. Dieser zielt darauf ab, Qualitätsmaßnahmen und Tests so früh wie möglich in den Entwicklungsprozess zu integrieren. Das steigert die Codequalität und hilft Unternehmen dabei, Applikationen möglichst energieeffizient und ressourcensparend zu gestalten. Außerdem fördert der Ansatz die Eigenverantwortung im Team und ist so ein wichtiger Schritt auf dem Weg zu einer nachhaltigen Qualitätssicherungskultur." (Tricentis: ra)

eingetragen: 10.12.24
Newsletterlauf: 11.02.25

Tricentis: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Integration von Cloud-Infrastrukturen

    Cloud-Technologien werden zum Schlüsselfaktor für Wachstum und verbesserte Skalierbarkeit über das Kerngeschäft hinaus - auch bei Telekommunikationsanbietern (Telcos). Auch hier ist der Wandel zur Nutzung von Produkten und Dienstleistungen "On-Demand" im vollen Gange, sodass Telcos ihre Geschäftsmodelle weiterentwickeln und zunehmend als Managed-Service-Provider (MSPs) und Cloud-Service-Provider (CSPs) auftreten.

  • Acht Einsatzszenarien für Industrial AI

    Artificial Intelligence (AI) entwickelt sich zunehmend zur Schlüsselressource für die Wettbewerbsfähigkeit der deutschen Industrie. Doch wie weit ist die Branche wirklich? Laut einer aktuellen Bitkom-Befragung setzen bereits 42?Prozent der Industrieunternehmen des verarbeitenden Gewerbes in Deutschland AI in ihrer Produktion ein - ein weiteres Drittel (35?Prozent) plant entsprechende Projekte.

  • Ausfallkosten nur Spitze des Eisbergs

    Ungeplante Ausfälle in Rechenzentren sind seltener geworden, doch wenn sie eintreten, können sie verheerende Folgen haben. Laut der Uptime Institute Studie 2023 meldeten 55 Prozent der Betreiber in den vorangegangenen drei Jahren mindestens einen Ausfall - jeder zehnte davon war schwerwiegend oder kritisch. Zu den Ursachen gehören unter anderem Wartungsmängel, die sich mit einer strukturierten Instandhaltungsstrategie vermeiden lassen.

  • GenAI mächtig, aber nicht immer notwendig

    Jetzt auf den Hype rund um KI-Agenten aufzuspringen, klingt gerade in Zeiten des Fachkräftemangels für Unternehmen verlockend. Doch nicht alles, was glänzt, ist Gold. Viele Unternehmen investieren gerade in smarte Assistenten, Chatbots und Voicebots - allerdings scheitern einige dieser Projekte, ehe sie richtig begonnen haben: Schlecht umgesetzte KI-Agenten sorgen eher für Frust als für Effizienz, sowohl bei Kunden als auch bei den eigenen Mitarbeitern. Dabei werden immer wieder die gleichen Fehler gemacht. Besonders die folgenden drei sind leicht zu vermeiden.

  • Konsequent auf die Cloud setzen

    In der sich stetig wandelnden digitalen Welt reicht es nicht aus, mit den neuesten Technologien nur Schritt zu halten - Unternehmen müssen proaktiv handeln, um Innovationsführer zu werden. Entsprechend der neuen Studie "Driving Business Outcomes through Cost-Optimised Innovation" von SoftwareOne können Unternehmen, die gezielt ihre IT-Kosten optimieren, deutlich besser Innovationen vorantreiben und ihre Rentabilität sowie Markteinführungsgeschwindigkeit verbessern.

  • Fünf Mythen über Managed Services

    Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Der IT-Dienstleister CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind.

  • Datenschutz als Sammelbegriff

    Die Cloud hat sich längst zu einem neuen IT-Standard entwickelt. Ihr Einsatz bringt allerdings neue Herausforderungen mit sich - insbesondere im Hinblick auf geopolitische Risiken und die Gefahr einseitiger Abhängigkeiten. Klar ist: Unternehmen, Behörden und Betreiber kritischer Infrastrukturen benötigen eine kompromisslose Datensouveränität. Materna Virtual Solution zeigt, welche zentralen Komponenten dabei entscheidend sind.

  • Google Workspace trifft Microsoft 365

    Die Anforderungen an den digitalen Arbeitsplatz wachsen ständig. Wie können Unternehmen mit der Zeit gehen, ohne auf Sicherheit verzichten zu müssen? Eine Antwort könnte sein, Google Workspace an die Seite der Microsoft-365-Umgebung zu stellen. Welche Möglichkeiten eröffnet diese Kombination?

  • NIS2 trifft auf SaaS-Infrastruktur

    Die NIS2 (Network Information Security Directive)-Richtlinie zur Sicherheit von Netzwerken setzt neue Maßstäbe für die Cybersicherheit. Sie ist bekanntlich für öffentliche und private Einrichtungen in 18 Sektoren bindend, die entweder mindestens 50 Beschäftigte haben oder einen Jahresumsatz und eine Jahresbilanz von mindestens 10 Millionen Euro.

  • Sicher modernisieren & Daten schützen

    Viele Unternehmen haben die Cloud-Migration ihrer SAP-Landschaften lange Zeit aufgeschoben. ERP-Anwendungslandschaften, sind über viele Jahre hinweg gewachsen, die Verflechtungen vielfältig, die Datenmengen enorm und die Abhängigkeit der Business Continuity von diesen Systemen gigantisch. Dennoch: Der Druck zur ERP-Modernisierung steigt und viele Unternehmen werden 2025 das Projekt Cloud-Migration mit RISE with SAP angehen.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen