Sie sind hier: Startseite » Markt » Tipps und Hinweise

Cloud-basierte Tests


Cloud-Technologie auch im Qualitätsmanagement nutzen
Fünf Tipps, wie Quality Engineering zur Nachhaltigkeit beiträgt


Mit der Digitalisierung steigt das Datenvolumen und der Energieverbrauch. Daher stehen Unternehmen jetzt vor der Herausforderung, ihre IT nachhaltiger zu gestalten. Auch das Qualitätsmanagement kann dazu einen wertvollen Beitrag leisten, indem es den CO2-Fußabdruck von Software verringert.

Rechenzentren sind für zwei Prozent des Energieverbrauchs weltweit verantwortlich, so der Jahresbericht der International Energy Agency (IEA). Bis im Jahr 2026 könnte sich der Wert durch rechenintensive Workloads wie KI und Kryptomining sogar verdoppeln, prognostizieren die Experten. Die IT-Infrastruktur grüner zu machen, spielt daher eine wichtige Rolle für Unternehmen, um ihre Nachhaltigkeitsziele zu erreichen. Laut einer IDC-Studie ist Green IT nicht länger nur "Nice to have", sondern wird zum Must-have. Dabei setzen deutsche Unternehmen zu je einem Drittel auf neue Hardware, einen Mix aus erneuerbaren Energiequellen und ein verbessertes Energiebewusstsein für Software (Green Coding). Oft noch nicht ausgeschöpft wird aber das Potenzial von Quality Engineering, so der World Quality Report von Capgemini – obwohl 72 Prozent der Unternehmen weltweit der Ansicht sind, dass dies zur Nachhaltigkeit von IT beitragen könnte. Hier kommen fünf Tipps, wie ein strategisches Qualitätsmanagement den CO2-Fußabdruck in der Softwareentwicklung verringert.

1. Ineffizienten Code identifizieren
Die größten Energieverbraucher im Data Center sind Rechenleistung und Kühlung. Wie viel Ressourcen die Ausführung von Software benötigt, wirkt sich daher unmittelbar auf die Nachhaltigkeit aus. Deshalb ist es wichtig, den Code so zu optimieren, dass er möglichst effizient und performant funktioniert. Wenn zum Beispiel eine Datenbankabfrage unnötig komplex programmiert ist, kann die Erstellung eines BI-Reports bis zu einer Minute dauern. Mit sauberem, schlankem Code wären die Kennzahlen dagegen in wenigen Sekunden berechnet. Schlechte Ressourcenverwaltung, unzureichende Speichernutzung und redundante Berechnungen sind einige der häufigsten Faktoren für ineffizienten Code. Solche Probleme frühzeitig in der Entwicklung zu erkennen und zu beheben, reduziert nicht nur den Energieverbrauch, sondern steigert auch die Performance und verbessert die Nutzererfahrung. Mit einem Tool wie Tricentis Live Compare lässt sich die Code Qualität automatisiert bewerten. Außerdem sind Performance-Tests wichtig. Sie zeigen, wie viel CPU-Leistung eine Applikation unter hoher Last verbraucht, und ermöglichen es, Schwachstellen im Code aufzudecken.

2. Daten-Ballast abwerfen
Neben ineffizientem Code wirken sich überflüssige Daten negativ auf die Software-Performance aus und belasten Speicher- und Serverkapazitäten unnötig. Wenn eine Datenbankabfrage Millionen Zeilen an Informationen durchforsten muss, von denen etliche veraltet oder redundant sind, verschwendet sie Ressourcen. Gerade Legacy-Systeme stecken häufig voller Altlasten. Unternehmen trauen sich oft nicht, Daten zu löschen, weil sie Angst haben, wichtige Informationen zu verlieren. Mit Datenintegritätstests lässt sich dieses Problem lösen. Indem Unternehmen die Datenqualität bewerten und Redundanzen identifizieren, können sie unnötigen Ballast abwerfen, Ressourcen sparen und damit ihre Emissionen reduzieren.

3. KI-generierten Code prüfen
Viele Entwickler nutzen bereits generative KI. Mithilfe von Tools wie Copilot können sie wiederkehrende und einfache Programmieraufgaben automatisieren und ihre Effizienz erheblich steigern. Doch der Einsatz der neuen Technologie hat auch eine Kehrseite. Wie eine Studie von GitClear zeigt, die mehr als 150 Millionen Zeilen Code aus den vergangenen vier Jahren analysiert hat, drohen Qualitätseinbußen. So stieg der Anteil an aufgeblähtem Code, während die Wiederverwendungsrate von Bausteinen sank. Entwickler sollten KI-generierten Code daher nicht blind übernehmen, sondern stets genauso sorgfältig prüfen wie manuell generierten Code. Entspricht er den gesetzten Qualitätsstandards und löst er die Aufgabe optimal? Wichtig ist, den Code möglichst schlank zu halten und Redundanzen zu vermeiden.

4. Auf Testautomatisierung setzen
Auch das Testing selbst verbraucht Rechenleistung und Speicher und trägt so zum CO2-Fußabdruck bei. Hier kommt Testautomatisierung ins Spiel: Mit dem richtigen Framework können QA-Teams erheblich effizienter und ressourcensparender testen, was den Energieverbrauch reduziert. Vorteilhaft ist ein modellbasierter Ansatz, der es ermöglicht, Tests wiederzuverwenden, sodass sie nicht jedes Mal neu erstellt werden müssen. Außerdem lässt sich mit einer intelligenten Auswirkungsanalyse und einem risikobasierten Testansatz die Zahl der erforderlichen Regressions-Tests um bis zu 80 Prozent reduzieren. Statt bei einer Software-Änderung alles zu testen, können QA-Teams sich dann auf die Bereiche konzentrieren, die wirklich relevant sind. All das spart Zeit, Kosten und Energie.

5. Cloud-Technologie auch im Qualitätsmanagement nutzen
Um ihre IT-Infrastruktur nachhaltiger zu gestalten, setzen viele Unternehmen auf Cloud-Technologie, so die IDC-Studie. Durch die Virtualisierung brauchen sie weniger eigene Hardware, können besser skalieren und den Ressourcenbedarf an den tatsächlichen Verbrauch anpassen. So reduzieren sie ihren Energiebedarf und produzieren weniger Elektroschrott. Auch für das Qualitätsmanagement empfiehlt sich eine SaaS-Plattform. Gerade im Bereich Mobile-Testing können Unternehmen damit viel Hardware einsparen. Bisher müssen QA-Teams einen großen Bestand an mobilen Endgeräten vorhalten, um ihre Applikationen mit den verschiedenen Modellen zu testen. Eine Cloud-Plattform wie die "Tricentis Device Cloud" ermöglicht dagegen Cloud-basierte Tests, sodass keine eigenen physischen Smartphones und Tablets mehr für die Qualitätssicherung erforderlich sind. Unternehmen müssen nicht mehr laufend neue Modelle für den Testpool kaufen und dadurch auch weniger Altgeräte entsorgen.

Fazit
Nachhaltigkeit ist eine gesamtgesellschaftliche Verantwortung, zu der die IT – und damit auch das Qualitätsmanagement – einen wertvollen Beitrag leisten kann. Je schlanker der Softwarecode und je sauberer der Datenbestand, desto performanter und energiesparender funktioniert eine Anwendung. Indem Unternehmen Softwareprobleme und Ineffizienzen bereits frühzeitig in der Entwicklung erkennen und beheben, vermeiden sie hohe Folgekosten und unnötigen Ressourcenverbrauch. Viktoria Praschl, VP Sales Central Europe bei Tricentis rät: "Ein leistungsfähiger Ansatz, der wesentlich zur Nachhaltigkeit beitragen kann, ist der Shift-Left-Approach. Dieser zielt darauf ab, Qualitätsmaßnahmen und Tests so früh wie möglich in den Entwicklungsprozess zu integrieren. Das steigert die Codequalität und hilft Unternehmen dabei, Applikationen möglichst energieeffizient und ressourcensparend zu gestalten. Außerdem fördert der Ansatz die Eigenverantwortung im Team und ist so ein wichtiger Schritt auf dem Weg zu einer nachhaltigen Qualitätssicherungskultur." (Tricentis: ra)

eingetragen: 10.12.24
Newsletterlauf: 11.02.25

Tricentis: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Meldungen: Tipps und Hinweise

  • Wie sich Teamarbeit im KI-Zeitalter verändert

    Liefertermine wackeln, Teams arbeiten unter Dauerlast, Know-how verschwindet in der Rente: In vielen Industrieunternehmen gehört der Ausnahmezustand zum Betriebsalltag. Gleichzeitig soll die Zusammenarbeit in Produktion, Qualitätskontrolle und Wartung immer schneller, präziser und vernetzter werden. Wie das KI-gestützt gelingen kann, zeigt der Softwarehersteller Augmentir an sechs konkreten Praxisbeispielen.

  • Vom Workaround zum Schatten-Account

    Um Aufgaben im Arbeitsalltag schneller und effektiver zu erfüllen, ist die Suche nach Abkürzungen Gang und Gebe. In Kombination mit dem technologischen Fortschritt erreicht die Effizienz menschlicher Arbeit so immer neue Höhen und das bringt Unternehmen unwissentlich in eine Zwickmühle: Die zwischen Sicherheit und Produktivität. Wenn ein Mitarbeiter einen Weg findet, seine Arbeit schneller oder besser zu erledigen, die Bearbeitung von Zugriffsanfragen durch die IT-Abteilung aber zu lange dauert oder zu kompliziert ist, dann finden Mitarbeiter oftmals "kreative" Lösungen, um trotzdem weiterarbeiten zu können. Diese "Workarounds" entstehen selten aus böser Absicht. Allerdings stellen sie gravierende Sicherheitslücken dar, denen sich viele Beschäftigte und Führungskräfte nicht bewusst sind.

  • KI in der Cloud sicher nutzen

    Keine Technologie hat die menschliche Arbeit so schnell und weitreichend verändert wie Künstliche Intelligenz. Dabei gibt es bei der Integration in Unternehmensprozesse derzeit keine Tür, die man KI-basierter Technologie nicht aufhält. Mit einer wachsenden Anzahl von KI-Agenten, LLMs und KI-basierter Software gibt es für jedes Problem einen Anwendungsfall. Die Cloud ist mit ihrer immensen Rechenleistung und Skalierbarkeit ein Motor dieser Veränderung und Grundlage für die KI-Bereitstellung.

  • Clever skalieren auf Basis bestehender Strukturen

    Da Generative AI zunehmend Teil unseres Alltags wird, befinden wir uns in einer KI-Phase, die sich durch außerordentliche Fähigkeiten und enormen Konsum auszeichnet. Was anfangs auf einer theoretischen Ebene stattgefunden hat, ist inzwischen messbar - und zwar bis zur kleinsten Einheit. Aktuelle Untersuchungen von Mistral AI und Google deuten darauf hin, dass die Folgen einer einzigen Interaktion vernachlässigbar sind: Bruchteile eines Watts, einige Tropfen Wasser und ein Kohlenstoffausstoß, der etwa dem entspricht, was beim Streamen eines Videos unter einer Minute verbraucht wird.

  • Von Cloud-First zu Cloud-Smart

    Die zunehmende Vernetzung von IT- und OT-Systemen bedeutet für die Fertigungsindustrie neue Sicherheitsrisiken. Ein moderner Cloud-Smart-Ansatz verbindet Innovation mit effektiven Sicherheitslösungen, um diesen Herausforderungen gerecht zu werden. Die industrielle Digitalisierung stellt die Fertigungsindustrie heute vor neue Herausforderungen - insbesondere in puncto Sicherheit.

  • Technik statt Vertrauen

    Die andauernden Turbulenzen in den USA seit Amtsantritt von Donald Trump, die konsequente Kürzung von Mitteln für Datenschutz und die Kontrolle staatlicher Überwachungsprogramme verdeutlichen: Wer als Behörde oder Institution höchste Datensicherheit garantieren muss, kann nicht auf US-amerikanische Unternehmen oder deren europäische Töchter setzen.

  • Risiko von SaaS-zu-SaaS-Integrationen

    Ein SaaS-Sicherheitsalbtraum für IT-Manager in aller Welt wurde kürzlich wahr: Hacker nutzten legitime OAuth-Tokens aus der Drift-Chatbot-Integration von Salesloft mit Salesforce, um unbemerkt Kundendaten von der beliebten CRM-Plattform zu exfiltrieren. Der ausgeklügelte Angriff deckt einen kritischen toten Winkel auf, von dem die meisten Sicherheits-Teams nicht einmal wissen, dass sie von ihm betroffen sind.

  • Kostenfallen erkennen und vermeiden

    Remote Work, Cloud Computing und mobile Endgeräte haben die Arbeitswelt grundlegend verändert. Mitarbeiter erwarten heute, von überall aus auf ihre Anwendungen und Daten zugreifen zu können. Virtuelle Desktop-Lösungen machen diese Flexibilität möglich, indem sie Desktop-Umgebungen und Anwendungen über das Netzwerk eines Unternehmens bereitstellen. Doch der Markt für solche Lösungen ist komplex und vielfältig. IT-Entscheider stehen vor der Herausforderung, aus dem Angebot die passende Lösung zu identifizieren, die sowohl technische Anforderungen als auch wirtschaftliche Ziele erfüllt.

  • Übergang in die neue Systemlandschaft

    Der Umstieg auf SAP S/4HANA ist bei vielen Unternehmen bereits in vollem Gange oder steht unmittelbar bevor. Wer in diesem Zusammenhang seine Archivierungsstrategie überdenkt, kann wertvolle Zeit, Kosten und Aufwand sparen. Die Archivierungsexperten von kgs haben zehn zentrale Aspekte zusammengestellt, die dabei helfen, den Übergang in die neue Systemlandschaft effizient und zukunftssicher zu gestalten.

  • Die Zukunft braucht offene KI-Infrastrukturen

    KI ist mehr als ein ominöses Hinterzimmer-Experiment. Die Technologie ist eine treibende Kraft, wenn es um Produkte, Entscheidungen und Nutzererfahrungen über jegliche Wirtschaftsbereiche hinaus geht. Mittlerweile stellen Unternehmen jedoch die Inferenz in den Mittelpunkt ihrer KI-Implementierungen. Hier können die Modelle ihren eigentlichen Mehrwert unter Beweis stellen - unter anderem in Form von Antworten auf drängende Fragen, Vorhersagen und Content-Generierung. Der Anstieg des Inferenz-Bedarfs bringt jedoch eine entscheidende Herausforderung mit sich. Bei Inferenzen handelt es sich nämlich nicht um einzelne Workloads.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen