ReferenzenEndress+Hauser

Last- und Performanztests für einen komplexen Webshop

Endress+Hauser ist ein global führender Anbieter von Mess- und Automatisierungstechnik für Prozess und Labor. Das Familienunternehmen mit Sitz in Reinach/Schweiz erzielte 2021 mit über 15.000 Beschäftigten annähernd 2,9 Milliarden Euro Umsatz.

Geräte, Lösungen und Dienstleistungen von Endress+Hauser sind in vielen Branchen zu Hause. Die Kunden gewinnen damit wertvolles Wissen aus ihren Anwendungen. So können sie ihre Produkte verbessern, wirtschaftlich arbeiten und zugleich Mensch und Umwelt schützen.

Ansprechpartner

Christoph Brachmann
Managing IT-Consultant | Teamlead | Technical SalesChristoph Brachmann+49 351 44008 295+49 160 2765 889cbrachmann (at) proficom.de
Zielstellung

Endress+Hauser beauftragte uns im Jahr 2020 mit der Unterstützung ihres Last- und Performanztest-Teams. Unsere Aufgabe besteht darin, gemeinsam mit den Mitarbeitenden von Endress+Hauser die vorhandenen Testkapazitäten sowohl personell als auch technologisch zu verstärken. Insbesondere bei der Planung von Ressourcen, Testzeiträumen und der projektübergreifenden Kommunikation zwischen den beteiligten Entwicklungsteams stehen wir unserem Kunden beiseite. Das bisherige Testteam kann sich dadurch mehr auf die Anbahnung, Koordination und die Weiterentwicklung der Prozesse konzentrieren.

Durch unser spezifisches Know-how übernehmen wir eigenverantwortlich das Skripting, das Erstellen der Szenarien sowie das Ausführen der Last- und Performanztests. Die Lasttestaktivitäten entwickeln sich seitdem deutlich in die Richtung, häufiger und auch in mehreren Projekten parallel zu testen.

Herausforderungen

Endress+Hauser betreibt eine weltweit genutzte Website mit integriertem Webshop, der in den letzten Jahren zur zentralen Plattform der „Customer Journey“ ausgebaut wurde. Da hierbei das Kundenerlebnis mitsamt der Kundenzufriedenheit im Mittelpunkt steht, führt Endress+Hauser eine Vielzahl von Modulen und Backends im Webshop zusammen.

Beispiele für diese komplexe Multi-Tier-Architektur sind die personalisierte Anmeldung, die geführte Produktauswahl, ein von vielen Anwendungen gemeinsam genutzter Konfigurator sowie die Integration in die Prozesse des ERP-Systems. Die Komponenten werden zum Teil selbst gehostet als auch in der Cloud bereitgestellt.

Durch entwicklungsbegleitende Last- beziehungsweise Stresstests soll die mehrstufige Architektur auf ihre Belastungsfähigkeit getestet werden. Dafür nutzen wir Micro Focus LoadRunner Enterprise mit dem Tru Client-Protokoll in Kombination mit cloudbasierten Lastgeneratoren.

Durch das gleichzeitige Monitoring der Front- und Backends kann quasi live – also bereits während des Tests – erkannt werden, ob die Anwendung an ihre Belastungsgrenze stößt. Idealerweise wird über die genutzten Dashboards direkt analysiert, wo die Probleme liegen. Dies ist deutlich effektiver, als nach dem Lasttest zu versuchen, die Ursachen zu finden.

Aufgrund der dynamischen und agilen Entwicklung, sowohl auf Frontend- als auch auf Backend-Seite, verfolgen wir den Ansatz einer anpassbaren und Release-unabhängigen Objekterkennung. Gleichzeitig müssen wir die Performanz der an den Webshop angeschlossenen Datenbanken im Blick behalten.

Anspruchsvoll ist, die passenden Zeitpunkte für aussagefähige Tests zu finden, denn erst wenn alle benötigten Testressourcen zur Verfügung stehen und ausreichend Zeit eingeplant wird, lassen sich erfolgreiche Testläufe gestalten. Ein später Gesamt-Lasttest ist, wenn Performanzengpässe aufgedeckt werden, ein extremes Projektrisiko für Budget und Zeitplan. Daher setzen wir auf kleinteilige Komponententests, um dieses Risiko zu minimieren. Zur besseren Planbarkeit splitten wir das Projekt in ein pauschal budgetiertes Vorprojekt und ein dynamisches Hauptbudget für den eigentlichen Testteil. Letzteres wird beantragt, sobald Umfang, Aufwand und Risiko beurteilt sind.

Ebenso wichtig ist die fachbereichsübergreifende Kommunikation zwischen den beteiligten Teams: Unterschiedliche Entwicklungsgeschwindigkeiten erfordern eine präzise Steuerung der Tests. Bedingt durch die heterogene Anwendungslandschaft ergibt sich ein entsprechend hoher Pflegeaufwand für die Testskripte. Dies resultiert nicht zuletzt aus der ständigen Weiterentwicklung der interagierenden Systeme und Komponenten.

Lösung

Mit Micro Focus LoadRunner Enterprise nutzen wir auf ein kollaboratives Werkzeug für Last- und Performanztests. Um den Workload zu steuern, kommen virtuelle Lastgeneratoren aus der Cloud zum Einsatz, welche den gleichzeitigen Zugriff auf die Anwendungen emulieren. Durch individualisierte Skripte werden die Last- und Stresstests weitgehend automatisiert. Allerdings müssen die Skripte infolge neuer Releases oder Updates permanent geprüft und adaptiert werden.

Zusätzlich wird Grafana für die Visualisierung der clientseitigen LoadRunnner-Daten und für das Monitoring aller beteiligten Server und Backends eingesetzt. Die dargestellten Daten dienen zur Kontrolle der beteiligten Systeme während des Testens sowie zur Dokumentation und Analyse der Lasttests. Das versetzt den IT-Betrieb in die Lage, proaktiv mögliche Engpässe zu vermeiden.

Für die Visualisierung der Testergebnisse aus LoadRunner und das Monitoring nutzen wir ein Grafana-Dashboard.
Fazit

Zu einem erfolgreichen Projekt zählen aus unserer Erfahrung die klare und direkte Kommunikation der Ergebnisse, verbunden mit einer lösungsorientierten und dynamischen Arbeitsweise. Bezüglich der Anpassung der Testskripte sowie der Testausführung, dem Testdesign und der Evaluierung der Ergebnisse erleben wir mit Endress+Hauser einen Partner, der diese Sichtweise teilt und genauso flexibel auf Veränderungen reagiert. Der direkte Austausch untereinander sorgt für einen lückenlosen Wissenstransfer und damit verbunden für eine schnelle Reaktion auf neue Herausforderungen.

„Unsere langjährige Kooperation mit der proficom ist für uns eine Erfolgsgeschichte. Immer wieder führt die gemeinsame Arbeit an denkonkreten Themen zu neuen Ansätzen und noch besseren Ergebnissen in der Qualität unserer Tests und damit auch zu noch besserer Qualität der getesteten Anwendungen. Wir werden die gemeinsame Partnerschaft weiter intensivieren.“
W. Wagner – Expert Systems Engineer Performance
Background Image Mobile Version