Portfolio |

Weshalb die EU-DSGVO ein Glücksfall für die Qualität von Testdaten ist

Europäische Datenschutzgrundverordnung (EU-DSGVO): Mittlerweile wird jeder – auch die meisten Testmanager – zumindest davon gehört haben.

Europäische Datenschutzgrundverordnung (EU-DSGVO): Mittlerweile wird jeder – auch die meisten Testmanager – zumindest davon gehört haben.

Das ist wenig verwunderlich, wenn man bedenkt, dass sie Ende Mai tatsächlich gültig wird.

Ein Aspekt aus dem Testumfeld, der mit hoher Wahrscheinlichkeit im Kontext der EU-DSGVO betrachtet wird, ist der Themenkomplex Testdaten. Das ist generell eine gute Sache, wenn man bedenkt, wie stiefmütterlich Testdaten (und deren Qualität!) häufig behandelt werden. Die Zeit für Qualitätssicherung im Allgemeinen und das Testen im Speziellen ist bisweilen recht knapp bemessen. Häufig sind außerdem Testdaten notwendig, welche mitunter komplexe Abläufe ermöglichen müssen. Solche Testdaten zu erzeugen kostet entsprechend Zeit. Aufgrund der bereits erwähnten Zeitknappheit ist es gängige Praxis, mit einem Datenbankdump von Produktionsdaten zu arbeiten – auch, wenn dies hinsichtlich Datenschutz kritisch zu betrachten ist…

Durch die EU-DSGVO entsteht ein neuer Anreiz, das Thema Testdaten anzugehen. Definitiv muss den breitgefächerten Aspekten des Datenschutzes Sorge getragen werden. Das heißt, Produktionsdaten können – wenn überhaupt – nur noch als Basis für eine anschließende Anonymisierung/Pseudonymisierung dienen.

Doch wann haben Testdaten eine ausreichend gute Qualität und eignen sich somit für Testvorhaben? Neben dem Einhalten der gesetzlichen Aspekte sind häufig das Fehlen verschiedener referentieller Integritäten, falscher Subsettings, Verletzung von Constraints o.ä. Probleme in der Praxis. Diese Probleme behindern bzw. stoppen schlimmstenfalls die Testdurchführung. Um festzustellen, bei welchen Datensätzen diesbezüglich nachgebessert werden muss, kann als erster Ansatzpunkt eine Metrik, welche die Datenqualität der Testdaten misst, definiert werden (laden Sie hier das „White Paper Datenqualität“ herunter, PDF, 2,6 MB). Ein zweiter Schritt wäre, den Anonymisierungsgrad der Testdaten zu messen, um Datensätze aufzuzeigen, die potentiell nicht datenschutzkonform sind. Hierzu hat Jan-Philipp Heinrich seine Masterarbeit „Anforderungsanalyse und Entwurf eines Tools zur Validierung von Testdaten gemäß der neuen Datenschutz-Grundverordnung“ bei der profi.com AG verfasst.

Auch wenn das Thema EU-DSGVO ob seines regulatorischen Charakters zunächst wie eine unwillkommene Zusatzbelastung erscheint – und zusätzlicher Aufwand ist es zweifelsohne – so kann es, gerade aus Sicht des Testmanagements auch anders wahrgenommen werden: Als Chance, das Thema Testdaten und deren Qualität endlich in größerem Umfang anzugehen.

Autor:in

Profilbild Paul Klinkmüller
Paul hat als Testmanager umfassendes Know-how vom Produktlebenszyklus einer Software unter Nutzung hybrider agiler Vorgehensweisen und cloudbasierter Architekturen. Damit kombiniert er die verschiedenen DevSevOps-Phasen zu komplexen CI-/CD-Pipelines. 

Diesen Beitrag teilen