Wartezeiten adé: In 4 Schritten zu agilem Testdatenmanagement

Software-Entwickler und Tester müssen geduldige Menschen sein. Denn gilt es, eine Software in Testzyklen auf Fehler, Qualität und Geschäftstauglichkeit zu überprüfen, heißt das zunächst oft: Warten. Denn in vielen Fällen dauert es sehr lange, bis die benötigten Testdaten überhaupt beim Tester ankommen. [...]

Alex Plant ist Vice President Marketing bei Delphix. (c) Delphix
Alex Plant ist Vice President Marketing bei Delphix. (c) Delphix

Auch wenn die Daten da sind, wird es dem Tester häufig unnötig schwer gemacht, effizient zu arbeiten. Nur die wenigsten Mitarbeiter der Entwicklungsabteilungen haben selbstverantwortlichen Zugriff auf die Daten. Sie müssen mit dem arbeiten, was ihnen bereitgestellt wird. Unterm Strich muss man feststellen: Das Testdatenmanagement (TDM) wie wir es heute kennen, verdient seinen Namen nicht.

Dabei gibt es längst die Möglichkeit, echtes und agiles TDM in der Softwareentwicklung zu betreiben. Der Schlüssel dazu ist eine möglichst agile Datenbereitstellung. Denn umso agiler, verlässlicher und flexibler die Testdaten, desto leichter lassen sich die nötigen Tests durchführen, die am Ende des Prozesses die Qualität der Software gewährleisten. Um Testdaten mit diesen Attributen bereitstellen zu können, reichen vier einfache Schritte.

Schritt 1: Daten virtualisieren

Zunächst einmal gilt es, die Ausgangsdaten zu virtualisieren. Dabei werden hochkomprimierte, virtualisierte Datenkopien aus beliebigen Datenquellen erstellt. Die Kopien ermöglichen den Benutzern einen schnellen Zugriff auf die benötigten Informationen. Das optimiert die Ressourcen, die eine Datenbank verbraucht, steigert die Speichereffizienz und senkt damit Kosten.

Die Datenvirtualisierung gelingt durch eine Verbindung zu einer externen Lösung, die unterbrechungsfrei, minimal-invasiv, kontinuierlich und effizient Daten virtualisiert.

Schritt 2: Daten maskieren

Im zweiten Schritt werden die Daten maskiert. Die Informationen in den Ursprungsdaten werden dabei allesamt anonymisiert. Das hat den Vorteil, dass Kunden- und Firmendaten konsequent geschützt werden und dem Datenschutz Rechnung getragen wird, ohne dass der Tester gänzlich auf sensible Daten verzichten muss. Bei der Delphix Dynamic Data Platform ist das Maskieren der Daten integraler Bestandteil der Lösung, es wird keine zusätzliche Software benötigt.

Schritt 3: Datenbereitstellung via Self-Service

Anschließend können die Tester und Entwickler via Self-Service auf die virtualisierten und maskierten Daten zugreifen. So entfallen lange Autorisierungsschleifen, gleichzeitig wird über automatisierte Bereitstellungsprozesse ein Höchstmaß an Agilität und Effizienz sichergestellt. Jeder Tester und Entwickler kann sich so auf die für ihn relevanten Daten konzentrieren, ohne unnötig Zeit in Freigabe- und Warteschleifen zu verlieren.

Schritt 4: Automatisierte Datenbereitstellung

Am Ende steht eine automatisierte Datenbereitstellung. Sie ermöglicht es Testern und Entwicklern, effizienter und genauer zu arbeiten sowie Zeit zu sparen. Diese können sie für produktive und nicht-repetitive Tätigkeiten nutzen, die ihr ganzes Know-How und ihre ungeteilte Aufmerksamkeit erfordern.

Darüber hinaus ermöglicht die Automatisierung den Zugriff auf Daten im Self-Service, ein einfaches Bookmarking und Zurücksetzen ihrer Daten in einen beliebigen früheren Zustand, ohne sich auf ein IT-Ticketing-System verlassen zu müssen. So können sie sorgenfrei mit den Testdaten experimentieren. Das Ergebnis: Ein kreatives Test- und Entwicklungsumfeld, in dem alle Beteiligten einen wesentlichen Beitrag zu Innovationen in der Softwareentwicklung leisten. Kurzum ein agiles TDM, das seinen Namen endlich verdient.

* Alex Plant ist Vice President Marketing bei Delphix.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*