Jedes Unternehmen wird in Zukunft zum Datenunternehmen. Daten treiben Innovationen voran. Damit das gelingt, müssen sie allerdings sicher verarbeitet werden – und gleichzeitig müssen Firmen die richtigen Schlüsse aus ihnen ziehen. Die Voraussetzung dafür ist die Maskierung der Daten. [...]
Unternehmen brauchen Daten, um neue Applikationen oder Lösungen zu entwickeln. Leider arbeiten sie oft mit den falschen, veralteten Daten – und bremsen so ihre eigene Innovationsfähigkeit aus. Dabei könnten sie stattdessen auf Superpower-Daten mit echtem Mehrwert zugreifen – solche, die schnell und sicher sind und trotzdem realistisch sowie konsistent.
Welche Fehler Unternehmen machen und was falsche Daten sind
Nehmen wir an, Ihr Unternehmen will sicherstellen, dass niemand sensible Informationen aus den von Ihnen erhobenen Daten auslesen kann. Das ist die Voraussetzung, damit Sie erfolgreich arbeiten können. Sie entfernen deshalb kritische Details über Kunden aus den Daten, zum Beispiel Geburtstage oder Kreditkartennummern. Der Haken: Sie wollen ja möglichst realitätsnahe Angebote entwickeln und testen. Für qualitativ hochwertige Ergebnisse brauchen sie aber realistische Produktivdaten. Fehlen solche Informationen, sind sie nicht mehr präzise genug.
Manche Unternehmen nutzen daher falsche Daten oder entwickeln inhouse eigene Skripte oder Tools, um Daten zu schützen. Dabei werden Merkmale, die für die Identifikation einer Person notwendig sind, durch anonyme Daten ersetzt. Damit sind Sie schon auf dem richtigen Weg – und erzielen trotzdem wahrscheinlich keine hilfreichen Ergebnisse, wenn Sie es nicht richtig machen.
Denn es reicht nicht aus, die originalen Daten einfach durch fiktive zu ersetzen. Es gibt einige Fallstricke, über die Sie stolpern können:
- Sind die Datensätze nicht gleich alt, kann es zu schwerwiegenden Fehlern und Inkonsistenzen kommen.
- Die bestehenden, impliziten Datenbeziehungen müssen zudem erhalten bleiben, ansonsten drohen zeitaufwändige Schwierigkeiten beim Abgleichen der Testergebnisse.
Daten fließen und wandeln sich
Ein Beispiel macht das deutlich: Stellen Sie sich vor, Sie wollen verschiedene Datensätze gegeneinander testen. Diese wurden aber zu verschiedenen Zeitpunkten erhoben: Datensatz A stammt vom 1. Januar und Datensatz B vom 1. Februar. Da es sich nicht um identische Daten handelt, können Testfehler auftreten und zu schlechten Ergebnissen führen, selbst wenn beide Datensätze aus korrekten, „guten“ Daten bestehen.
Für Ihre Tests ist es außerdem essenziell, dass alle Elemente in unterschiedlichen Systemen gleich maskiert werden. Wenn Sie in System A Dieter in Peter konvertieren, in System B aber Dieter in Klaus, wird das Abgleichen der Testergebnisse unnötig erschwert.
Wie konsistente Datenmaskierung aussieht
Wenn die Datenmaskierung konsistent ist, stellen sich diese Herausforderungen nicht: Implizite Datenbeziehungen und wichtige Eigenschaften werden über alle Umgebungen hinweg beibehalten, ohne dass es zu Komplikationen kommt. Niemand kann Rückschlüsse auf echte Kunden ziehen; Entwickler, Tester und Datenanalysten haben trotzdem Zugriff auf realistische Produktivdaten.
Eine konsistente Datenmaskierung muss daher unbedingt folgendes leisten können:
- Referenziell konsistent: Die referenzielle Integrität wird innerhalb und zwischen Anwendungen sowie zu den nicht-maskierten Daten beibehalten.
- Repräsentativ: Die maskierten Daten haben ähnliche Merkmale wie die ursprünglichen Daten, um ähnliche Testergebnisse zu erzielen.
- Realistisch: Die Werte in maskierten Feldern sind fiktiv, aber plausibel.
Zudem ist es wichtig, dass die Maskierung zwei Anforderungen erfüllt:
- Sie muss irreversibel sein.
- Die Maskierung muss jederzeit einfach wiederholt werden können, wenn sich die Daten ändern.
Daten mit Superpower nutzen
Eine plattformbasierte Lösung wie DataOps von Delphix gewährleistet das. Mit ihrer Hilfe ziehen Unternehmen echten Mehrwert aus den verfügbaren Informationen – und greifen damit auf Superpower-Daten zu. Die DataOps-Plattform erstellt dafür virtuelle Kopien der Produktivdaten. Diese sind dann die Basis für die Bereitstellung der Daten in verschiedenen Entwicklungs- und Testumgebungen – lokal und in der Cloud. Die Datenmenge spielt dabei keine Rolle, denn eine solche Plattform kann sich dem wachsenden Datenvolumen einfach anpassen. Außerdem werden keine physikalischen Kopien der Daten in produktionsfremden Instanzen gespeichert und dies führt zu Kosteneinsparungen.
Mit einer solch ausgereiften DataOps-Plattform werden verfremdete Daten viel schneller erstellt und bereitgestellt. Zeit- und kostenaufwändige Sicherheitsmaßnahmen fallen weg. So wird der Zugriff für Entwickler, Tester und Analysten beschleunigt – und Innovationen können dank der Superpower-Daten in kürzerer Geschwindigkeit sicher entwickelt werden.
Woody Evans ist Vice President Pre-Sales bei Delphix.
Be the first to comment