Continuous Integration und Continuous Delivery können nur dann wirklich stattfinden, wenn auch die Bereitstellung von Daten automatisiert erfolgt. Dafür müssen Unternehmen DevOps und DataOps verbinden. So lässt sich sowohl die Agilität als auch die Sicherheit erhöhen. [...]
Die meisten Unternehmen haben heute DevOps-Prozesse etabliert, um neue Entwicklungen schneller auf den Markt zu bringen. Bisher umfasst die Automatisierung jedoch meist nur die Infrastruktur und den Code – nicht aber die Datenbereitstellung. Das bremst Continuous Integration (CI) und Continuous Delivery (CD) aus. Denn für ihre Arbeit brauchen Entwickler hochqualitative, produktionsnahe Testdaten. Müssen sie diese erst aufwändig beantragen und lange auf sie warten, macht das die angestrebte Agilität wieder zunichte. Verschärft wird die Lage dadurch, dass meist viele Entwicklungsprojekte und -prozesse parallel stattfinden, sodass verschiedene Teams oft gleichzeitig dieselben Datensätze benötigen.
Was aber macht es so schwer, Testdaten schnell am gewünschten Ort zur Verfügung zu stellen? Datenbankadministratoren stehen dabei vor zahlreichen Herausforderungen. Zum einen sind Daten heute auf viele verschiedene Technologien verteilt, darunter alte Legacy Systeme, moderne Cloud Services und externe Quellen. Außerdem gibt es eine Vielzahl von Datenbank-Typen. Neben relationalen Datenbanken setzen 60 Prozent der Unternehmen heute NoSQL-Datenbanken und 49 Prozent Data Lakes auf Basis von Apache Hadoop/Spark ein, so eine Studie von 451 Research. Dazu kommt die riesige Masse an Daten, mit der es Datenbank-Administratoren heute zu tun haben. Benötigen Entwickler-Teams zum Beispiel fünf Kopien einer 500-Terabyte-Datenquelle, entstehen 2500 Terabyte. Testdaten in dieser Dimension zu provisionieren, kostet viel Zeit. Außerdem braucht man immensen Storage und eine große Netzwerkbandbreite, um solche Datenmengen zu speichern und zu transportieren. Auch organisatorische Probleme stehen der Agilität oft im Wege. In vielen Unternehmen arbeiten Datenbank-Administratoren noch getrennt von Testern und Entwicklern. Solche Silo-Strukturen erschweren es, die Datenbereitstellung in DevOps-Prozesse zu integrieren.
Security als größte Herausforderung
Ein weiteres Problem besteht darin, den Spagat zwischen Agilität und Security zu meistern. Daten sind wertvolles Kapital und enthalten oft sensible Informationen, die nicht in unbefugte Hände geraten dürfen. Zudem gibt es in jedem Unternehmen personenbezogene Daten, die unter die DSGVO fallen und besonders geschützt werden müssen. Entsprechende Security-Maßnahmen sind also unverzichtbar. Oft wenden Unternehmen daher stark restriktive Richtlinien auf all ihre Daten an – unabhängig davon, ob diese schützenswert sind. Das erschwert es jedoch, Testdaten jederzeit schnell am gewünschten Ort zur Verfügung zu stellen. Umgekehrt darf die Geschwindigkeit natürlich auch nicht zu Lasten der Sicherheit gehen. Ein Dilemma, das nur schwer zu meistern ist. Kein Wunder also, dass die Mehrheit der Unternehmen laut der 451 Research-Studie Security als größte Herausforderung beim Datenmanagement empfinden.
Gleichzeitig wächst die Datenmenge in Test- und Entwicklungsumgebungen und die Angriffsfläche wird größer. Denn mit dem zunehmenden Einsatz von Cloud-Technologie sind auch Nicht-Produktiv-Umgebungen ein potenzielles Ziel für Hacker geworden. Dazu kommen Insider-Bedrohungen. Traditionell haben Unternehmen ihre Security-Maßnahmen jedoch auf Produktiv-Umgebungen fokussiert und die Test- und Entwicklungsumgebungen eher vernachlässigt. Gerade hier aber liegen Unmengen an Daten, die geschützt werden müssen.
Eine DataOps-Plattform verbindet Agilität und Sicherheit
Eine DataOps-Plattform kann helfen, all diese Hindernisse zu überwinden. Sie kann die Datenbereitstellung automatisieren, sodass sie sich in DevOps-Prozesse integrieren lässt. Gleichzeitig erhöht sie die Sicherheit der Daten durch automatische Maskierung. Damit eine Datenmanagement-Plattform optimal mit DevOps zusammenspielt, sollte sie es Entwicklern ermöglichen, sich Testdaten im Self Service zu besorgen. Dafür erstellt die Plattform virtuelle Kopien von beliebigen Datenquellen und Datenbanktypen. Solche virtuellen Kopien benötigen nur einen Bruchteil des Speicherplatzes von physischen Kopien. Per API und CLI (Command Line Interface) lässt sich der Self Service in das ausgewählte CI/CD-Automatisierungssystem integrieren.
Um für Sicherheit zu sorgen, identifiziert die Plattform sensible Daten mithilfe von Algorithmen und maskiert sie automatisch bereits während der Virtualisierung. Dabei bleiben die Daten produktionsnah und voll funktionsfähig, werden aber so anonymisiert, dass sie sich nicht mehr einer bestimmten Person zuordnen lassen. Dieser Prozess ist unumkehrbar. Alle Entwickler erhalten dann pseudonymisierte Daten, sodass der Datenschutz jederzeit automatisch gewährleistet ist.
Das volle Potenzial von DevOps freisetzen
Unternehmen brauchen eine agile Softwareentwicklung und -Bereitstellung, um auf einem globalisierten Markt wettbewerbsfähig zu bleiben. Gleichzeitig müssen sie ihre sensiblen Daten effektiv schützen, ohne den Produktivprozess auszubremsen. Im Zusammenspiel von DataOps und DevOps lässt sich sowohl die Agilität als auch die Security verbessern. Denn eine DataOps-Plattform ermöglicht es, die Datenbereitstellung zu automatisieren und in Continuous Integration und Continuours Delivery zu integrieren. Dabei sorgt sie durch automatische Maskierung für Sicherheit. Erst so können DevOps-Prozesse ihr volles Potenzial entfalten.
*Sanjeev Sharma ist VP und Global Practice Director for Data Modernization bei Delphix.
Be the first to comment