Softwareentwicklung im Unternehmen: Mit Datenvirtualisierung vom DevOps-Ansatz profitieren

Der DevOps-Ansatz bringt die Prozesse von Entwicklung und IT-Betrieb in Einklang. Copy-Data-Virtualisierung sorgt dabei für effizientes Datenmanagement und schnellen Datenzugriff. [...]

Die Umsetzung von DevOps aus der bestehenden Infrastruktur für Entwicklung und IT-Betrieb ist aber nicht einfach. Die typische IT-Organisation weist Silostrukturen auf, die dem erzielbaren Potenzial hinsichtlich Agilität, Flexibilität und Geschwindigkeit im Weg stehen. Ein Beispiel: In den meisten Unternehmen kann es Stunden, wenn nicht Tage oder gar Wochen dauern, um Kopien großer Datenmengen bereitzustellen. Für Entwickler, die laufend Kopien von Produktionsdaten zu Testzwecken benötigen, bedeutet dies einen erheblichen Engpass und sorgt für die allzu bekannten Spannungen zwischen Entwicklung und Betrieb. So wird oft auf abgespeckte Datensätze ausgewichen, um die Bereitstellungszeit zu verkürzen, was aber die Qualität der Anwendungen beeinträchtigen kann. Da kein reales Abbild der Produktionsumgebung zur Verfügung steht, können Fehler unentdeckt bleiben, die im QM-Prozess oder erst später im Produktivbetrieb auftauchen. DevOps ist ein guter Ansatz, um Prozesse wie diese zwischen Entwicklung und Betrieb zu optimieren. Das volle Potenzial kann DevOps jedoch erst entfalten, wenn auch Kopien großer Datenmengen rasch und in bester Qualität zur Verfügung stehen.

ZEITGEMÄSSES DATENMANAGEMENT

Um diese Herausforderung anzugehen, ist eine zeitgemäße, effiziente Lösung für das Datenmanagement erforderlich. Diese soll die Datenbereitstellung beschleunigen und die Abhängigkeit des Dev- vom Ops-Team minimieren. An dieser Stelle kommt Copy-Data-Virtualisierung, also die Virtualisierung von Datenkopien, ins Spiel

Die in vielen Unternehmen weltweit bereits praxisbewährte Technologie beruht darauf, eine einzige „goldene“ Master-Kopie der Produktionsdaten vorzuhalten, von der eine unbegrenzte Anzahl von virtuellen Kopien unmittelbar bereitgestellt werden kann. Diese Datenkopien sind dann verfügbar für verschiedene Einsatzzwecke, nicht nur für Entwicklung und Test, sondern auch für Backup, Disaster Recovery, Datenanalyse etc., ohne dass dafür separate „Datensilos“ vorgehalten werden müssen. Separate Systeme für die Verwaltung dieser Silos entfallen damit ebenso wie mehrfach redundante Kopien der gleichen Daten, die unnötig Speicherressourcen belasten und zu einem großen Teil der eigentliche Grund für die viel zitierte „Datenflut“ sind.

Interessant für DevOps: Mit der Virtualisierung von Datenkopien ermöglicht das Betriebsteam den Entwicklern sofortigen Zugriff auf vollwertige Kopien der Produktionsdaten nach dem Self-Service-Prinzip. Das Ergebnis sind Anwendungen in besserer Qualität, die schneller ausgeliefert werden. Entwickler müssen sich nicht mehr mit Engpässen bei der Datenbereitstellung herumschlagen und der IT-Betrieb muss sich nicht mehr mit der aufwändigen Bereitstellung und Verwaltung von physischen Kopien der Produktionsdaten belasten. So sind beide Parteien in der Lage, sich gemeinsam darauf zu konzentrieren, das Unternehmen voranzubringen.

DATEN UND SOFTWARE WERDEN IMMER WICHTIGER

Die Integration der Anwendungsentwicklung mit dem IT-Betrieb, entsprechend dem DevOps-Modell, erfordert ein Umdenken. Silostrukturen und separate Prozesse müssen abgebaut werden, um eine beschleunigte Anwendungsentwicklung zu ermöglichen. Schlankes Datenmanagement dank Datenvirtualisierung passt hervorragend in dieses Konzept, da damit Datensilos beseitigt werden, zugunsten eines einfachen und schnellen Datenzugriffs. So macht es die Virtualisierung von Datenkopien erst möglich, das volle Potenzial von DevOps zu nutzen. Auf diese Weise kann eine effiziente Kombination aus geschäftsorientierter rascher Anwendungsentwicklung mit hoher Qualität und mit schnellen, reibungslosen Betriebsprozessen realisiert werden. Der Schlüssel dazu ist eine intelligent verwaltete virtuelle Datenbasis. Dies in Zukunft umso mehr, da Daten und Software immer wichtiger werden, während die zugrundeliegende Infrastruktur immer weiter standardisiert wird. Letztere verliert zunehmend an Bedeutung und wird dank Cloud- und As-a-Service-Angeboten heute von vielen Unternehmen gar nicht mehr im eigenen Unternehmen vorgehalten.

* Maximilian Schuck ist Solutions Architect DACH bei Actifio.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*