Softwareentwicklung im Unternehmen: Mit Datenvirtualisierung vom DevOps-Ansatz profitieren

Der DevOps-Ansatz bringt die Prozesse von Entwicklung und IT-Betrieb in Einklang. Copy-Data-Virtualisierung sorgt dabei für effizientes Datenmanagement und schnellen Datenzugriff. [...]

Die Umsetzung von DevOps aus der bestehenden Infrastruktur für Entwicklung und IT-Betrieb ist aber nicht einfach. Die typische IT-Organisation weist Silostrukturen auf, die dem erzielbaren Potenzial hinsichtlich Agilität, Flexibilität und Geschwindigkeit im Weg stehen. Ein Beispiel: In den meisten Unternehmen kann es Stunden, wenn nicht Tage oder gar Wochen dauern, um Kopien großer Datenmengen bereitzustellen. Für Entwickler, die laufend Kopien von Produktionsdaten zu Testzwecken benötigen, bedeutet dies einen erheblichen Engpass und sorgt für die allzu bekannten Spannungen zwischen Entwicklung und Betrieb. So wird oft auf abgespeckte Datensätze ausgewichen, um die Bereitstellungszeit zu verkürzen, was aber die Qualität der Anwendungen beeinträchtigen kann. Da kein reales Abbild der Produktionsumgebung zur Verfügung steht, können Fehler unentdeckt bleiben, die im QM-Prozess oder erst später im Produktivbetrieb auftauchen. DevOps ist ein guter Ansatz, um Prozesse wie diese zwischen Entwicklung und Betrieb zu optimieren. Das volle Potenzial kann DevOps jedoch erst entfalten, wenn auch Kopien großer Datenmengen rasch und in bester Qualität zur Verfügung stehen.

ZEITGEMÄSSES DATENMANAGEMENT

Um diese Herausforderung anzugehen, ist eine zeitgemäße, effiziente Lösung für das Datenmanagement erforderlich. Diese soll die Datenbereitstellung beschleunigen und die Abhängigkeit des Dev- vom Ops-Team minimieren. An dieser Stelle kommt Copy-Data-Virtualisierung, also die Virtualisierung von Datenkopien, ins Spiel

Die in vielen Unternehmen weltweit bereits praxisbewährte Technologie beruht darauf, eine einzige „goldene“ Master-Kopie der Produktionsdaten vorzuhalten, von der eine unbegrenzte Anzahl von virtuellen Kopien unmittelbar bereitgestellt werden kann. Diese Datenkopien sind dann verfügbar für verschiedene Einsatzzwecke, nicht nur für Entwicklung und Test, sondern auch für Backup, Disaster Recovery, Datenanalyse etc., ohne dass dafür separate „Datensilos“ vorgehalten werden müssen. Separate Systeme für die Verwaltung dieser Silos entfallen damit ebenso wie mehrfach redundante Kopien der gleichen Daten, die unnötig Speicherressourcen belasten und zu einem großen Teil der eigentliche Grund für die viel zitierte „Datenflut“ sind.

Interessant für DevOps: Mit der Virtualisierung von Datenkopien ermöglicht das Betriebsteam den Entwicklern sofortigen Zugriff auf vollwertige Kopien der Produktionsdaten nach dem Self-Service-Prinzip. Das Ergebnis sind Anwendungen in besserer Qualität, die schneller ausgeliefert werden. Entwickler müssen sich nicht mehr mit Engpässen bei der Datenbereitstellung herumschlagen und der IT-Betrieb muss sich nicht mehr mit der aufwändigen Bereitstellung und Verwaltung von physischen Kopien der Produktionsdaten belasten. So sind beide Parteien in der Lage, sich gemeinsam darauf zu konzentrieren, das Unternehmen voranzubringen.

DATEN UND SOFTWARE WERDEN IMMER WICHTIGER

Die Integration der Anwendungsentwicklung mit dem IT-Betrieb, entsprechend dem DevOps-Modell, erfordert ein Umdenken. Silostrukturen und separate Prozesse müssen abgebaut werden, um eine beschleunigte Anwendungsentwicklung zu ermöglichen. Schlankes Datenmanagement dank Datenvirtualisierung passt hervorragend in dieses Konzept, da damit Datensilos beseitigt werden, zugunsten eines einfachen und schnellen Datenzugriffs. So macht es die Virtualisierung von Datenkopien erst möglich, das volle Potenzial von DevOps zu nutzen. Auf diese Weise kann eine effiziente Kombination aus geschäftsorientierter rascher Anwendungsentwicklung mit hoher Qualität und mit schnellen, reibungslosen Betriebsprozessen realisiert werden. Der Schlüssel dazu ist eine intelligent verwaltete virtuelle Datenbasis. Dies in Zukunft umso mehr, da Daten und Software immer wichtiger werden, während die zugrundeliegende Infrastruktur immer weiter standardisiert wird. Letztere verliert zunehmend an Bedeutung und wird dank Cloud- und As-a-Service-Angeboten heute von vielen Unternehmen gar nicht mehr im eigenen Unternehmen vorgehalten.

* Maximilian Schuck ist Solutions Architect DACH bei Actifio.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*