Hybrid Cloud – viele Vorteile und mit dem richtigen Ansatz gut beherrschbar

Lokales Datacenter oder Public Cloud? Diese Entscheidung muss nicht mehr getroffen werden – hybride Cloud Konzepte erlauben ein Sowohl-als-auch beider Welten und sind Realität. Daten sowohl im lokalem Datacenter als auch in der Public Cloud verarbeiten zu können, Services schnell bereitzustellen und einfach zu skalieren – das sind Merkmale einer hybriden Cloud Infrastruktur. [...]

© iStock by Getty Image

Im härter werdenden Wettbewerb geht es immer wieder darum, seinen Kunden neue Services, neue Funktionen schnell zur Verfügung stellen zu können; und das mit dynamisch anpassbaren Kapazitäten. Das spricht dafür, Public Cloud Angebote zu nutzen. Gleichzeitig geht es darum, eine Verbindung zu den Services im lokalen Datacenter zu ermöglichen. Denn es gibt auch gute Gründe, Services weiterhin lokal zu betreiben.

Das führt dazu, dass nach der ersten Welle „Möglichst-alles-in-die-Cloud“ erkannt wird: Beide Ansätze – lokales Rechenzentrum und Public Cloud – haben mehr denn je ihre Berechtigung. Allerdings nicht getrennt voneinander und im Wettbewerb, sondern als eine Gesamtheit betrachtet, die im Miteinander den größten Nutzen bringt. Wenn derart hybride Konzepte von Grund auf richtig konzipiert und umgesetzt werden, eröffnen sich bisher unbekannte Möglichkeiten.

Eine der wichtigsten Fragen in diesem Zusammenhang lautet: Wie bewahre ich den Überblick, wie kann ich meine Daten in dieser hybriden Welt managen? Daten sollen zwischen lokalem Datacenter und einem oder mehreren Public Cloud Anbietern bewegt werden. Und das ohne Kompromisse bei Security, Datenintegrität und Wirtschaftlichkeit. Nicht zuletzt soll es auch möglich sein, Daten bei Bedarf wieder einfach ins lokale Datacenter zurückzuholen.

Die richtige Architektur ist ein wichtiger Schlüssel zum Erfolg

Zeitgemäße Hybrid-Cloud-Architekturen stellen das übergreifende und einheitliche Management der Daten in den Vordergrund. Und damit kommt man am Begriff „Data Fabric“ heute nicht mehr vorbei.

Im Vergleich zu herkömmlichen hybriden Architekturen basiert der Data Fabric Ansatz auf Software-defined Datacenter Ansätzen. Mechanismen für Replikation, Dataefficiency und WORM (Write Once Read Multiple) sind dabei u.a. die Basis für konsistente und durchgängige Dataservices auf Enterprise-Niveau; und das unabhängig vom Einsatzort und der Hardware, lokal oder in der Public Cloud.

So lassen sich Daten bei allen großen Hyperscalern und im lokalen Datacenter effizient und mit einem einheitlichen User Interface managen und skalieren.

Durch diese gesamtheitlichen hybriden Ansätze werden Herausforderungen zu Chancen transformiert. Chancen, die helfen das Business zu beschleunigen, weil neue IT-Services schneller auf den Markt kommen. Und Risiken werden reduziert, weil die Infrastruktur gut vor einem Ausfall oder Ransomware-Angriff geschützt werden kann. Noch dazu kann durch das Auslagern von Daten oft Geld gespart werden.

Eine Data Fabric Architektur liefert Ihnen dazu on top das passende Cockpit. So bewahren Sie Überblick und können Ihre hybride Cloud gut für Ihre Zwecke nutzen.

Sie möchten erfahren, was Ihnen ein hybrides Konzept für Ihre konkreten Anforderungen bringen kann? Die Cloud-Spezialisten von Bacher Systems denken das gerne gemeinsam mit Ihnen durch. Sie haben langjährige Praxiserfahrung mit Data Fabric-Implementierungen auf Basis von Cloud Volumes ONTAP von NetApp. 

Weitere Infos:
Thomas Grill
cloud@bacher.at
+43 1 60126 375
https://www.bacher.at/de/leistungen/cloud/data-and-service-mobility/


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*