Die Cloud kommt nach Hause und fordert Datenmanagement heraus

2018 wird nach Erwartung von Rubrik das Jahr, in dem die Cloud "nach Hause kommt". Das Unternehmen geht davon aus, dass Cloud-Dienste wesentlich näher an die Unternehmen rücken und im Idealfall verstärkt mit bestehenden Anwendungen und Infrastrukturen integriert werden. Daraus folgt jedoch auch eine Vielzahl an neuen Herausforderungen für das Datenmanagement, das diese Veränderungen unterstützen muss. [...]

Die Expansionspläne umfassen u.a. Standorte in Europa (Amsterdam, Schweiz). (c) Fotolia
Die Expansionspläne umfassen u.a. Standorte in Europa (Amsterdam, Schweiz). (c) Fotolia
Im Wesentlichen sieht Chris Wahl, Cheftechnologe bei Rubrik, für das neue Jahr vier zentrale Treiber, welche die Bedeutung und die Anforderungen an das Datenmanagement deutlich steigern werden. Für ihn sind die folgenden vier Entwicklungen maßgeblich für die Veränderungen der Cloud-Nutzung und somit für den Einsatz von Plattformen für Datenmanagement:
1. Direkte Bereitstellung von Cloud-Diensten
Im neuen Jahr wird es einen massiven Kampf zwischen den Anbietern geben, wenn es darum geht, Cloud-Dienste direkt an Unternehmen zu liefern. Bei den drei großen Cloud-Anbietern ist eine Erweiterung des Angebots und verstärkte Unterstützung durch Partner (Azure mit Azure Stack, Google Cloud Platform mit Nutanix und AWS mit VMware) im Gange. Dabei geht es darum, ein umfassendes Serviceportfolio zu etablieren, um On-Premise-Bereitstellungen in privaten Rechenzentren und Zweigstandorten zu revolutionieren. Eine Integration mit Cloud Data Management muss Unternehmen, Regierungsbehörden und sonstigen Organisationen dabei helfen, sich digital zu transformieren um das Hybrid-Cloud-Modell in vollem Umfang zu nutzen. 
2. Weitreichendere Nutzung von Cloud-Tools
Moderne Unternehmen bewegen sich zunehmend in einer IT-Welt von Containern, API-first-Architekturen und Cloud-native-Anwendungen. Die Unternehmens-IT verlagert sich von E-Mail zu Instant Messaging mit Slack und von relationalen Datenbanken zu NoSQL. Aktuell kratzen die meisten Organisationen nur an der Oberfläche, was die Nutzung von Cloud-Tools angeht. Dies wird sich aber bald ändern und vor allem Operations-Teams werden von Cloud-Tools noch weitaus mehr profitieren. In naher Zukunft werden diese sowohl in Cloud- als auch in On-Premise-Umgebungen allgegenwärtig sein, wobei Kubernetes zum klaren Gewinner der Branche avancieren wird. Wenn mehr Komplexität beseitigt wird und die Governance zu diesem Open-Source-Tool hinzugefügt wird, wird die Verbreitung rapide zunehmen.
3. EU-DSGVO verlangt nach Änderung der Datenstrategie
Unternehmen werden in 2018 mit Veränderungen durch die DSGVO konfrontiert. Sie müssen Maßnahmen ergreifen, um rechtzeitig die geforderte Compliance zu erlangen. Unternehmen müssen nach Ressourcen suchen, um ihre Datenstrategien zu ändern. Und sie werden nach Lösungen suchen, um ihre Daten effektiv zu indexieren und sie durchsuchbar zu machen, damit sie dieses Mandat erfüllen können. 
Für Unternehmen, welche die DSGVO einhalten müssen, ist „Sicherheit durch Design“ unerlässlich. Die Vorschrift fordert Unternehmen auf, Lösungen zu verwenden, bei denen der Datenschutz bereits in die Entwicklung integriert ist und nicht erst zu einem späteren Zeitpunkt ergänzt wird. Die Anforderungen gelten für On-Premise- und Cloud-Umgebungen sowie für Maßnahmen, die durch Mitarbeiter verursachte Verstöße verhindern sollen. Ziel ist es, dass die Daten unabhängig von ihrem Standort auf sichere und verantwortungsvolle Weise verwaltet werden. Dies wird erreicht durch End-to-End-Verschlüsselung für alle Umgebungen, wobei eine gleichbleibende Performance gewährleistet sein sollte.
4. Künstliche Intelligenz aus dem Elfenbeinturm der Datenwissenschaftler holen
Aktuell sind künstliche Intelligenz (KI) und maschinelles Lernen (ML) für die meisten Mitarbeiter innerhalb des Unternehmens, außer für Datenwissenschaftler, noch nicht erreichbar. Um KI und ML zukünftig für deutlich mehr Geschäftsanwender nutzbar zu machen, müssen Unternehmen eine solide Cloud-Data-Management-Strategie implementieren, um alle ihre Daten an einem Ort zu speichern, damit die Benutzer diese Daten für KI/ML-Anwendungen nutzen können. Daher ist die kontinuierliche Verfügbarkeit, lineare Skalierbarkeit und Einfachheit im Betrieb einer Datenumgebung entscheidend. Das Datenmanagementsystem muss so aufgebaut sein, dass es große Datenmengen handhaben, Repliken von Daten über Nodes verteilen und operative Prozesse mit geringer Latenz ausführen kann.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*