Big Data: In fünf Schritten zu mehr Datensichtbarkeit

Mangelnde Datensichtbarkeit behindert Big Data-Analysen und birgt Gefahren in Bezug auf DSGVO und Compliance. TmaxSoft nennt fünf Faktoren, die IT-Entscheider prüfen sollten. [...]

TmaxSoft hat fünf Punkte für mehr Datensichtbarkeit in Sachen Big Data zusammengestellt.
TmaxSoft hat fünf Punkte für mehr Datensichtbarkeit in Sachen Big Data zusammengestellt. (c) TmaxSoft

Laut der aktuellen IDC Data Age 2025 Studie werden bis zum Jahr 2025 weltweit rund 163 Zettabyte an Daten generiert. Das entspricht einer Verzehnfachung gegenüber heute und in etwa der Datenmenge, um das gesamte Netflix-Filmmaterial 489 Millionen Mal anzuschauen. 60 Prozent aller anfallenden Daten werden dann von Unternehmen generiert. Für sie kann das Sammeln und Auswerten großer Datenmengen wertvolle Einsichten zur Verbesserung von Steuerungsprozessen und Kundenbeziehungen für mehr Wirtschaftlichkeit bieten.

„Mangelhafte Datensichtbarkeit kann jedoch die Aussagekraft und das Geschäftspotenzial von Big-Data-Analysen erheblich schmälern. Obendrein besteht die Gefahr, gegen Gesetze wie die neue DSGVO (EU-Datenschutzgrundverordnung) zu verstoßen“, warnt Thomas Hellweg, Vice President und Geschäftsführer DACH von TmaxSoft. Der Spezialist für Cloud-, Infrastruktur– und Legacy-Modernisierung hat fünf Punkte zusammengestellt, die IT-Entscheider im Zuge ihrer Big-Data-Projekte prüfen sollten:

1. Ist die Infrastruktur fit, um Big-Data-Potenziale zu nutzen?

Bereits innerhalb der kommenden zwei Jahre erwarten die IDC-Analysten einen weltweiten Anstieg der aus Big Data– und Business-Analysen generierten Einnahmen auf über 203 Milliarden US-Dollar. Das gewinnbringende Ausschöpfen dieser Analysen erfordert ein Maximum an Datensichtbarkeit. Für viele Unternehmen ist gerade das eine große Herausforderung: Häufig fehlt es zudem an Speicherkapazität, hoch performanten Werkzeugen und Anwendungen sowie Datenfreigabeprozessen innerhalb ihrer ITInfrastruktur, um große, unstrukturierte Datenmengen verarbeiten, analysieren und geschäftlich nutzen zu können. Um von Big-Data-Analysen zu profitieren, sollten IT-Verantwortliche daher prüfen, ob ihre Infrastruktur die erforderliche Datensichtbarkeit unterstützt oder eher behindert.

2. Ist Ihre Datenbank ein Nadelöhr?

Ein Kernelement für die Datenanalyse sind DatenbankSysteme. Veraltete Datenbanken bzw. relationale Datenbankmanagement-Systeme (RDBMS) können den potenziellen Mehrwert Big-Data-basierter Business-Analysen empfindlich verringern, wenn sie nicht über die erforderliche Funktionalität, Leistungsstärke und Skalierbarkeit verfügen. Viele RDBMS sind nicht in der Lage, hohe Workloads in Virtual Data-Center- oder Cloud-Umgebungen zu bewältigen.

Voraussetzung dafür sind besonders schnelle Zugriffszeiten, wie sie etwa von In-Memory-Datenbanken geboten werden. Diese laden Daten schon beim Start in den Arbeitsspeicher, während klassische Datenbanken die Daten erst bei Bedarf vom Festplattenlaufwerk holen. Damit erzielen In-Memory-Datenbanken deutlich höhere Zugriffs– und Verarbeitungsgeschwindigkeiten. Darüber hinaus können sie sowohl strukturierte als auch unstrukturierte Daten aus verschiedenen Vorsystemen ohne zwingende vorherige Aggregation analysieren. Die direkte Verwendung sehr großer Datenmengen aus dem Transaktionssystem vereinfacht die Datenanalyse erheblich.

3. Behindern hohe Lizenzkosten die Investition in neue Systeme?

Viele Hersteller bieten ihre Lösungen als sogenanntes Asset-Paket aus Hardware und Software an. Damit binden sie Anwender an jahrelangen Hardware-Support mit beständig steigenden Wartungskosten.

Zusätzlich erweisen sich bisherige Lizenzmodelle zunehmend als ein zu enges Korsett für virtuelle Umgebungen. Denn unabhängig von der tatsächlichen Nutzung werden Lizenzgebühren für viele DBMS pauschal auf sämtliche CPUs der virtuellen Server, auf denen die Datenbank läuft, erhoben. Um explodierende Lizenzkosten im Virtual Data Center abzuwenden, denkt beispielsweise unter Oracle-Anwendern bereits jeder Dritte über eine Substitution der Datenbank nach.

Unternehmen sollten sich daher nach rein Software-basierten Datenbank-Alternativen mit flexiblen Lizenz-Modellen umsehen, die herstellerunabhängig auf Standard-Hardware eingesetzt werden können. Solche Lösungen können die gleichen Leistungsmerkmale wie In-Memory-Datenbanken bereitstellen und eignen sich damit zur Big-Data-Analyse.

4. Können Legacy-Daten in die Datenanalysen integriert werden?

Die Kombination aktueller Datenanalysen mit der Aussagekraft historischer Daten erweitert den wirtschaftlichen Nutzen der Analysen. So lassen sich veritablen Business Intelligence-Vorteile gegenüber Mitbewerbern erzielen – beispielsweise im Wettbewerb traditioneller Banken gegenüber FinTech-Unternehmen.

Vielen Unternehmen fehlt jedoch der Einblick in die über viele Jahrzehnte gewachsenen Legacy-Kernsysteme wie Mainframes. Hier empfiehlt sich die Prüfung neuer Methoden, wie eine 1:1 Migration von Mainframe-Anwendungen in eine offenes oder Cloud-System über einen Mainframe Rehosting. Im Zuge der Migration wird auch der Programmcode der Altanwendungen deutlich „entschlackt“, für offene Systeme lesbar und damit nutzbar gemacht.

5. Gefährden „Blinde Daten“ das Einhalten von Compliance-Vorgaben wie DSGVO?

Unzureichende Datensichtbarkeit kann auch zu einem erheblichen Compliance-Risiko werden – insbesondere, wenn Herkunft, Umfang, Verarbeitung, Sicherheit und Speicherort personenbezogener Daten nicht nachvollzogen werden können. Auch in diesem Punkt erweisen sich Legacy-Anwendungen aufgrund ihres Alters, zahlreicher Iterationen und Revisionen zur Navigation als ernstes Hindernis. Denn der Zugriff auf den Quellcode der Altanwendungen ist entweder nicht möglich oder es fehlen die entsprechenden IT-Fachleute, die noch mit „alten“ Programmiersprachen, wie Assembler oder PL/1, umgehen können.

Neben anderen Compliance-Richtlinien zwingt die ab 25. Mai 2018 in Kraft tretende DSGVO CIOs dazu, das Risiko intransparenter Legacy-Systeme und mangelnder Datensichtbarkeit über alle Systeme hinweg neu zu bewerten und geeignete Maßnahmen zur Abwendung von Sanktionen zu ergreifen.


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

News

Von Views zu Likes: Tipps, um die Zuschauer-Interaktion auf YouTube zu steigern

Bei YouTube ist die Zuschauerinteraktion ein entscheidendes Element für den Erfolg eines Kanals. Besonders im Jahr 2024 wird deutlich, dass Likes, Kommentare und Shares nicht nur für die Sichtbarkeit wichtig sind, sondern auch eine Schlüsselrolle im Algorithmus von YouTube spielen. Eine hohe Zuschauerbindung ist für Kanäle essenziell, um deren Inhalte optimal zu promoten. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*