Big Data: In fünf Schritten zu mehr Datensichtbarkeit

Mangelnde Datensichtbarkeit behindert Big Data-Analysen und birgt Gefahren in Bezug auf DSGVO und Compliance. TmaxSoft nennt fünf Faktoren, die IT-Entscheider prüfen sollten. [...]

TmaxSoft hat fünf Punkte für mehr Datensichtbarkeit in Sachen Big Data zusammengestellt.
TmaxSoft hat fünf Punkte für mehr Datensichtbarkeit in Sachen Big Data zusammengestellt. (c) TmaxSoft

Laut der aktuellen IDC Data Age 2025 Studie werden bis zum Jahr 2025 weltweit rund 163 Zettabyte an Daten generiert. Das entspricht einer Verzehnfachung gegenüber heute und in etwa der Datenmenge, um das gesamte Netflix-Filmmaterial 489 Millionen Mal anzuschauen. 60 Prozent aller anfallenden Daten werden dann von Unternehmen generiert. Für sie kann das Sammeln und Auswerten großer Datenmengen wertvolle Einsichten zur Verbesserung von Steuerungsprozessen und Kundenbeziehungen für mehr Wirtschaftlichkeit bieten.

„Mangelhafte Datensichtbarkeit kann jedoch die Aussagekraft und das Geschäftspotenzial von Big-Data-Analysen erheblich schmälern. Obendrein besteht die Gefahr, gegen Gesetze wie die neue DSGVO (EU-Datenschutzgrundverordnung) zu verstoßen“, warnt Thomas Hellweg, Vice President und Geschäftsführer DACH von TmaxSoft. Der Spezialist für Cloud-, Infrastruktur– und Legacy-Modernisierung hat fünf Punkte zusammengestellt, die IT-Entscheider im Zuge ihrer Big-Data-Projekte prüfen sollten:

1. Ist die Infrastruktur fit, um Big-Data-Potenziale zu nutzen?

Bereits innerhalb der kommenden zwei Jahre erwarten die IDC-Analysten einen weltweiten Anstieg der aus Big Data– und Business-Analysen generierten Einnahmen auf über 203 Milliarden US-Dollar. Das gewinnbringende Ausschöpfen dieser Analysen erfordert ein Maximum an Datensichtbarkeit. Für viele Unternehmen ist gerade das eine große Herausforderung: Häufig fehlt es zudem an Speicherkapazität, hoch performanten Werkzeugen und Anwendungen sowie Datenfreigabeprozessen innerhalb ihrer ITInfrastruktur, um große, unstrukturierte Datenmengen verarbeiten, analysieren und geschäftlich nutzen zu können. Um von Big-Data-Analysen zu profitieren, sollten IT-Verantwortliche daher prüfen, ob ihre Infrastruktur die erforderliche Datensichtbarkeit unterstützt oder eher behindert.

2. Ist Ihre Datenbank ein Nadelöhr?

Ein Kernelement für die Datenanalyse sind DatenbankSysteme. Veraltete Datenbanken bzw. relationale Datenbankmanagement-Systeme (RDBMS) können den potenziellen Mehrwert Big-Data-basierter Business-Analysen empfindlich verringern, wenn sie nicht über die erforderliche Funktionalität, Leistungsstärke und Skalierbarkeit verfügen. Viele RDBMS sind nicht in der Lage, hohe Workloads in Virtual Data-Center- oder Cloud-Umgebungen zu bewältigen.

Voraussetzung dafür sind besonders schnelle Zugriffszeiten, wie sie etwa von In-Memory-Datenbanken geboten werden. Diese laden Daten schon beim Start in den Arbeitsspeicher, während klassische Datenbanken die Daten erst bei Bedarf vom Festplattenlaufwerk holen. Damit erzielen In-Memory-Datenbanken deutlich höhere Zugriffs– und Verarbeitungsgeschwindigkeiten. Darüber hinaus können sie sowohl strukturierte als auch unstrukturierte Daten aus verschiedenen Vorsystemen ohne zwingende vorherige Aggregation analysieren. Die direkte Verwendung sehr großer Datenmengen aus dem Transaktionssystem vereinfacht die Datenanalyse erheblich.

3. Behindern hohe Lizenzkosten die Investition in neue Systeme?

Viele Hersteller bieten ihre Lösungen als sogenanntes Asset-Paket aus Hardware und Software an. Damit binden sie Anwender an jahrelangen Hardware-Support mit beständig steigenden Wartungskosten.

Zusätzlich erweisen sich bisherige Lizenzmodelle zunehmend als ein zu enges Korsett für virtuelle Umgebungen. Denn unabhängig von der tatsächlichen Nutzung werden Lizenzgebühren für viele DBMS pauschal auf sämtliche CPUs der virtuellen Server, auf denen die Datenbank läuft, erhoben. Um explodierende Lizenzkosten im Virtual Data Center abzuwenden, denkt beispielsweise unter Oracle-Anwendern bereits jeder Dritte über eine Substitution der Datenbank nach.

Unternehmen sollten sich daher nach rein Software-basierten Datenbank-Alternativen mit flexiblen Lizenz-Modellen umsehen, die herstellerunabhängig auf Standard-Hardware eingesetzt werden können. Solche Lösungen können die gleichen Leistungsmerkmale wie In-Memory-Datenbanken bereitstellen und eignen sich damit zur Big-Data-Analyse.

4. Können Legacy-Daten in die Datenanalysen integriert werden?

Die Kombination aktueller Datenanalysen mit der Aussagekraft historischer Daten erweitert den wirtschaftlichen Nutzen der Analysen. So lassen sich veritablen Business Intelligence-Vorteile gegenüber Mitbewerbern erzielen – beispielsweise im Wettbewerb traditioneller Banken gegenüber FinTech-Unternehmen.

Vielen Unternehmen fehlt jedoch der Einblick in die über viele Jahrzehnte gewachsenen Legacy-Kernsysteme wie Mainframes. Hier empfiehlt sich die Prüfung neuer Methoden, wie eine 1:1 Migration von Mainframe-Anwendungen in eine offenes oder Cloud-System über einen Mainframe Rehosting. Im Zuge der Migration wird auch der Programmcode der Altanwendungen deutlich „entschlackt“, für offene Systeme lesbar und damit nutzbar gemacht.

5. Gefährden „Blinde Daten“ das Einhalten von Compliance-Vorgaben wie DSGVO?

Unzureichende Datensichtbarkeit kann auch zu einem erheblichen Compliance-Risiko werden – insbesondere, wenn Herkunft, Umfang, Verarbeitung, Sicherheit und Speicherort personenbezogener Daten nicht nachvollzogen werden können. Auch in diesem Punkt erweisen sich Legacy-Anwendungen aufgrund ihres Alters, zahlreicher Iterationen und Revisionen zur Navigation als ernstes Hindernis. Denn der Zugriff auf den Quellcode der Altanwendungen ist entweder nicht möglich oder es fehlen die entsprechenden IT-Fachleute, die noch mit „alten“ Programmiersprachen, wie Assembler oder PL/1, umgehen können.

Neben anderen Compliance-Richtlinien zwingt die ab 25. Mai 2018 in Kraft tretende DSGVO CIOs dazu, das Risiko intransparenter Legacy-Systeme und mangelnder Datensichtbarkeit über alle Systeme hinweg neu zu bewerten und geeignete Maßnahmen zur Abwendung von Sanktionen zu ergreifen.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*