Daten sind weder selten, noch schwer zu finden oder kostspielig in der Beschaffung. Wie man daraus das Beste macht, verrät Ingrid Kriegl im Interview. [...]
Sensorik, Finanz, CRM, IoT – die unterschiedlichsten Systeme und Endgeräte liefern Daten. Daten sind nicht selten, sie sind nicht schwer zu finden oder extrem kostspielig in der Beschaffung. Trotzdem sind sie im Digitalen Business so wertvoll wie Diamanten. Das hat man in vielen Unternehmen erkannt. Man will zum „Data Driven“ Business werden, und „datenzentriert“ agieren. Dass es dabei sowohl um den Menschen als auch um die technischen Möglichkeiten geht, weiß Ingrid Kriegl, Gründerin der Sphinx IT Consulting aus zahlreichen anspruchsvollen Projekten rund um DWH, Analytics und Big Data.
- Warum „Data Driven“ in vielen Unternehmen nur ein Schlagwort ist
- Wie dabei die Rollenverteilung zwischen IT und Fachabteilungen aussehen sollte
- Warum Daten weniger das Öl, sondern eher der Wind der digitalen Welt sind
Mastering the Gap ist daher das Motto des Unternehmens, zwischen Menschen und Technik, IT-Abteilung und Fachabteilung, Anforderungen und Möglichkeiten. Wir wollten von Ingrid wissen, woran es dabei scheitern kann, wie man das vermeidet, und welche Chancen es für Unternehmen unterschiedlicher Größen in der Praxis gibt, wenn man sich dem Thema Daten annimmt.
Data is the new oil, sagen die Analysten von Gartner. Aber welches sind die wirklich wertvollen Datenschätze des Unternehmens? Wieviel davon wird bereits gut genützt? Welche Potenziale gilt es noch zu heben?
Ich mag den Vergleich nicht besonders – Daten sind doch eher mit erneuerbaren Energien wie Sonne oder Wind zu vergleichen. Von beidem gibt es mehr, als wir jemals nützen könnten. Beide sind wertvolle, aber (immer noch) weitgehend ungenutzte Ressourcen – wenn man im Falle der Daten von den Giganten Amazon, Google, Facebook & Co mal absieht. Die wirklich wertvollen Daten sind immer die, die das Unternehmen voranbringen. Aus denen man Informationen ableiten kann, die gute Entscheidungen für die Zukunft ermöglichen und die im besten Fall auch zu komplett neuen Wegen inspirieren. Seien es individualisierte Dienstleistungen, flexiblere Business Modelle, innovativere Herstellverfahren, engere Kooperationen, schnellere Reaktionen auf geänderte Rahmenbedingungen uvm. Das klingt vielleicht hochtrabend, doch oft kann man auch mit überschaubarem Aufwand und pragmatischem Zugang sehr viel erreichen.
Die Realität – vor allem im Mittelstand – zeigt leider, dass es kaum irgendwo eine zentrale Sicht auf die Daten des Unternehmens gibt. Sie sind in verschiedenen Systemen verstreut und manchmal nicht einmal je System vernünftig auswertbar. Die Anreicherung der eigenen mit fremden Daten, der Einsatz von intelligenten Algorithmen oder gar KI / deep learning ist in Österreich noch nicht angekommen. Oft höre ich die Frage, was man mit den vorhandenen Daten anfangen könnte. Die Frage führt aber meines Erachtens in die Irre. Lasst uns lieber andersrum fragen. Was müsste ich wissen, damit ich dem Kunden besseres Service bieten könnte, damit ich ein smartes Produkt entwickeln könnte, damit es weniger Fehler in der Produktion, weniger Reklamationen, weniger Abhängigkeit von Lieferanten gäbe. Wenn ich weiß, was ich wissen will, dann weiß ich auch, welche Daten ich dafür brauche. Und mit etwas Glück habe ich sie schon oder kann sie besorgen/erheben.
Was sind die größten Hemmnisse dabei, Big Data und Analytics auszuschöpfen?
Um den Vergleich mit Öl heranzuziehen: Aus Daten kann man Informationen gewinnen wie Energie aus Öl. Doch es sind nicht die Länder reich, die das meiste Öl haben, sondern die mit den besten Fördertechniken und den smartesten Technologien, um das Öl zu raffinieren. Am reichsten sind die, die über Rohstoff UND Technologie verfügen – wie Amazon, Google, Facebook & Co.
Die Hemmnisse für die meisten heimischen Unternehmen sind aus meiner Erfahrung nicht-vorhandene oder untaugliche Analytics-Umgebungen, schlechte Datenqualität oder fehlende Konsolidierung, Mangel an qualifizieren Daten-Analysten und vor allem zu wenig Leute, DIE GUTE FRAGEN STELLEN. Zugegebenermaßen ist es nicht leicht herauszufinden, was man genau tun muss, um Daten in Business-Vorteile umzuwandeln. Die gute Nachricht ist, smarte Technologien um Daten zu “raffinieren” sind inzwischen verfügbar und für jeden leistbar. Wenn man echtes Interesse an den Daten und ihren Geheimnissen hat und die Daten gut aufbereitet sind, kann man sich als Fachbereich schrittweise annähern und lernen. Und das Stellen von guten Fragen ist eine Einstellungssache. Man darf einfach nie zufrieden sein mit dem Status quo.
Wie können IT und Fachbereiche dabei zusammenarbeiten? Welche Rollen sind nötig? Was sind die Voraussetzungen um gemeinsam erfolgreich zu sein?
Der Fachbereich ist in dem Thema DER Treiber – dort sitzen die Leute, die die Fragen stellen können. Fordern Sie ihre Kollegen in der IT ruhig ein bisschen mehr. Geben Sie sich nicht mit “es geht nicht” zufrieden, sondern fragen Sie nach, wie es doch gehen könnte. IT-Leute lieben schwierige Aufgaben und sind sehr lösungsorientiert. Leider haben sie oft schon mit dem Tagesgeschäft mehr als genug zu tun und finden nicht die Zeit, sich fehlendes Know-how anzueignen. Experten von außen können helfen, Ideen und Erfahrungen einzubringen und ein modernes Analytics-System rasch auf Schiene zu bringen. Und denken Sie dabei nach vorne! Die Vergangenheit zu analysieren hat seinen Wert, aber der ist limitiert. Was wir wirklich aus den Daten lernen sollten ist, warum Phänomene auftreten. Und vor allem, was wir tun können, um sie für die Zukunft vorauszusagen, zu nutzen oder zu verhindern.
Wie ist dabei die Rolle der Data Scientists? Was sind die Voraussetzungen für ihre Arbeit?
Data Scientisten werden oft mit Goldgräbern verwechselt. Man setzt sich aber nicht hin, um aus einem möglichst großen Berg von Daten etwas Sinnvolles herauszulesen. Ein Data Analyst kann dann gute Arbeit leisten, wenn man ihm Hypothesen gibt, die er aufgrund der Daten und spezieller Methoden wie KI / machine learning / deep learnig verifizieren oder falsifizieren kann. Er arbeitet also gezielt, eher wie ein Trüffel-Sucher. Seine zweite wichtige Aufgabe ist die Visualisierung von Daten und anschauliche Präsentation seiner Erkenntnisse. Er berät damit seine Kollegen in Führungspositionen, damit diese fundierten Entscheidungen treffen können. Ein guter Data Scientist kann die Kollegen auch beim Stellen der richtigen Fragen hervorragend unterstützen und sie auf neue Ideen bringen.
Und wie sehen die technischen Anforderungen aus? Welche Tools und Infrastruktur sind erforderlich?
Aus technischer Sicht gibt keine Showstopper mehr. Moderne Analytics Tools bieten alles, was man braucht. Man sollte bei der Auswahl nur darauf achten, dass sie “durchfeuern”, also keine eigenen “Cubes” aufbauen. Nur wenn das Tool direkt auf die Daten zugreift, kann es die Power der Datenbank nutzen, für die man ja viel Geld gezahlt hat.
Wenn herkömmliche Datenbanken die Last von hohen Analytics-Anforderungen nicht bewältigen – oder der entsprechende Ausbau zu teuer wäre – gibt es inzwischen eine gute Auswahl an leistungsfähigen und leistbaren MPP Systemen, die man daneben stellen kann. Darunter Technologien wie zB Exasol, die von der gratis Community Edition bis zu Cluster-Installationen von mehreren 1000 Knoten skalieren. Da ist für jeden Geldbeutel und jede Anforderung etwas dabei. Die Stärke von Hadoop Systemen sehe ich in der Verarbeitung großer Mengen von unstrukturierten Daten. Für strukturierte und semi-strukturierte Daten sind sie meines Erachtens im Regelfall nicht die erste Wahl.
Was sich durch enorme Fortschritte in der Technologie massiv geändert hat sind Aufwände und Komfort:
- wo früher der Aufbau eines DWH ein paar Jahre gedauert hat dauert es jetzt ein paar Wochen oder Monate
- wo früher aufwändig modelliert werden musste fügt man heute neue Datenquellen “as is” hinzu
- wo früher Business Layer materialisiert werden mussten werden sie heute weitgehend virtuell (als Views) angelegt
- wo früher adhoc Analysen einigen wenigen Anwendern vorbehalten waren (wenn überhaupt) kann heute jeder über ein Dashboard nach Belieben mit seinen Daten arbeiten
- wo sich früher der Anwender mit vor-aggregierten Daten begnügen musste drillt man heute selbstverständlich bis zum Einzelsatz hinunter
- wo früher für eine zufriedenstellende Performance laufend getuned werden musste, sind gute DWH Systeme heute fast wartungsfrei und trotzdem hoch performant
Der Fachbereich ist erstmalig Herr über seine Daten – so wie es sein soll.
Wenn das Geschäft datengetrieben ist, wie sehen denn die Anforderungen an die Datensicherheit aus? Was ist nötig, um diesem gerecht zu werden?
Wir alle sind nach wie vor zu sorglos. Datensicherheit kostet Geld und bringt auf den ersten Blick keinen Vorteil für das Business. Fatalerweise wird oft nicht einmal bemerkt, wenn Daten “weg” sind, denn sie sind ja noch da. Cryptolocker haben einiges an Umdenken bewirkt, denn jedes 10. Unternehmen hat Studien zufolge schon Lösegeld bezahlt oder die Attacke (fast) nicht überlebt. Die DSGVO wird leider von vielen nur als Schutz von fremden Daten gesehen (und damit nicht so ernst genommen). Oft wird dabei vergessen, wie lebenswichtig der Schutz der eigenen Daten für das Unternehmen ist. Die beste Technik alleine kann aber nie alles absichern. In unseren Awareness Schulungen sehen wir, dass man Mitarbeiter sehr gut sensibilisieren kann und sie bereit sind, durch richtiges Verhalten einen wichtigen Beitrag zu leisten. Es gibt übrigens ein Experiment, mit dem man sehr viel für das eigene Leben profitieren kann: man stellt sich vor, man hätte nur mehr wenige Stunden zu leben und blickt so auf sein Leben zurück. Ich kann nur jedem Unternehmen empfehlen, etwas ähnliches zu machen – sich kurz vorzustellen, es hätte nur mehr ein paar Stunden Zugriff auf seine Daten und dann wäre alles weg.
Aktuelle Trends, Meinungen und Expertenwissen rund um Data Science finden Sie auf www.itwelt.at, sowie im Blog bei Confare: https://confare.at/c/data-science/
Be the first to comment