KI, Data Governance, Predictive Analytics, der souveräne, unternehmensübergreifende Umgang mit Daten sowie das intelligente Indizieren relevanter Datensets in Big-Data-Umgebungen sind die wichtigsten BI-Trends für das Jahr 2019. [...]
Die Integration von KI-Engines in Analytics-Anwendungen sowie Data Governance – also die Verfügbarkeit, Anwenderfreundlichkeit, Integrität und Sicherheit von Daten – sind die beiden Top-Trends für die Analytics-Economy im kommenden Jahr. Das teilt der Data-Analytics-Spezialist Qlik heute mit. Die Prognosen des Unternehmens für die globalen BI-Trends werden unterstrichen durch eine Umfrage zur Einschätzung wichtiger BI-Trends für das kommende Jahr unter den Teilnehmern der jüngsten Qlik Data Revolution Tour (DRT) in Frankfurt mit rund 300 BI-Experten, Analysten und Unternehmens-Anwendern.
Wichtigster Trend für 2019 ist laut Qlik die Einbindung von Künstlicher Intelligenz (KI) in Analytics-Anwendungen. Dem stimmen auch über 70 Prozent der Befragten zu. „Allerdings geht es auch künftig nicht darum, automatisierte Entscheidungs-Maschinen zu bauen, die unabhängig von menschlicher Einsicht agieren“, so Robert Schmitz, Area Vice President Southern Europe & Russia bei Qlik. „Im Vordergrund steht vielmehr, mithilfe kognitiver Systeme schnell, vollständig und unter Einbeziehung aller Datenquellen optimale, datenbasierte Entscheidungs-Grundlagen zu schaffen.“ Helfen könnten dabei KI-basierte Visualisierungs-Empfehlungen oder Vorschläge zur sinnvollen Kombination von Datenquellen. „Mitarbeiter in Organisationen aller Art und Größe werden so von aufwändigen und fehleranfälligen Prozessen entlastet und in der intuitiven Erforschung unterschiedlichster Datenquellen bestärkt“, so Schmitz.
Überwinden von Infrastrukturgrenzen und mobile Verfügbarkeit
Data Governance steht laut den Top 5 der weltweiten Qlik-BI-Trends ebenfalls weit vorne. Neben Verfügbarkeit und Benutzerfreundlichkeit legen BI-Profis vor allem Wert auf Qualität, Integrität und Sicherheit von Daten. „Dabei ist es wichtig, diese Bedürfnisse auch über Infrastrukturgrenzen hinweg zu adressieren“, so Robert Schmitz. Auch und gerade in hybriden und Cloud-Umgebungen seien Datenqualität, rollenbasierte Zugriffsrechte sowie die sichere und komfortable Datenanbindung – ob in der Cloud oder on-premise – entscheidend für immer mehr Geschäftsprozesse über Abteilungen oder Standorte hinweg. „Das bedeutet auch uneingeschränkte mobile Verfügbarkeit von relevanten Datensets und Analytics-Apps bei zentral gemanagter Governance“, so Schmitz. Vervollständigt werden die Top 5 der globalen Qlik-BI-Trends für 2019 durch die Themen Predictive Analytics, Data Literacy und Big Data Indexing.
„Die Vielfalt an Predictive-Analytics-Anwendungen wächst rasant“, so Robert Schmitz. „Gerade in IoT-Umgebungen, wo es um Geräte- und Produktionssteuerung auf der Grundlage von Maschinen- und Sensordaten, von Umgebungsdaten und Wartungsintervallen geht, hilft unter anderem datenbasierte Predictive Maintenance, kostenintensive Stillstands-Zeiten oder unerwartete, wartungsbedingte Ausfälle zu reduzieren.“
Ganzheitliches, organisationsübergreifendes Datenverständnis
Dass unter den Top 5 Trends auch das Thema Data Literacy – der souveräne Umgang mit Daten – angesiedelt ist, ist für Robert Schmitz ein Zeichen dafür, dass sich zunehmend die Erkenntnis durchsetzt: „Daten allein haben noch keinen Wert.“ Vielmehr müssten Kompetenzen, Werkzeuge und Motivation hinzukommen, die auf der Grundlage der immer weiterwachsenden Datenbestände zu Analyse, Verständnis und letztlich datenbasierten Handlungsoptionen führen.
Dass viele Unternehmen hier bereits auf einem guten Weg sind, jedoch noch einiges an konkretem Handlungsspielraum besteht, betont Schmitz in diesem Zusammenhang: „Laut dem jüngsten Data Literacy Index hätten weltweit 63 Prozent der befragten Unternehmen gern mehr Mitarbeiter mit echter Datenkompetenz. Doch nur 34 Prozent der Unternehmen bieten derzeit Schulungen zur Verbesserung der Datenkenntnisse an.“
Big Data Indexing meint die intelligente Indizierung relevanter Datenausschnitte aus großen und größten Datenbeständen. „Wenn auf der Basis von Metadaten relevante Informationen hervorgehoben und in eine Analytics-Anwendung geladen werden, können Performanz und Skalierbarkeit der In-Memory-Technologie auch bei großen und größten Datensets ansetzen, was den kritischen Faktor Zeit positiv beeinflusst – und unter anderem Echtzeit-Analysen auch bei einem enormen Datenaufkommen gewährleisten kann“, so Robert Schmitz.
Be the first to comment