Gartner stellt 10 Trends der Data/Analytics vor

Gartner hat die Glaskugel ausgepackt und sich mit den Trends im Data-/Analytics-Bereich auseinandergesetzt. Unternehmen scheinen zu erkennen, auf welchem Schatz sie sitzen. [...]

Gartner hat zehn Data/Analytics-Trends für das Jahr 2021 ermittelt (c) pixabay.com

Die Marktforscher von Gartner haben die nach ihrer Einschätzung zehn wichtigsten Data-/Analytics-(D&A-)Trends für 2021 identifiziert. Rita Sallam, Distinguished Research Vice President, sieht während der weiter andauernden COVID-19-Krise, dass sich viele Unternehmen dem Thema Datenmanagement und -analyse entschlossener zuwenden.

Die Verantwortlichen beschäftigten sich intensiv mit neuen Technologietrends und priorisierten solche, die ihnen mit hoher Wahrscheinlichkeit einen klaren Wettbewerbsvorteil brächten. Gartner identifiziert folgende zehn D&A-Trends, die den Betrieben in Zukunft helfen werden, Entwicklungen aller Art besser zu antizipieren und schneller auf Veränderungen zu reagieren.

1. Bessere KI- und ML-Systeme

Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) waren und sind auf dem Vormarsch. Nach und nach stehen immer mehr intelligente, weniger datenintensive, ethisch unbedenklichere und resilientere Lösungen bereit. Damit werden Unternehmen und ihre IT-Organisationen künftig in viel kürzerer Zeit lernende Algorithmen und interpretationsfähige Systeme bereitstellen können. Die „time to value“ sinkt, die positiven Auswirkungen auf das Business nehmen stark zu.

2. Analytics-Funktionen lassen sich besser kombinieren

Der Trend zu offenen, containerisierten Analytics-Architekturen führt zu besser kombinierbaren Analytics-Funktionen. Gartner spricht von „Composable Data and Analytics“. Komponenten aus verschiedenen Daten-, Analyse- und KI-Lösungen werden dabei zusammengeführt, um in kurzer Zeit flexible und benutzerfreundliche intelligente Anwendungen zu erstellen. So wird es einfacher, mehr betriebliche Entscheidungen und Aktionen mit datenbasierten Insights zu untermauern. Cloud-Marktplätze, Low-Code- und No-Code-Umgebungen unterstützen den Trend, Analytics-Anwendungen besonders schnell und agil aufzusetzen und in Betrieb zu nehmen.

3. Die Data Fabric ist die Grundlage

Unternehmen entdecken ihre Daten-Assets und wollen sie optimal nutzen. Um mit Datenvielfalt, -verteilung, -umfang und -komplexität in den Datenbeständen richtig umgehen zu können, setzen sie auf den Data-Fabric-Ansatz. Eine Data Fabric nutzt Analytics, um die Daten-Pipelines kontinuierlich zu monitoren. Sie überwacht ständig die Datenbestände, um das Design, das Deployment und die Nutzung der heterogenen Datenwelten im Griff zu haben. Laut Gartner lassen sich mit einer Data Fabric der Zeitaufwand für Integration und Bereitstellung jeweils um 30 Prozent und die für Wartung sogar um 70 Prozent senken.

4. Von Big Data zu Small Data

Machine-Learning- und KI-Modelle, die auf historischen Massendaten basieren, werden weniger relevant. Mensch und Maschine brauchen für komplexe und anspruchsvolle Entscheidungen ein besseres, zielgenaueres Datenfundament. Führungskräfte rund um D&A sind also gefordert: Sie müssen Daten in einer großen Detailtiefe und Variationsbreite zeitnah bereitstellen können, damit das Unternehmen damit etwas anfangen kann.

Deshalb sollten die Führungskräfte Analysetechniken nutzen, die ihnen helfen, die verfügbaren Daten besser und effektiver zu untersuchen und zu nutzen. Sie werden sich in Zukunft eher auf ein breites Portfolio an kleineren Datentöpfen stützen, um strukturierte und unstrukturierte Datenquellen optimal ausschöpfen zu können. Außerdem gewinnen Analysetechniken an Relevanz, die mit wenigen Daten auskommen und dennoch nützliche Erkenntnisse bieten.

5. XOps

Das Ziel von XOps – darunter fallen im Zusammenhang mit Daten etwa DataOps, MLOps, ModelOps und PlatformOps – ist es, mithilfe von Best-Practices aus dem DevOps-Spektrum Effizienz- und Skaleneffekte zu erzielen. Es geht darum, Zuverlässigkeit, Wiederverwendbarkeit und Wiederholbarkeit zu gewährleisten. Gleichzeitig hilft XOps den Technologieeinsatz und die Prozesse effizient aufzustellen und eine weitgehende Automatisierung vorzubereiten.

Laut Gartner scheitern Analytics- und KI-Projekte vor allem, weil die Operationalisierung im Anschluss nicht ernst genug genommen wird. XOps-Ansätze schaffen hier Abhilfe. Sie sorgen unter anderem für Reproduzierbarkeit, Nachvollziehbarkeit, Integrität und Integrierbarkeit von Analytics- und KI-Assets.

6. Engineering Decision Intelligence

Gartner hebt mit Engineering Decision Intelligence ein neues Buzzword aus der Taufe. Es geht um einen systematischen Umgang mit Geschäftsentscheidungen, die in Sequenzen angeordnet, gruppiert und zu Geschäftsprozessen oder sogar zu „Netzwerken von emergenten Entscheidungen und Konsequenzen“ verdichtet werden. Hintergrund ist, dass Entscheidungen im KI-Zeitalter zunehmend automatisiert zustande kommen und intelligent erweitert werden. Engineering Decision Intelligence ist die Voraussetzung, damit D&A-Führungskräfte Entscheidungen im Unternehmen besser, wiederholbarer, transparenter und nachvollziehbarer machen.

7. Daten und Analytics ist Kerngeschäft

Datenanalyse war in den meisten Betrieben bislang eine unterstützende, untergeordnete Tätigkeit. In Zukunft wird es sich um eine Kernaufgabe handeln. Analytics und KI werden sich als übergreifendes Asset für alle Unternehmensbereiche etablieren und helfen, die Geschäftsergebnisse insgesamt zu verbessern. Indem zentrale und verteilte D&A-Teams in den Betrieben eng zusammenarbeiten, werden die auf Abteilungsstrukturen zurückgehenden Datensilos nach und nach verschwinden.

8. Graphen verbinden alles

Graph-Technologie und -Datenbanken bilden die Grundlage vieler moderner Daten- und Analysefunktionen, um Beziehungen zwischen Menschen, Orten, Dingen, Ereignissen und Standorten über verschiedene Datenbestände hinweg aufzuspüren. D&A-Verantwortliche werden sich künftig noch mehr auf Graphen verlassen, um auch solche komplexen Geschäftsfragen schnell beantworten zu können, die kontextbezogenes Wissen über mehrere Geschäftseinheiten hinweg voraussetzen.

Gartner prognostiziert, dass bis 2025 Graph-Technologien in 80 Prozent der Daten- und Analyseinnovationen zum Einsatz kommen werden. In diesem Jahr sollen es erst zehn Prozent sein. Unternehmen könnten damit zu einer schnelleren Entscheidungsfindung in der gesamten Organisation kommen.

9. Der Aufstieg des „Augmented Consumer“

Die meisten Geschäftsanwender nutzen heute voreingestellte Dashboards und manuelle Datenexploration, was zu falschen Schlussfolgerungen und fehlerhaften Entscheidungen und Handlungen führen kann. An die Stelle vordefinierter Dashboards treten laut Gartner Systeme, die automatisiert im Kontext generierte Einblicke bieten. Sie sind auf die Bedürfnisse des Benutzers zugeschnitten und stehen – auch mobil – immer dort zur Verfügung, wo sie gerade gebraucht werden. „So verlagert sich die analytische Macht hin zum Informationskonsumenten, dem Augmented Consumer. Er wird Möglichkeiten haben, die bisher nur Analysten und Citizen Data Scientists zur Verfügung standen“, glaubt Gartner-Analystin Sallam.

10. Daten und Analysen am Edge

Die Zukunft gehört Edge-Computing-Umgebungen, in denen Datenverarbeitung und -analyse dezentral dort stattfindet, wo die Daten generiert werden. Damit rückt D&A näher an die physische Welt heran – und entfernt sich vom Zuständigkeitsbereich der IT-Organisation. Gartner prognostiziert, dass bis 2023 mehr als die Hälfte aller Analytics-Aufgaben auf Edge-Umgebungen entfallen. Dort entstehen die Daten, dort werden sie verwaltet und auch analysiert.

D&A-Verantwortliche sollten auf diesen Trend aufspringen und sich im Datenmanagement um Themen wie Flexibilität, Geschwindigkeit, Governance und Ausfallsicherheit kümmern, empfiehlt Gartner. Die rasant steigende Anzahl an Use Cases in den Unternehmen erhöht das Interesse an D&A-Funktionalität am Netzwerkrand signifikant. Das Spektrum reicht von Realtime-Ereignisanalysen bis hin zu einem Internet of Things, in dem die Dinge autonom und datengesteuert Aufgaben ausführen können.

*Heinrich Vaske ist Editorial Director von COMPUTERWOCHE und CIO. Seine wichtigste Aufgabe ist die inhaltliche Ausrichtung beider Medienmarken – im Web und in den Print-Titeln. Vaske verantwortet außerdem inhaltlich die Sonderpublikationen, Social-Web-Engagements und Mobile-Produkte und moderiert Veranstaltungen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*