Realtime Analytics: 7 Erfolgstipps für die Echtzeit-Datenanalyse

Realtime Analytics sind für viele Unternehmen essenziell, schließlich kommt es im datengetriebenen Zeitalter auf schnelle und akkurate Insights an. So klappts mit der Echtzeit-Datenanalyse. [...]

Realtime Analytics erfordern - wie jedes andere, leistungsstarke IT Tool - ein hohes Maß an Verständnis und Fachkenntnis (c) pixabay.com

Unternehmen werden mit Daten aller Art in noch nie dagewesener Geschwindigkeit überschwemmt. Umso wichtiger ist für Entscheidungsträger der direkte Zugang zu Insights in Echtzeit. Diese Herausforderung können Organisationen mit Datenanalysen in Echtzeit meistern.

Realtime Analytics erfordern – wie jedes andere, leistungsstarke IT Tool – ein hohes Maß an Verständnis und Fachkenntnis. Nur so können sie eingesetzt werden, um kritischen Geschäftsanforderungen zu begegnen, etwa der Workflow-Optimierung oder der Kundenanalyse. Folgende sieben Tipps sollte Ihr Unternehmen beherzigen, wenn es die ersten Schritte in Sachen Realtime Analytics gehen will und dabei diverse Fallstricke meiden möchte.

1. Echtzeit in Grenzen

Geschäfts- und IT-Entscheider neigen desöfteren dazu, geschwindigkeitsverliebt zu agieren. Was dazu führt, dass einfach alle Insights in Echtzeit zur Verfügung stehen sollen. Das ist in einigen Fällen Geldverschwendung, in anderen auch noch kontraproduktiv.

„Es ist beispielsweise nicht sehr sinnvoll, den Revenue Report in eine Echtzeit-Analytics-Umgebung zu stellen, vor allem, wenn Anweisungen häufig storniert, verschoben oder angepasst werden“, meint Theresa Kushner, Senior Director of Data Intelligence and Automation bei NTT Data Services. Sie gibt zu bedenken: „Wie würde eine Sales Managerin reagieren, wenn sie in der einen Minute ihr Ziel erreicht hat und in der nächsten in Echtzeit auf 88 Prozent gefallen ist?“.

Indem die IT ein Verständnis darüber entwickelt, welche Analysen wirklich von Echtzeit profitieren können, kann sie einen signifikanten Wert für das Unternehmen generieren. „Wie bei jeder Analytics-Initiative müssen Sie eine Strategie haben und wissen, welche Entscheidungen auf Grundlage von Realtime Analytics getroffen werden sollen“, schließt Kushner.

2. Infrastrukturausbildung

Wenn es die Erwartungshaltung innerhalb eines Unternehmens ist, Daten-Insights in Echtzeit zu erhalten, kann es zu Enttäuschungen kommen, wenn die IT-Infrastruktur in Sachen Performance nicht mitspielt.

Für langfristigen Erfolg mit Realtime Analytics muss auch die zugrunde liegende Architektur die Aufnahme und Verarbeitung von Daten in Echtzeit unterstützen. Das weiß auch Dan Simion, Vice President KI bei Capgemini North America: „Die Modelle müssen ebenfalls so aufgebaut sein, dass sie die Verarbeitung von Echtzeitdaten unterstützen. Die Datenquellen müssen dabei wirklich Echtzeit sein, nicht Beinahe-Echtzeit oder in täglich generierten Batches“.

3. Dashboard Deployment

Bevor eine Echtzeit-Analyse-Initiative in Angriff genommen wird, sollte der Projektleiter die Endbenutzer dazu befragen, welche Dashboards sie benötigen. „Mit diesen Informationen kann der IT-Leiter sein Team die Anforderungen an die Datenerfassung überprüfen lassen und sicherstellen, dass die Realtime-Analytics-Lösung die Informationen entsprechend bereitstellen kann“, meint Rich Temple, Vice President und CIO beim Deborah Heart and Lung Center.

Dieser Ansatz ermögliche es der IT, den Endanwender in den Mittelpunkt der Analytics-Diskussion zu stellen. „Statt eine Lösung ‚aufzudrücken‘, die unter Umständen Workflows hemmt, sollten Sie sich die Mühe machen, die Bedarfe zu ermitteln“, sagt Temple.

4. Historisch trifft Realtime

Der Wert von Echtzeitdaten steigt exponentiell, wenn sie mit historischen Daten zusammengeführt werden, bemerkt James Corcoran, Senior Vice President of Engineering beim Analytics-Anbieter KX.

„Nehmen wir zum Beispiel die Temperaturdaten, die von einem in einer Maschine eingebetteten Sensor übermittelt werden. Solche Daten in Echtzeit zu verstehen, ist nützlich, um zu überprüfen, ob die Maschine effizient arbeitet oder ob ein Temperaturschwellenwert erreicht wurde“, erklärt Corcoran. Würden zusätzlich historische Daten über Tage oder Wochen abgebildet, könnten Entscheidungsträger ein umfassenderes Verständnis davon gewinnen, wie eine bestimmte Maschine arbeitet.

Corcoran beschreibt diese Methodik als „kontinuierliche Intelligenz“: Die Fähigkeit, intelligentere Entscheidungen zu treffen, die sich aus den Erkenntnissen ergeben, die aus der Analyse von Daten – ob in Echtzeit, historisch oder beides – in einem möglichst kurzen Zeitrahmen gewonnen werden.

5. Alle Daten zählen

IT-Entscheider sollten bei der Analyse nicht nur interne, sondern auch kontextbezogene Daten in Bezug auf Wettbewerb, Märkte, Kundensegmente und Zensusdatenpunkte miteinbeziehen. So seien Realtime Analytics in der Lage, einen umfassenden Satz von Fakten und Trends zu liefern, empfiehlt Sumit Anand, CIO beim US-Retailer At Home: „Es sollte auch einen direkten Input in die Business Technology Roadmap und die langfristige Finanzplanung des Unternehmens geben“.

Der langfristige Zugang zu hochwertigen, internen und kontextbezogenen Echtzeitdaten ermöglicht es Unternehmen, ihren Entscheidungsprozess zu verändern, sagt Anand. „Der Ansatz ist effektiv, weil er sich darauf konzentriert, die Kultur einer Organisation zu verändern.“

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

6. Der Fokus macht’s

„Relevante Informationen“ sind Informationen, die einen Empfänger dazu veranlassen, sein Denken über eine bestimmte Angelegenheit, sein Urteil oder seine Vorgehensweise zu ändern.

„Kaum jemand überprüft laut Statistik heute noch den Ölstand seines Fahrzeugs vor einer Fahrt. Wenn aber ein Alarmsignal ertönt oder aufleuchtet, wird der Fahrer die nächste Ausfahrt nehmen, um eine Lösung zu suchen“, erklärt Kenneth McGee, Forschungsmitarbeiter bei Info-Tech Research Group.

Führungskräfte und Manager würden mit Informationen überflutet – viel zu viele, um sie jemals vollständig aufzunehmen. „Allerdings reicht eine geringe Menge an relevanten Informationen, die in Echtzeit analysiert werden, um Erfolg zu gewährleisten“, stellt McGee fest.

7. Teambuilding

Ihr Analytics-Team sollte ein echter Partner sein, nicht bloß Auftragsnehmer: „Wenn das Team als Business Enabler und nicht als Kostenstelle gesehen wird, ist das Unternehmen bereit, mehr in personelle und technische Ressourcen zu investieren, um Realtime Analytics zu unterstützen“, rät Kathy Rudy, Partnerin und Chief Data and Analytics Officer beim Beratungsunternehmen Information Services Group.

Der beste Weg, um langfristigen Erfolg zu gewährleisten, sei, das Analyseteam mit Geschäftswissen auszustatten, damit es relevante Informationen liefern kann, so Rudy.

Mit der Zeit wird ein gut unterstütztes Analyseteam in der Lage sein, immer relevantere Daten zu liefern, die es Entscheidungsträgern ermöglichen, schnelle und informierte Maßnahmen zu ergreifen. „Dazu gehört das Einbringen von Marktdaten durch API-Verbindungen und Data Scraping, um intern generierte Analysen zu unterstützen“, weiß die ISG-Analystin. „Mit Echtzeit-Analysen als Partner zur Verfügung zu stehen und dem Führungsteam die richtigen Empfehlungen zu geben, kann Sie zum Rockstar machen.“

*John Edwards ist freier Autor.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*