Was ist Data analytics?

Data analytics ist eine Disziplin, die sich darauf konzentriert, Erkenntnisse aus Daten zu gewinnen. Sie umfasst die Prozesse, Werkzeuge und Techniken der Datenanalyse und des Datenmanagements, einschließlich der Sammlung, Organisation und Speicherung von Daten. [...]

Unternehmen aus allen Branchen nutzen Data analytics, um ihre Abläufe zu verbessern. (c) Pixabay
Unternehmen aus allen Branchen nutzen Data analytics, um ihre Abläufe zu verbessern. (c) Pixabay

Das Hauptziel von Data analytics ist die Anwendung statistischer Analysen und Technologien auf Daten, um Trends zu finden und Probleme zu lösen. Data analytics gewinnt in Unternehmen zunehmend an Bedeutung, um Geschäftsprozesse zu analysieren und zu gestalten sowie die Entscheidungsfindung und die Geschäftsergebnisse zu verbessern.

Data analytics bedient sich einer Reihe von Disziplinen – darunter Computerprogrammierung, Mathematik und Statistik – um Daten zu analysieren und so die Leistung zu beschreiben, vorherzusagen und zu verbessern. Um eine solide Analyse zu gewährleisten, nutzen Data analytics-Teams eine Reihe von Datenmanagement-Techniken, einschließlich Data Mining, Datenbereinigung, Datentransformation, Datenmodellierung und mehr.

Data analytics vs. Datenanalyse

Während die Begriffe Data analytics und Datenanalyse häufig synonym verwendet werden, ist die Datenanalyse eine Teilmenge der Data analytics, die sich mit der Untersuchung, Bereinigung, Umwandlung und Modellierung von Daten befasst, um daraus Schlussfolgerungen abzuleiten. Data analytics umfasst die Werkzeuge und Techniken, die zur Durchführung von Datenanalysen verwendet werden.

Data analytics vs. Data Science

Data analytics und Data Science sind eng miteinander verwandt. Data analytics ist eine Komponente von Data Science, die verwendet wird, um zu verstehen, wie die Daten eines Unternehmens aussehen. Im Allgemeinen sind die Ergebnisse von Data analytics Berichte und Visualisierungen. Data Science nutzt den Output von Data Analytics, um Probleme zu untersuchen und zu lösen.

Der Unterschied zwischen Data analytics und Data Science wird oft als einer der Zeitskala gesehen. Data Analytics beschreibt den aktuellen oder historischen Zustand der Realität, während Data Science diese Daten nutzt, um die Zukunft vorherzusagen und/oder zu verstehen.

Data analytics vs. Business analytics

Business Analytics ist eine weitere Untermenge der Data analytics. Business Analytics verwendet Data Analytics-Techniken, einschließlich Data Mining, statistische Analysen und prädiktive Modellierung, um bessere Geschäftsentscheidungen zu treffen. Gartner definiert Business Analytics als „Lösungen, die zur Erstellung von Analysemodellen und Simulationen verwendet werden, um Szenarien zu erstellen, Realitäten zu verstehen und zukünftige Zustände vorherzusagen.“

Arten der Data analytics

Es gibt vier Arten von Analytik:

Deskriptive Analytik: Was ist passiert und was passiert gerade? Die deskriptive Analyse nutzt historische und aktuelle Daten aus verschiedenen Quellen, um den gegenwärtigen Zustand zu beschreiben, indem Trends und Muster identifiziert werden. In der Geschäftsanalytik ist dies der Aufgabenbereich von Business Intelligence (BI).

Diagnostische Analytik: Warum wird sie durchgeführt? Die diagnostische Analyse verwendet Daten (die oft über die deskriptive Analyse generiert werden), um die Faktoren oder Gründe für die vergangene Leistung zu entdecken.

Prädiktive Analytik: Was wird wahrscheinlich in der Zukunft passieren? Predictive Analytics wendet Techniken wie statistische Modellierung, Vorhersage und maschinelles Lernen auf die Ergebnisse der deskriptiven und diagnostischen Analyse an, um Vorhersagen über zukünftige Ergebnisse zu treffen. Predictive Analytics wird oft als eine Art von „Advanced Analytics“ betrachtet und hängt häufig von maschinellem Lernen und/oder Deep Learning ab.

Prädiktive Analytik: Was ist zu tun? Prescriptive Analytics ist eine Art von Advanced Analytics, die die Anwendung von Tests und anderen Techniken beinhaltet, um spezifische Lösungen zu empfehlen, die die gewünschten Ergebnisse liefern. In der Wirtschaft werden bei der prädiktiven Analytik maschinelles Lernen, Geschäftsregeln und Algorithmen eingesetzt.

Methoden und Techniken der Data analytics

Datenanalysten verwenden eine Reihe von Methoden und Techniken, um Daten zu analysieren. Laut Emily Stevens, geschäftsführende Redakteurin bei CareerFoundry, gehören sieben der beliebtesten dazu:

Regressionsanalyse: Die Regressionsanalyse ist eine Reihe von statistischen Verfahren, die zur Schätzung der Beziehungen zwischen Variablen verwendet werden, um zu bestimmen, wie sich Änderungen an einer oder mehreren Variablen auf eine andere auswirken könnten. Wie könnten sich z. B. die Ausgaben für soziale Medien auf den Umsatz auswirken?

Monte-Carlo-Simulation: Laut Investopedia werden „Monte-Carlo-Simulationen verwendet, um die Wahrscheinlichkeit verschiedener Ergebnisse in einem Prozess zu modellieren, der aufgrund des Eingriffs von Zufallsvariablen nicht einfach vorhergesagt werden kann.“ Sie wird häufig für Risikoanalysen verwendet.

Faktoranalyse: Die Faktorenanalyse ist eine statistische Methode, um einen massiven Datensatz auf einen kleineren, besser handhabbaren Datensatz zu reduzieren. Dies hat den zusätzlichen Vorteil, dass oft versteckte Muster aufgedeckt werden. Im geschäftlichen Umfeld wird die Faktorenanalyse oft verwendet, um Dinge wie Kundenbindung zu untersuchen.

Kohortenanalyse: Die Kohortenanalyse wird verwendet, um einen Datensatz für die Analyse in Gruppen mit gemeinsamen Merkmalen (Kohorten) aufzuteilen. Dies wird oft verwendet, um Kundensegmente zu verstehen.

Cluster-Analyse: StatisticsSolutions definiert die Clusteranalyse als „eine Klasse von Techniken, die verwendet werden, um Objekte oder Fälle in relative Gruppen, sogenannte Cluster, zu klassifizieren.“ Sie kann verwendet werden, um Strukturen in Daten aufzudecken – Versicherungsunternehmen könnten die Clusteranalyse beispielsweise verwenden, um zu untersuchen, warum bestimmte Orte mit bestimmten Versicherungsansprüchen verbunden sind.

Zeitreihenanalyse: StatisticsSolutions definiert die Zeitreihenanalyse als „eine statistische Technik, die sich mit Zeitreihendaten oder Trendanalysen beschäftigt. Zeitreihendaten bedeuten, dass die Daten in einer Reihe von bestimmten Zeiträumen oder Intervallen vorliegen. Die Zeitreihenanalyse kann verwendet werden, um Trends und Zyklen im Zeitverlauf zu erkennen, z. B. wöchentliche Verkaufszahlen. Sie wird häufig für Wirtschafts- und Absatzprognosen verwendet.

Stimmungsanalyse: Die Sentiment-Analyse verwendet Werkzeuge wie die Verarbeitung natürlicher Sprache, Textanalyse, Computerlinguistik usw., um die in den Daten ausgedrückten Gefühle zu verstehen. Während die vorherigen sechs Methoden versuchen, quantitative Daten (Daten, die gemessen werden können) zu analysieren, versucht die Sentiment-Analyse, qualitative Daten zu interpretieren und zu klassifizieren, indem sie sie in Themen organisiert. Sie wird oft verwendet, um zu verstehen, wie Kunden über eine Marke, ein Produkt oder eine Dienstleistung denken.

Beispiele für Data analytics

Unternehmen aus allen Branchen nutzen Data analytics, um ihre Abläufe zu verbessern, ihren Umsatz zu steigern und die digitale Transformation zu erleichtern. Hier sind drei Beispiele:

La-Z-Boy nutzt Data analytics zur Verbesserung der Abläufe: Der internationale Möbeleinzelhändler La-Z-Boy hat Datenanalysen eingesetzt, um die Abläufe in 20 Abteilungen zu verbessern, darunter Personalwesen, Finanzen, Lieferkette und Vertrieb. Analytik hilft dem Unternehmen bei der Verwaltung von Preisen, SKU-Leistung, Garantie, Versand und anderen Informationen sowie bei der Vorhersage von Lagerbeständen.

Prädiktive Analytik hilft Owens Corning bei der Entwicklung von Turbinenschaufeln: Der Hersteller Owens Corning hat mit Hilfe seines Analytics Center of Excellence Predictive Analytics eingesetzt, um den Prozess des Testens von Bindemitteln, die bei der Herstellung von Glasgeweben für Windturbinenflügel verwendet werden, zu optimieren. Die Analytik hat dem Unternehmen geholfen, die Testzeit für jedes neue Material von 10 Tagen auf etwa zwei Stunden zu reduzieren.

Kaiser Permanente reduziert Wartezeiten mit Analytik: Kaiser Permanente nutzt seit 2015 eine Kombination aus Analytik, maschinellem Lernen und KI, um den Datenbetrieb in seinen 39 Krankenhäusern und mehr als 700 Arztpraxen in den USA zu überarbeiten. Das Unternehmen nutzt Analysen, um potenzielle Engpässe besser zu erkennen und zu beheben. So kann es eine bessere Patientenversorgung bieten und gleichzeitig die Effizienz der täglichen Abläufe verbessern.

*Thor Olavsrud schreibt für CIO.com.


Mehr Artikel

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

News

Risiken beim Einsatz von GenAI in vier Schritten senken

Die Themen Datenschutz und Modellverwaltung sind in der Datenwissenschaft zwar nicht neu, doch GenAI hat ihnen eine neue Dimension der Komplexität verliehen, die Datenschutzbeauftragte vor neue Herausforderungen stellt. Die Data-Science-Spezialisten von KNIME haben die Potenziale und Risiken der KI-Nutzung beim Einsatz bei der Datenarbeit zusammengefasst und empfehlen vier Schritte zur Risikominimierung. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*