Top 15: Die besten Predictive Analytics Tools

Predictive Analytics Tools wühlen sich durch Datenbestände, um Unternehmen den goldenen Weg in die Zukunft zu weisen. Wir haben die besten Optionen für Sie zusammengestellt. [...]

Mit Predictive Analytics in die Zukunft sehen? Wir zeigen Ihnen die besten Tools für diese Zwecke (c) pixabay.com

Im Laufe der letzten Jahrzehnte haben sich Computer von Aktenschränken für Daten zu technologischen Kristallkugeln gewandelt, die versprechen, durch die Analyse von Daten die Zukunft vorhersagen zu können. Die Tools, die das bewerkstelligen, fallen unter den Begriff Predictive Analytics und erfüllen im Wesentlichen zwei Funktionen:

  • die Analyse von Datenbanken, beziehungsweise -beständen, um Handlungsempfehlungen für die Zukunft abzuleiten
  • sowie die Vorbereitung der Analysedaten, die in den seltensten Fällen die geforderte Konsistenz aufweisen.

Letztgenannte Funktion umfasst sowohl unkomplizierte Tasks wie die Vereinheitlichung von Formatierungen, als auch die oft zeitintensive Beseitigung von Fehlern. Eine echte Herausforderung besteht dabei oft auch darin, die Datenintegrität zu wahren. Ausgereifte Predictive Analytics Tools meistern beide Anforderungen aus dem FF. Wir haben 15 der beliebtesten Predictive Analytics Tools(ets) für Sie zusammengestellt.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Alteryx

Alteryx hat sich in den vergangenen Jahren darauf konzentriert, seine Reporting- und Workflow-Management-Plattform mit prädiktiven Algorithmen auszustatten. Das Tool verfügt über eine breit angelegte Bibliothek sowie zahlreiche Schnittstellen zum Datenimport und unterstützt eine Vielzahl von gängigen und weniger gängigen Datenquellen.

Das Alteryx Tool ist vielfältig anpassbar und eher auf Manager mit Daten-Knowhow ausgelegt, als auf Entwickler, die tiefer in die Predictive-Analytics-Materie eintauchen und auf breiter Ebene mit Reporting und Business Intelligence verknüpfen wollen. Darüber hinaus bietet Alteryx auch spezifische Lösungen für Fachabteilungen an, etwa für den Marketing- oder Research-Bereich.

Amazon Web Services

Das AWS Toolset, um Datenströme auf Signale oder Muster hin zu untersuchen, wächst immer weiter an. Dabei werden die Angebote traditionell nach Produktlinien getrennt. Amazon Forecast fokussiert beispielsweise darauf, ökonomische Zeitreihen zu erweitern, um vorherzusagen, mit welchen Verkaufszahlen für das nächste Quartal zu rechnen ist und wie viele Ressourcen nötig sein werden, um die Nachfrage zu bedienen. Amazon Code Guru sucht hingegen nach Unwägbarkeiten innerhalb von Quellcode, um die Abläufe zu verbessern.

Einige AWS Tools wie Fraud Detector oder Personalize unterstützen vor allem das Business von Amazon selbst – werden mittlerweile aber auch an andere Unternehmen weiterverkauft, die ihr eigenes E-Commerce-Reich erschaffen wollen.

Board

Unternehmen, die auch in Zukunft auf Dashboards setzen wollen, um Datentrends zusammenfassend zu visualisieren, sollten sich das Angebot von Board näher ansehen. Das Tool ermöglicht es, eine Vielzahl von Datensilos (ERP, SQL, etc.) anzuzapfen, die dort abgelegten Informationen zu analysieren und die Ergebnisse in Form eines Reportings auszugeben, das sowohl Auskunft über die geschäftliche Vergangenheit als auch die Zukunft (Predictive) gibt.

Der Schwerpunkt liegt dabei darauf, Daten aus so vielen Quellen wie möglich zusammenzufassen und in eine standardisierte Form zu „pressen“, die dann wiederum direkt in die Visualisierung oder Predictive Analytics einfließen können.

Dash

Das Toolset von Dash liegt in einer kostenlosen, quelloffenen Version und einer Enterprise-Variante vor und ermöglicht das cloudbasierte Management von Predictive-Analytics-Modellen, die entweder bereits zum Einsatz kommen oder gerade entwickelt werden.

Die Open-Source-Version bringt Python-Bibliotheken für Datenanalyse und –visualisierungen mit, die Enterprise-Variante kommt mit zusätzlichen Tools, beispielsweise für Kubernetes, Authentifizierung oder die Integration von GPUs bei Deployments für große Nutzergruppen. Die kostenpflichtige Version bietet Anwendern außerdem mehr Low-Code-Erweiterungen, um Dashboards und andere Interfaces zu erstellen.

Databricks

Das Toolset von Databricks baut auf den vier maßgeblichen Open Source Frameworks Apache Spark, Delta Lake, TensorFlow und ML Flow auf und eignet sich für Unternehmen mit großen Datenbeständen. Um Predictive Analytics bestmöglich in Workflows zu integrieren, entält das Paket auch kollaborative Notebooks und Data Processing Pipelines. Databricks hat zudem bereits integrierte Versionen seines Toolsets für AWS und Azure auf die Beine gestellt.

DataRobot

Unternehmen, die Wert auf die Option legen, ihre Predictive-Analytics-Modelle in lokaler Hardware, der Cloud oder einer Hybrid-Lösung unterzubringen, können ihre Daten und Modelle mit DataRobot managen. Die Tools kombinieren automatisiertes Machine Learning mit einer Reihe von auf bestimmte Branchen fokussierte Routinen.

IBM

IBMs Predictive Analytics Toolset entstammt zwei verschiedenen Zweigen: SPSS wurde bereits in den 1960er Jahren gegründet und hat sich für viele Unternehmen, die mit Hilfe von Statistiken ihre Produktionslinien optimieren wollten, zur Grundlage entwickelt. Die Lochkarten-Ära hat das Tool dabei längst hinter sich gelassen: Inzwischen können auch Nicht-Programmierer Daten per Drag & Drop in ein grafisches User Interface überführen, um ausführliche Reportings zu generieren. IBM hatte SPSS im Sommer 2019 für rund 1,2 Milliarden Dollar übernommen.

Unter dem Dach des Watson-Brands versammelt IBM ein weiteres Analytics Toolset, das laufend weiter ausgebaut wird. Die Watson Tools für Predictive Analytics basieren in weiten Teilen auf iterativen Machine-Learning-Algorithmen, die sowohl Daten trainieren als auch Datenmodelle ausbilden können. Die Werkzeuge sind dabei in der Lage, Zahlen, Bilder oder unstrukturierten Text zu verarbeiten.

Information Builders

Die Datenplattform von Information Builders ermöglicht Data Architects, eine visuelle Pipeline aufzusetzen, die Daten sammelt, bereinigt und anschließend in die Analytics Engine „wirft“. Werden dabei Informationen verarbeitet, die nicht für jeden sichtbar sein dürfen, gibt es die Option auf „Full Data Governance Models“, darüber hinaus stehen auch spezifische Templates für einzelne Branchen wie die Industrie zur Verfügung, die Nutzern besonders schnelle Einblicke in die Datengeheimnisse gewähren soll.

MathWorks

Mit seiner MATLAB-Lösung wollte MathWorks ursprünglich Wissenschaftler bei der Forschung mit großen Datenmengen unterstützen. Inzwischen beherrscht MATLAB allerdings viel mehr als bloß die numerische Analyse von Daten: Die Produktlinie fokussiert mittlerweile auf Optimierung statistischer Analysen, während die SIMULINK-Produktgruppe für Simulations- und Modeling-Zwecke zum Einsatz kommt. Darüber hinaus bietet das Unternehmen auch spezielle Toolboxes für viele einzelne Märkte an, zum Beispiel autonome Mobilität oder Bildverarbeitung.

Python

Python ist inzwischen eine der beliebtesten Programmiersprachen – aber eben auch eine der populärsten Sprachen für Datenanalyse im Bereich der Wissenschaft. Viele Forschungseinrichtungen bringen Python-Code zum Einsatz, um ihre Daten zu analysieren. Datenwissenschaftler haben inzwischen die Daten und den analytischen Code in der App Jupyter Notebook gebündelt. Python Tools wie PyCharm, Spyder oder IDLE bringen neue, innovative Ansätze ins Spiel, die allerdings oft noch etwas Feinschliff benötigen und daher in erster Linie für Datenwissenschaftler und Softwareentwickler geeignet sind.

R

Technisch gesehen handelt es sich bei R lediglich um eine Open-Source-Programmiersprache für die Datenanalyse, die zu großen Teilen der akademischen Community entstammt. Die integrierten Tools R Studio, Radiant oder Visual Studio sind zwar qualitativ gut, aber eher etwas für Hardcore-Datenwissenschaftler und Programmierer. Wer aktuelle Community-Ideen zum Experimentieren sucht, wird hier sicher fündig. Viele der in diesem Artikel aufgeführten Tools erlauben die Einbindung von R-Code in Form von Modulen.

Rapid Miner

Rapid Miner ist so konzipiert, dass sich prädiktive Datenmodelle ohne Hilfestellung in möglichst kurzer Zeit automatisiert erstellen lassen. Die Entwickler bieten auch Jupyter Notebooks mit „automated selection“ und „guided data preparation“ an. Die verfügbaren Modelle basieren dabei auf Prinzipien wie dem klassischen Machine LearningBayescher Statistik oder diversen Formen des Clustering. Erklärungen zu den einzelnen Modellen geben darüber Aufschluss, wie genau die Modelle ihre Resultate ableiten.

SAP

Viele Unternehmen verlassen sich beim Management ihrer Lieferketten auf SAP. Da trifft es sich gut, dass die Reporting Tools der Walldorfer inzwischen auch Predictive Analytics unterstützen. So können beispielsweise Vorhersagen über Machine-Learning-Modelle getroffen werden, die auf „alten“ Daten beruhen. KI-Fähigkeiten bringt die Software, die entweder lokal On-Premises oder in der Cloud laufen kann, ebenfalls mit. Spezifische User Interfaces mit fachbereichsübergreifender Konsistenz und die ausgeprägten Möglichkeiten auf mobilen Devices runden das Predictive-Analytics-Paket von SAP ab.

SAS Advanced Analytics

Das Predictive Analytics Toolset von SAS bündelt knapp zwei Dutzend verschiedene Pakete auf einer Plattform, die Daten sowohl in Insights als auch in Predictions verwandelt. Der Fokus des SAS Toolsets liegt dabei auf der Analyse von unstrukturierten Texten.

Tableau

Tableau hat sich mit seiner fast schon kunstvollen Aufbereitung von Reporting-Informationen einen Namen gemacht und wurde im vergangenen Jahr von Salesforce aufgekauft. Dashboards können bei Tableau nun mit Hilfe eines Embedded Analytics Models dazu genutzt werden, sich interaktiv über die Ergebnisse der Datenanalyse aufklären zu lassen.

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation cio.com.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*