Die wichtigsten Big-Data-Tools aus der Cloud

Für Big-Data-Analysen brauchen Unternehmen nicht unbedingt einen eigenen Hadoop-Cluster. Wir stellen die wichtigsten Tools aus der Cloud vor, mit denen sich große Datenmengen verwalten, strukturieren und analysieren lassen. [...]

Unter Big Data versteht man im Allgemeinen die Analyse großer Mengen von Daten, die häufig nur teilweise oder gar nicht strukturiert vorliegen. Oft werden dabei öffentlich zugängliche Massendaten wie Verkehrsströme oder Wetterprognosen mit unternehmenseigenen Informationen wie Verkaufszahlen oder Produktionswerten verknüpft. Der Aufbau eines eigenen Big-Data-Analysesystems erfordert sehr viel Know-how. Zwar steht mit Apache Hadoop eine leistungsfähige, ausgereifte Open-Source-Lösung zur Verfügung; die Implementierung eines Hadoop-Clusters wie auch die richtige Definition von Abfragen und die Interpretation der Ergebnisse ist ohne den Einsatz von Experten, sogenannten Data Scientists, aber kaum möglich.

Die Nachfrage nach diesen Datenwissenschaftlern ist groß, das Angebot klein. Entsprechend hoch sind die Ansprüche und die Gehaltsvorstellungen der Kandidaten. Für viele kleine und mittelständische Unternehmen (KMU) sind sie unbezahlbar. Sie schrecken deshalb davor zurück, überhaupt in die Big-Data-Analyse einzusteigen. Laut einer Umfrage des Branchenverbandes Bitkom aus dem Jahr 2014 nutzen nur sieben Prozent der Mittelständler mit 50 bis 499 Mitarbeitern Big-Data-Lösungen, in größeren Unternehmen mit 500 und mehr Mitarbeitern waren es bereits 27 Prozent.

Big-Data-Tools aus der Cloud können den Einstieg erleichtern. Sie erfordern keine Vorabinvestitionen im fünf- oder sechsstelligen Bereich und besitzen teilweise grafische Benutzeroberflächen, die es auch dem weniger versierten Anwender ermöglichen, Analyseprozeduren zu erstellen, die zu aussagefähigen Ergebnissen führen. Cloud-Services sind jedoch nicht nur zum Einstieg in die Big-Data-Welt geeignet. Sie spielen auch dann ihre Vorteile aus, wenn Analysesysteme schnell und unkompliziert erstellt werden sollen, etwa in Forschung und Entwicklung.

Auch wenn die zu verarbeitenden Daten bereits online vorliegen, wie es etwa bei Social-Media-Feeds oder den Kundendaten eines Online-Shops der Fall ist, lohnt es sich, auch die Analyse direkt im Netz zu starten. Das gilt besonders dann, wenn diese auch noch in Echtzeit stattfinden soll. Wir stellen im Folgenden fünf wichtige Big-Data-Tools vor, die Sie als Service aus der Cloud nutzen können.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*