Datenlawinen richtig managen: Big Data verbessert Marktchancen

Die Herausforderung von Big Data besteht darin, relevante Daten für eine effiziente Geschäftsstrategie zu erkennen. Allerdings ist es komplex, die richtigen Informationen aus einer unübersichtlichen Datensammlung zu filtern. Diese Anforderung zu meistern, wird für Unternehmen wettbewerbskritisch. [...]

LICHT INS DUNKEL BRINGEN
Die Informationen liegen allerdings nicht geordnet vor, sondern fließen unstrukturiert und in Massen – alleine der Dienst Twitter generiert 12 Terabyte Daten pro Tag. Unternehmen benötigen also eine Big-Data-Lösung, die auch größte Datenmengen mühelos durchsichtet und auswertet. Ein gutes Beispiel dafür ist ein Hadoop-Cluster, das komplementär zu anderen Big-Data-Anwendungen ist. Im Grunde wirkt das Framework wie ein Schwamm, der Informationsfluten aus vielen verschiedenen Quellen aufsaugt und strukturiert. Zusätzlich erlaubt er es, in Verbindung mit entsprechenden Analytics-Lösungen, relevante Daten nicht nur nahezu in Echtzeit und rückblickend zu analysieren, sondern auch Prognosen und Analysen über das Verhalten von Konsumenten zu erstellen. Damit vereint die Anwendung Effizienz, Flexibilität sowie Schnelligkeit und bietet Unternehmen geschäftsentscheidende Einblicke in die Zukunft – und das alles anonymisiert.
AUSWERTUNGEN IN REKORDZEIT DANK IN-MEMORY-TECHNOLOGIE
Wenn es um eine rasante Auswertung von Daten geht und Millisekunden zählen, liegt mit In-Memory Computing (wie etwa SAP HANA) eine Ergänzung zu einem Hadoop-Framework vor. Durch die exakte und schnelle Verarbeitung der Daten eignet sich diese Lösung vor allem für Bereiche, in denen Anwender auf Analysen in Echtzeit angewiesen sind – beispielsweise im Investment Banking, bei der Betrugserkennung von Online-Überweisungen oder an der Strombörse. Dieser Prozess hält sämtliche Daten im Hauptspeicher vor. Unternehmen profitieren von schnellen Echtzeit-Analysen, optimierter Planung sowie Simulation, besserem Monitoring und neuen Geschäftsprozessen. Weitere Vorteile entstehen vor allem durch die Kombination der verschiedenen Technologieansätze, je nach Anwendungsfall.
Ein Hauptargument gegen In-Memory-Technologien ist für die meisten Unternehmen allerdings immer noch der Kostenaspekt. Gerade mittelständische Firmen schlagen diesen Weg daher gar nicht erst ein. Hinzu kommt, dass In-Memory-Lösungen häufig bei sechs bis acht Terabyte bereits an ihre Grenzen stoßen und damit nur für einen gewissen Datenrahmen geeignet sind. Wer auf die Analyse größerer Datenmengen und einen Langzeitspeicher angewiesen ist, greift daher auf einen Hadoop-Cluster zurück.


Mehr Artikel

News

Internationale Konferenz zeigt den Weg zur datengetriebenen Zukunft

Am 13. November 2024 fand im Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK) die Global Data Spaces Connect 2024 (GDSC24) statt, eine internationale Plattform, die Akteur:innen aus Wirtschaft, Wissenschaft und öffentlicher Verwaltung zu einem Austausch über den aktuellen Stand und die Zukunft der Datenräume (Data Spaces) zusammenbrachte. […]

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*