Mittelstand nimmt Big Data in Angriff

Die IBM-Studie "Analytics: The real-world use of big data" zeigt, dass der Mittelstand weltweit das Thema Big Data in Angriff nimmt – etwa drei Viertel der befragten Unternehmen haben bereits mit Big-Data-Projekten begonnen oder planen solche. [...]

„Unsere aktuelle Studie zu Big Data zeigt, dass sich im Mittelstand bereits drei von vier Unternehmen intensiv mit dem Thema Big Data beschäftigen – jedes vierte Unternehmen hat sogar bereits konkrete Projekte in Angriff genommen“, sagt Martina Fiddrich, Leiterin des Geschäftsbereichs Mittelstand und Partnership Solution Center, DACH bei IBM. „Auch was sich der Mittelstand konkret von Big Data erhofft, zeigt unsere Studienauswertung – er will seine Kunden, deren Bedürfnisse und Verhalten besser verstehen und schneller auf deren Wünsche eingehen.“

Die Wünsche der Kunden von den Daten – statt den Augen – ablesen, das ist das große Ziel, das der Mittelstand weltweit mit Big Data Analytics erreichen will. Zudem wollen die Unternehmen mit ihrer Datenanalyse schneller neue Chancen im Markt erkennen und auf veränderte Geschäftsanforderungen reagieren. Dies sind die zentralen Resultate, die IBM aus der Studie gewonnen hat. Für die Studie haben 2012 das IBM Institute for Business Value und die Saïd Business School (University of Oxford) weltweit über 1.100 Unternehmen befragt – mehr als die Hälfte davon sind Mittelständler.

Konkret ergab die Studie, dass sich 60 Prozent der befragten Mittelständler von Big Data Wettbewerbsvorteile erwarten, vor zwei Jahren lag dieser Wert bei nur 36 Prozent. Ein Vergleich zwischen Mittelstand und Großunternehmen zeigt, dass bei kleineren Unternehmen Big Data deutlich früher beginnt: Für zwei Drittel der Mittelständler liegt die Big-Data-Grenze bei einem Terabyte Datenvolumen – für die Mehrheit der großen Unternehmen beginnt Big Data erst ab 100 Terabyte.

Doch das Datenvolumen ist nur ein Aspekt von Big Data, denn das Thema wird von den „vier Vs“ bestimmt – außer Volume sind dies Variety, Velocity und Veracity, also Menge, Form, Geschwindigkeit und Verlässlichkeit der Daten und deren Analyse. Laut der Studie sind sich beim Thema Velocity große und mittelständische Unternehmen einig: Gut 20 Prozent der Befragten wollen ihre analysierten Daten sofort in Echtzeit zur Verfügung haben, ein weiteres Viertel innerhalb von einem Tag. Nur einem Drittel genügt es, wenn die Datenauswertung am nächsten Geschäftstag für die Entscheidungsfindung genutzt werden kann. Jedes sechste Unternehmen akzeptiert es, dass zwischen Datengewinnung, Analyse und Verfügbarkeit eine Woche liegt.

Beim dritten V – der Variety – dreht sich alles um die Form der Daten: Sie liegen entweder strukturiert oder unstrukturiert als Text, Audio- oder Videoformat vor und stammen aus unterschiedlichen Quellen wie Transaktionen, Messungen oder auch sozialen Netzen. Insgesamt zeigt sich, dass der Mittelstand vor allem interne Daten für Big Data Analytics nutzt. Laut der Studie stehen mit 88 Prozent die Daten aus Transaktionen ganz oben auf der Big-Data-Liste, 81 Prozent der Informationen stammen aus dem Datalogging – also Prozessen, wo ein Maschine-Sensor-System die Daten erfasst. Zudem nutzt der Mittelstand weiteres Wissen, das aus E-Mails (58 Prozent) und Events (56 Prozent) generiert wird. Interne Daten sind vor allem deshalb die erste Wahl für Big Data Analytics, weil Unternehmen sie bereits seit Jahren über ERP (Enterprise Resource Planning) oder Business Intelligence sammeln, strukturieren und standardisieren. Externe Daten aus sozialen Netzen wie Facebook oder Twitter nutzen bisher 43 Prozent der befragten Mittelständler für Big Data.

Übergeordnet für das gesamte Thema Big Data ist das vierte V – Veracity. Also wie gut ist die Verlässlichkeit und Qualität der Daten? Analyse und Auswertung der Daten muss stets im Blick haben, ob und in welchem Ausmaß Informationen unsicher sind. Während Unternehmen den internen Daten meist großes Vertrauen entgegenbringen, sind externe Daten mit weitaus mehr Unsicherheit behaftet wie Wetter- oder Börsendaten. Big-Data-Systeme müssen diese Unsicherheiten bewerten und in die Analyse einbeziehen.

Der ebenfalls kürzlich präsentierte Report „Big Data in Big Companies“ des International Institute for Analytics (IIA) und des Softwareherstellers SAS bietet im Kontrast zur IBM-Studie eine Übersicht erfolgreicher Big-Data-Projekte in Großunternehmen. Den Ergebnissen dieses Reports zufolge halten die Befragten es für einen großen Vorteil, wenn Reporting, Analytics und Exploration sowie Datensicherheits- und Wiederherstellungsfunktionen innerhalb einer Plattform laufen. Zudem kommt die Studie zu dem Ergebnis, dass Big-Data-Umgebungen in der Regel zusätzlich zu bestehenden Data-Warehouse- und Business-Intelligence-Infrastrukturen aufgebaut werden und diese nicht ersetzen. Weitere Erkenntnis: Big-Data-Projekte sind dann besonders effektiv und bringen Erfolg, wenn Fachabteilungen und IT gut und eng zusammenarbeiten. (rnf/pi)


Mehr Artikel

News

Fünf Mythen über Managed Services 

Managed Services sind ein Erfolgsmodell. Trotzdem existieren nach wie vor einige Vorbehalte gegenüber externen IT-Services. Der IT-Dienstleister CGI beschreibt die fünf hartnäckigsten Mythen und erklärt, warum diese längst überholt sind. […]

No Picture
News

ESET: MDR-Lösungen für Managed Service Provider

ESET erweitert sein Angebot für seine Managed Service Provider (MSP) und Channel-Partner, um sie angesichts der zunehmend komplexen Bedrohungslandschaft gezielt zu unterstützen. Die neuesten Ergänzungen umfassen den Service „ESET MDR für MSPs“, eine erweiterte KI-gestützte Bedrohungsanalyse durch den ESET AI Advisor sowie flexible Preismodelle für MSP. […]

No Picture
News

Geniale Handy-Tricks

Smartphones haben etliche Funktionen, die kaum jemand nutzt, aber Ihren digitalen Alltag bereichern können. Wir stellen Ihnen eine Auswahl der besten Geheimtipps vor – sowohl für Android-Smartphones als auch für Apples iPhones. […]

Die Kombination aus interner Mobilität und Ressourcenbeschränkungen führt schnell zu einem Wildwuchs bei den vergebenen Privilegien. (c) Unsplash
Kommentar

6 Wege, wie Privilege Management die Sicherheitslage verbessert

Identitäten, Konten, Computer, Gruppen und andere Objekte benötigen gleichermaßen Zugang zu Ressourcen – limitiert auf die jeweilige Rolle und nur solange der Zugriff tatsächlich gebraucht wird. Dies ist ein grundlegender Bestandteil eines Zero Trust Least Privilege-Modelles und als solcher von AD-Administratoren, IT-Leitern, dem höheren Management und CISOs anerkannt. […]

David Blum, Defense & Security Lead bei Accenture, im Gespräch mit der ITWELT.at. (c) timeline / Rudi Handl
Interview

„Ein resilientes Unternehmen zeichnet sich durch größtmögliche Transparenz aus“

Transparenz, soweit im Sicherheitskontext möglich, ist für David Blum, Defense & Security Lead bei Accenture, ein wichtiger Bestandteil von Unternehmensresilienz. Das fördere die aus dem Verständnis folgende Unterstützung der Mitarbeitenden. Die unternehmerische Resilienz müsse nicht nur technisch, sondern auch kulturell verankert werden: „Denn Resilienz beginnt im Kopf jedes Einzelnen“, sagt Blum im Gespräch mit der ITWELT.at. […]

News

Klassifizierung von KI-Systemen gemäß EU AI Act

Unternehmen, die KI nutzen, sollten die rechtlichen Rahmenbedingungen kennen, um teure Bußgelder zu vermeiden. Der EU AI Act stellt den ersten umfassenden Rechtsrahmen zur Regulierung von KI dar und zielt darauf ab, die Grundrechte der Bürger innerhalb der Europäischen Union zu schützen. Da der EU AI Act KI-Systeme nach Risikostufen klassifiziert und damit spezifische rechtliche Verpflichtungen beinhaltet, ist es für Unternehmen unerlässlich, ihre Systeme korrekt zu kategorisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*