Mittelstand nimmt Big Data in Angriff

Die IBM-Studie "Analytics: The real-world use of big data" zeigt, dass der Mittelstand weltweit das Thema Big Data in Angriff nimmt – etwa drei Viertel der befragten Unternehmen haben bereits mit Big-Data-Projekten begonnen oder planen solche. [...]

„Unsere aktuelle Studie zu Big Data zeigt, dass sich im Mittelstand bereits drei von vier Unternehmen intensiv mit dem Thema Big Data beschäftigen – jedes vierte Unternehmen hat sogar bereits konkrete Projekte in Angriff genommen“, sagt Martina Fiddrich, Leiterin des Geschäftsbereichs Mittelstand und Partnership Solution Center, DACH bei IBM. „Auch was sich der Mittelstand konkret von Big Data erhofft, zeigt unsere Studienauswertung – er will seine Kunden, deren Bedürfnisse und Verhalten besser verstehen und schneller auf deren Wünsche eingehen.“

Die Wünsche der Kunden von den Daten – statt den Augen – ablesen, das ist das große Ziel, das der Mittelstand weltweit mit Big Data Analytics erreichen will. Zudem wollen die Unternehmen mit ihrer Datenanalyse schneller neue Chancen im Markt erkennen und auf veränderte Geschäftsanforderungen reagieren. Dies sind die zentralen Resultate, die IBM aus der Studie gewonnen hat. Für die Studie haben 2012 das IBM Institute for Business Value und die Saïd Business School (University of Oxford) weltweit über 1.100 Unternehmen befragt – mehr als die Hälfte davon sind Mittelständler.

Konkret ergab die Studie, dass sich 60 Prozent der befragten Mittelständler von Big Data Wettbewerbsvorteile erwarten, vor zwei Jahren lag dieser Wert bei nur 36 Prozent. Ein Vergleich zwischen Mittelstand und Großunternehmen zeigt, dass bei kleineren Unternehmen Big Data deutlich früher beginnt: Für zwei Drittel der Mittelständler liegt die Big-Data-Grenze bei einem Terabyte Datenvolumen – für die Mehrheit der großen Unternehmen beginnt Big Data erst ab 100 Terabyte.

Doch das Datenvolumen ist nur ein Aspekt von Big Data, denn das Thema wird von den „vier Vs“ bestimmt – außer Volume sind dies Variety, Velocity und Veracity, also Menge, Form, Geschwindigkeit und Verlässlichkeit der Daten und deren Analyse. Laut der Studie sind sich beim Thema Velocity große und mittelständische Unternehmen einig: Gut 20 Prozent der Befragten wollen ihre analysierten Daten sofort in Echtzeit zur Verfügung haben, ein weiteres Viertel innerhalb von einem Tag. Nur einem Drittel genügt es, wenn die Datenauswertung am nächsten Geschäftstag für die Entscheidungsfindung genutzt werden kann. Jedes sechste Unternehmen akzeptiert es, dass zwischen Datengewinnung, Analyse und Verfügbarkeit eine Woche liegt.

Beim dritten V – der Variety – dreht sich alles um die Form der Daten: Sie liegen entweder strukturiert oder unstrukturiert als Text, Audio- oder Videoformat vor und stammen aus unterschiedlichen Quellen wie Transaktionen, Messungen oder auch sozialen Netzen. Insgesamt zeigt sich, dass der Mittelstand vor allem interne Daten für Big Data Analytics nutzt. Laut der Studie stehen mit 88 Prozent die Daten aus Transaktionen ganz oben auf der Big-Data-Liste, 81 Prozent der Informationen stammen aus dem Datalogging – also Prozessen, wo ein Maschine-Sensor-System die Daten erfasst. Zudem nutzt der Mittelstand weiteres Wissen, das aus E-Mails (58 Prozent) und Events (56 Prozent) generiert wird. Interne Daten sind vor allem deshalb die erste Wahl für Big Data Analytics, weil Unternehmen sie bereits seit Jahren über ERP (Enterprise Resource Planning) oder Business Intelligence sammeln, strukturieren und standardisieren. Externe Daten aus sozialen Netzen wie Facebook oder Twitter nutzen bisher 43 Prozent der befragten Mittelständler für Big Data.

Übergeordnet für das gesamte Thema Big Data ist das vierte V – Veracity. Also wie gut ist die Verlässlichkeit und Qualität der Daten? Analyse und Auswertung der Daten muss stets im Blick haben, ob und in welchem Ausmaß Informationen unsicher sind. Während Unternehmen den internen Daten meist großes Vertrauen entgegenbringen, sind externe Daten mit weitaus mehr Unsicherheit behaftet wie Wetter- oder Börsendaten. Big-Data-Systeme müssen diese Unsicherheiten bewerten und in die Analyse einbeziehen.

Der ebenfalls kürzlich präsentierte Report „Big Data in Big Companies“ des International Institute for Analytics (IIA) und des Softwareherstellers SAS bietet im Kontrast zur IBM-Studie eine Übersicht erfolgreicher Big-Data-Projekte in Großunternehmen. Den Ergebnissen dieses Reports zufolge halten die Befragten es für einen großen Vorteil, wenn Reporting, Analytics und Exploration sowie Datensicherheits- und Wiederherstellungsfunktionen innerhalb einer Plattform laufen. Zudem kommt die Studie zu dem Ergebnis, dass Big-Data-Umgebungen in der Regel zusätzlich zu bestehenden Data-Warehouse- und Business-Intelligence-Infrastrukturen aufgebaut werden und diese nicht ersetzen. Weitere Erkenntnis: Big-Data-Projekte sind dann besonders effektiv und bringen Erfolg, wenn Fachabteilungen und IT gut und eng zusammenarbeiten. (rnf/pi)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*