Mittelstand nimmt Big Data in Angriff

Die IBM-Studie "Analytics: The real-world use of big data" zeigt, dass der Mittelstand weltweit das Thema Big Data in Angriff nimmt – etwa drei Viertel der befragten Unternehmen haben bereits mit Big-Data-Projekten begonnen oder planen solche. [...]

„Unsere aktuelle Studie zu Big Data zeigt, dass sich im Mittelstand bereits drei von vier Unternehmen intensiv mit dem Thema Big Data beschäftigen – jedes vierte Unternehmen hat sogar bereits konkrete Projekte in Angriff genommen“, sagt Martina Fiddrich, Leiterin des Geschäftsbereichs Mittelstand und Partnership Solution Center, DACH bei IBM. „Auch was sich der Mittelstand konkret von Big Data erhofft, zeigt unsere Studienauswertung – er will seine Kunden, deren Bedürfnisse und Verhalten besser verstehen und schneller auf deren Wünsche eingehen.“

Die Wünsche der Kunden von den Daten – statt den Augen – ablesen, das ist das große Ziel, das der Mittelstand weltweit mit Big Data Analytics erreichen will. Zudem wollen die Unternehmen mit ihrer Datenanalyse schneller neue Chancen im Markt erkennen und auf veränderte Geschäftsanforderungen reagieren. Dies sind die zentralen Resultate, die IBM aus der Studie gewonnen hat. Für die Studie haben 2012 das IBM Institute for Business Value und die Saïd Business School (University of Oxford) weltweit über 1.100 Unternehmen befragt – mehr als die Hälfte davon sind Mittelständler.

Konkret ergab die Studie, dass sich 60 Prozent der befragten Mittelständler von Big Data Wettbewerbsvorteile erwarten, vor zwei Jahren lag dieser Wert bei nur 36 Prozent. Ein Vergleich zwischen Mittelstand und Großunternehmen zeigt, dass bei kleineren Unternehmen Big Data deutlich früher beginnt: Für zwei Drittel der Mittelständler liegt die Big-Data-Grenze bei einem Terabyte Datenvolumen – für die Mehrheit der großen Unternehmen beginnt Big Data erst ab 100 Terabyte.

Doch das Datenvolumen ist nur ein Aspekt von Big Data, denn das Thema wird von den „vier Vs“ bestimmt – außer Volume sind dies Variety, Velocity und Veracity, also Menge, Form, Geschwindigkeit und Verlässlichkeit der Daten und deren Analyse. Laut der Studie sind sich beim Thema Velocity große und mittelständische Unternehmen einig: Gut 20 Prozent der Befragten wollen ihre analysierten Daten sofort in Echtzeit zur Verfügung haben, ein weiteres Viertel innerhalb von einem Tag. Nur einem Drittel genügt es, wenn die Datenauswertung am nächsten Geschäftstag für die Entscheidungsfindung genutzt werden kann. Jedes sechste Unternehmen akzeptiert es, dass zwischen Datengewinnung, Analyse und Verfügbarkeit eine Woche liegt.

Beim dritten V – der Variety – dreht sich alles um die Form der Daten: Sie liegen entweder strukturiert oder unstrukturiert als Text, Audio- oder Videoformat vor und stammen aus unterschiedlichen Quellen wie Transaktionen, Messungen oder auch sozialen Netzen. Insgesamt zeigt sich, dass der Mittelstand vor allem interne Daten für Big Data Analytics nutzt. Laut der Studie stehen mit 88 Prozent die Daten aus Transaktionen ganz oben auf der Big-Data-Liste, 81 Prozent der Informationen stammen aus dem Datalogging – also Prozessen, wo ein Maschine-Sensor-System die Daten erfasst. Zudem nutzt der Mittelstand weiteres Wissen, das aus E-Mails (58 Prozent) und Events (56 Prozent) generiert wird. Interne Daten sind vor allem deshalb die erste Wahl für Big Data Analytics, weil Unternehmen sie bereits seit Jahren über ERP (Enterprise Resource Planning) oder Business Intelligence sammeln, strukturieren und standardisieren. Externe Daten aus sozialen Netzen wie Facebook oder Twitter nutzen bisher 43 Prozent der befragten Mittelständler für Big Data.

Übergeordnet für das gesamte Thema Big Data ist das vierte V – Veracity. Also wie gut ist die Verlässlichkeit und Qualität der Daten? Analyse und Auswertung der Daten muss stets im Blick haben, ob und in welchem Ausmaß Informationen unsicher sind. Während Unternehmen den internen Daten meist großes Vertrauen entgegenbringen, sind externe Daten mit weitaus mehr Unsicherheit behaftet wie Wetter- oder Börsendaten. Big-Data-Systeme müssen diese Unsicherheiten bewerten und in die Analyse einbeziehen.

Der ebenfalls kürzlich präsentierte Report „Big Data in Big Companies“ des International Institute for Analytics (IIA) und des Softwareherstellers SAS bietet im Kontrast zur IBM-Studie eine Übersicht erfolgreicher Big-Data-Projekte in Großunternehmen. Den Ergebnissen dieses Reports zufolge halten die Befragten es für einen großen Vorteil, wenn Reporting, Analytics und Exploration sowie Datensicherheits- und Wiederherstellungsfunktionen innerhalb einer Plattform laufen. Zudem kommt die Studie zu dem Ergebnis, dass Big-Data-Umgebungen in der Regel zusätzlich zu bestehenden Data-Warehouse- und Business-Intelligence-Infrastrukturen aufgebaut werden und diese nicht ersetzen. Weitere Erkenntnis: Big-Data-Projekte sind dann besonders effektiv und bringen Erfolg, wenn Fachabteilungen und IT gut und eng zusammenarbeiten. (rnf/pi)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*