Entscheidungen auf allen Ebenen

Big Data steht nicht nur für große Datenmengen, sondern immer geht es auch um hohe Anwenderzahlen und komplexere Abfragewünsche, die IT-Systeme und -Organisationen erfüllen sollen. [...]

Big Data beschäftigt heute weltweit Unternehmen aller Größen und aller Branchen. Immer mehr Daten entstehen außerhalb der Transaktionssysteme und lassen sich mit bisherigen Analyse­verfahren nicht ohne weiteres erschließen. Der Grund dafür ist, dass Big Data auf einer Vielzahl von Quellsystemen entsteht und in unterschiedlichen, polystrukturierten Datenformaten vorliegt. Das heißt, dass neue Strategien gefragt sind, um die in Big Data befindlichen Informationen auswerten und in die internen Entscheidungsprozesse und Wertschöpfung der Unternehmen einbeziehen zu können. Big Data ist also kein Hype, sondern Realität. Das bestätigt auch eine aktuelle Umfrage des Beratungsinstituts BARC unter europäischen Unternehmen. Big Data wird demnach als Methode und Technologie für die hochskalierbare Erfassung, Speicherung und Analyse polystrukturierter Daten definiert. Vorteile einer durchdachteren Verwertung ihrer Daten versprechen sich die Unternehmen vor allem für strategische Entscheidungen und die Verbesserung operativer Prozesse. Big Data berührt somit alle Ebenen einer analytischen Infrastruktur, also von der Erfassung, über die Speicherung bis hin zur Analyse der Daten.

ERFASSUNG DER DATEN
Big Data wird insbesondere durch maschinengenerierte (Sensorik, Log-Daten) sowie durch nutzergenerierte Inhalte (Social Media) künftig eine wachsende Bedeutung in der Datenanalyse haben. Beispiele für Sensorik sind zum Beispiel RFID- oder GPS-Daten. Künftig werden auch Autos mit dem Internet verbunden sein und können Zustandsdaten an den Hersteller übermitteln, woraus sich neue Geschäftsmodelle entwickeln lassen wie beispielsweise Mehrwertdienste. Auch Apparate wie Turbinen werden vermehrt mit Sensoren ausgestattet sein, die laufend Daten übermitteln. So übermittelt eine Turbine des Airbus A380 allein 20 TB Daten pro Stunde, die sich für eine technische Analyse und Systemüberwachung nutzen lassen. Log-Daten von IT-Sytemen oder Web-Shops sind weitere Anwendungsgebiete für Big Data. Bei Social Media steht die Nutzung der so entstehenden Daten noch am Anfang. Allein auf Facebook entstehen 2,5 Milliarden neue Inhalte, 300 Millionen Fotos und insgesamt 500 TB neue Daten am Tag. Trotz des großen Potenzials der Sensorik, der Nutzung von Log-Daten und Social Media für Big-Data-Analysen stehen Unternehmen auch auf diesen Anwendungsfeldern noch am Anfang. Die wesentliche Technologie zur Erfassung und Integration von Daten aus unterschiedlichsten Datenquellen sind Datenintegrationswerkzeuge.

DATENSPEICHERUNG
Rund um die Speicherung von Big Data konkurrieren derzeit viele Techniken im Markt wie beispielsweise das Hadoop File System (HDFS) oder NoSQL-Datenbanken. In der Praxis dominieren aber bislang klassische Data-Warehouse-Architekturen, in der Unternehmen strukturierte Daten aus Transaktionssystemen nutzen möchten. Diese stehen allerdings vor der Herausforderung, mehr und komplexere Datenbankabfragen verarbeiten zu müssen (Analyse statt Reporting), Daten aktueller zu halten und schneller verfügbar zu machen. Einen Aufschwung erleben „Analytische Datenbanken“. Sie sind ein Sammelbegriff für Datenbanken, die gegenüber herkömmlichen Systemen vor allem bei der Abfrage-Performance und Wartung (Tuning, Administration) punkten. Eine andere Produktgruppe sind Streaming-Datenbanken und (Complex) Event Processing Engines. Es handelt sich bei diesen Angeboten um spezialisierte Datenbanken und Anwendungen, die Datenströme performant erfassen und verarbeiten können.

AUSWERTUNG VON BIG DATA
Die integrierten, bearbeiteten und gespeicherten Big-Data-Bestände erhalten ihren Mehrwert erst dadurch, dass sich aus ihnen zusätzliche Geschäftsinformationen gewinnen, neue, bislang unbekannte Zusammenhänge in den Daten entdecken oder neue Fragestellungen beantworten lassen. Diese Aufbereitung von Daten in nützliche Information fällt analytischen Applikationen und Business-Intelligence-(BI-)Werkzeugen zu, die in diesem Kontext neuerdings auch als Big-Data-Analytics-Werkzeuge bezeichnet werden. Neben klassischen BI-Verfahren für Monitoring, Reporting und Analyse finden sich für Big Data spezialisierte Verfahren wie Suche und explorative Datenanalyse, Textanalyse oder Pfad- und Netzwerkanalyse. Ebenso spielen Techniken und Methoden des Data Mining eine große Rolle.

Erst durch das Zusammenspiel etablierter und neuer Technologien in diesen drei Ebenen wird Big Data die Erwartungen im Markt erfüllen können. Unternehmen müssen erst Erfahrungen sammeln und klare und unternehmensspezifische Ziele definieren, um ihre Projekte zum Erfolg zu führen. Es besteht aber die Möglichkeit neben dem etablierten Regelbetrieb neue Erkenntnisse zu erlangen. (cb)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*