Entscheidungen auf allen Ebenen

Big Data steht nicht nur für große Datenmengen, sondern immer geht es auch um hohe Anwenderzahlen und komplexere Abfragewünsche, die IT-Systeme und -Organisationen erfüllen sollen. [...]

Big Data beschäftigt heute weltweit Unternehmen aller Größen und aller Branchen. Immer mehr Daten entstehen außerhalb der Transaktionssysteme und lassen sich mit bisherigen Analyse­verfahren nicht ohne weiteres erschließen. Der Grund dafür ist, dass Big Data auf einer Vielzahl von Quellsystemen entsteht und in unterschiedlichen, polystrukturierten Datenformaten vorliegt. Das heißt, dass neue Strategien gefragt sind, um die in Big Data befindlichen Informationen auswerten und in die internen Entscheidungsprozesse und Wertschöpfung der Unternehmen einbeziehen zu können. Big Data ist also kein Hype, sondern Realität. Das bestätigt auch eine aktuelle Umfrage des Beratungsinstituts BARC unter europäischen Unternehmen. Big Data wird demnach als Methode und Technologie für die hochskalierbare Erfassung, Speicherung und Analyse polystrukturierter Daten definiert. Vorteile einer durchdachteren Verwertung ihrer Daten versprechen sich die Unternehmen vor allem für strategische Entscheidungen und die Verbesserung operativer Prozesse. Big Data berührt somit alle Ebenen einer analytischen Infrastruktur, also von der Erfassung, über die Speicherung bis hin zur Analyse der Daten.

ERFASSUNG DER DATEN
Big Data wird insbesondere durch maschinengenerierte (Sensorik, Log-Daten) sowie durch nutzergenerierte Inhalte (Social Media) künftig eine wachsende Bedeutung in der Datenanalyse haben. Beispiele für Sensorik sind zum Beispiel RFID- oder GPS-Daten. Künftig werden auch Autos mit dem Internet verbunden sein und können Zustandsdaten an den Hersteller übermitteln, woraus sich neue Geschäftsmodelle entwickeln lassen wie beispielsweise Mehrwertdienste. Auch Apparate wie Turbinen werden vermehrt mit Sensoren ausgestattet sein, die laufend Daten übermitteln. So übermittelt eine Turbine des Airbus A380 allein 20 TB Daten pro Stunde, die sich für eine technische Analyse und Systemüberwachung nutzen lassen. Log-Daten von IT-Sytemen oder Web-Shops sind weitere Anwendungsgebiete für Big Data. Bei Social Media steht die Nutzung der so entstehenden Daten noch am Anfang. Allein auf Facebook entstehen 2,5 Milliarden neue Inhalte, 300 Millionen Fotos und insgesamt 500 TB neue Daten am Tag. Trotz des großen Potenzials der Sensorik, der Nutzung von Log-Daten und Social Media für Big-Data-Analysen stehen Unternehmen auch auf diesen Anwendungsfeldern noch am Anfang. Die wesentliche Technologie zur Erfassung und Integration von Daten aus unterschiedlichsten Datenquellen sind Datenintegrationswerkzeuge.

DATENSPEICHERUNG
Rund um die Speicherung von Big Data konkurrieren derzeit viele Techniken im Markt wie beispielsweise das Hadoop File System (HDFS) oder NoSQL-Datenbanken. In der Praxis dominieren aber bislang klassische Data-Warehouse-Architekturen, in der Unternehmen strukturierte Daten aus Transaktionssystemen nutzen möchten. Diese stehen allerdings vor der Herausforderung, mehr und komplexere Datenbankabfragen verarbeiten zu müssen (Analyse statt Reporting), Daten aktueller zu halten und schneller verfügbar zu machen. Einen Aufschwung erleben „Analytische Datenbanken“. Sie sind ein Sammelbegriff für Datenbanken, die gegenüber herkömmlichen Systemen vor allem bei der Abfrage-Performance und Wartung (Tuning, Administration) punkten. Eine andere Produktgruppe sind Streaming-Datenbanken und (Complex) Event Processing Engines. Es handelt sich bei diesen Angeboten um spezialisierte Datenbanken und Anwendungen, die Datenströme performant erfassen und verarbeiten können.

AUSWERTUNG VON BIG DATA
Die integrierten, bearbeiteten und gespeicherten Big-Data-Bestände erhalten ihren Mehrwert erst dadurch, dass sich aus ihnen zusätzliche Geschäftsinformationen gewinnen, neue, bislang unbekannte Zusammenhänge in den Daten entdecken oder neue Fragestellungen beantworten lassen. Diese Aufbereitung von Daten in nützliche Information fällt analytischen Applikationen und Business-Intelligence-(BI-)Werkzeugen zu, die in diesem Kontext neuerdings auch als Big-Data-Analytics-Werkzeuge bezeichnet werden. Neben klassischen BI-Verfahren für Monitoring, Reporting und Analyse finden sich für Big Data spezialisierte Verfahren wie Suche und explorative Datenanalyse, Textanalyse oder Pfad- und Netzwerkanalyse. Ebenso spielen Techniken und Methoden des Data Mining eine große Rolle.

Erst durch das Zusammenspiel etablierter und neuer Technologien in diesen drei Ebenen wird Big Data die Erwartungen im Markt erfüllen können. Unternehmen müssen erst Erfahrungen sammeln und klare und unternehmensspezifische Ziele definieren, um ihre Projekte zum Erfolg zu führen. Es besteht aber die Möglichkeit neben dem etablierten Regelbetrieb neue Erkenntnisse zu erlangen. (cb)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*