Big Data in Österreich: Status Quo und Zukunft – Teil 1

Wie sieht es mit Big Data in Österreich aktuell aus? Welche Vorzeigeprojekte und innovativen Anwender gibt es hierzulande? Was könnte sich in diesem Bereich in den nächsten fünf Jahren ändern? Computerwelt.at hat bei 24 Experten nachgefragt. Hier finden Sie Antworten der ersten 12. [...]

Von A wie adesso bis M wie Mindbreeze: Computerwelt.at hat bei 24 Experten der in Österreich tätigen IKT-Branche nachgefragt, wie es mit Big Data  und Analytics am heimischen Markt aussieht, welche Projekte und Anwenderunternehmen schon heute Vorbildcharakter haben und welche Möglichkeiten es in ein paar Jahren geben wird. Hier finden Sie die Antworten der ersten 12 IT-Profis. Die weiteren Antworten finden Sie in Teil 2.

Schahram Dustdar, Beirat der adesso Austria und Professor an der TU Wien

Wie sieht die Big Data/Analytics-Nutzung am heimischen Markt aus und welche Vorzeigeprojekte oder innovative Anwender gibt es in diesem Bereich?

Es gibt einige Anwendungsbereiche, wie etwa Retail und Gebäudeautomation, die auch in Österreich sehr aktiv sind. Auch ist der Bereich Smart City Wien im Bereich Big Data Analytics sehr gefragt.

Wie könnte der Big Data/Analytics-Alltag in fünf Jahren im Vergleich zu heute aussehen und welche Möglichkeiten wird es für Unternehmen und Anwender geben?

Im Vergleich zu heute wird der Unterschied jener sein, dass es nicht nur „einzelne“ Unternehmen sein werden, welche Analytics bei sich machen, sondern der Trend wird in Richtung vernetzte Analytics gehen. Daraus werden Communities und höhere „Einheiten“ der Analyse hervorgehen.

Paul Karrer, CEO von Arrow ECS

Wie sieht die Big Data/Analytics-Nutzung am heimischen Markt aus und welche Vorzeigeprojekte oder innovative Anwender gibt es in diesem Bereich?

Die österreichische Wirtschaft bietet ein breites Spektrum an Branchen, die von Big Data und Datenanalysen profitieren oder sich dafür in einer hervorragenden Ausgangsposition befinden, darunter beispielsweise die Bereiche Bildung, Energie, Finanz, Gesundheitswesen und Fertigung. Jedes dieser Segmente bietet Raum für individuelle analytische Zwecke, abhängig vom jeweiligen Geschäftsbereich bzw. dem jeweiligen Tätigkeitsfeld. Ein Thema spannt sich jedoch wie ein Bogen über alle diese Bereiche: Sicherheit.   
Der Einsatz von Big Data zur Betrugserkennung, Bedrohungsanalyse und zur Ergänzung von SIEM-Systemen (Security Incident and Event Management) ist für viele Organisationen und Unternehmen eine äußerst attraktive Möglichkeit. Der Kostenaufwand zur Verwaltung des Outputs herkömmlicher Sicherheitslösungen erweist sich für die meisten IT-Abteilungen als viel zu hoch, Big Data wird daher als die große Rettung gepriesen.
Organisatorische Silos verringern häufig die Wirksamkeit von Sicherheitssystemen. Unternehmen müssen sich daher bewusst sein, dass auch die potentielle Wirksamkeit von Big Data-Analysen verwässert werden kann, sofern diese Probleme nicht in Angriff genommen werden. Durch Behebung der Siloproblematik ermöglichen Big Data und Analyselösungen zur Unterstützung der Betrugserkennung und Verbesserung der Bedrohungsanalyse unseren Kunden, dieselben Informationen zu nutzen, um ihre Kunden besser zu verstehen.
So haben sie die Gelegenheit, unterschiedliches Kaufverhalten in Multi-Channel-Umgebungen zu verstehen, Geschäftsprozesse in Echtzeit zu analysieren und vieles mehr. Und dank des besseren Kundenverständnisses können die Marketingteams nun maßgeschneiderte Werbung erzeugen, während die Organisationen gleichzeitig Kosten reduzieren.

Wie könnte der Big Data/Analytics-Alltag in fünf Jahren im Vergleich zu heute aussehen und welche Möglichkeiten wird es für Unternehmen und Anwender geben?

Ein massiver Anstieg des Volumens und der Verfügbarkeit von Daten wird sicherlich die Leistung der Analyse- und Prognosetools verbessern. In naher Zukunft wird die Analyse vorhandener interner Daten zum Schutz der Unternehmens-IP und gleichzeitigen Förderung des Verständnisses für das Verhalten ihrer Kunden erheblich durch externe Datenquellen verbessert werden, unter anderem auch bei Wettervorhersagen, Verkehr u.v.m., und zunehmend an Bedeutung gewinnen.
Bis 2020 werden die meisten innovativen Unternehmen ihr Geschäftsmodell fit für ein neues Zeitalter gemacht haben und neue Dienste und Lösungen anbieten, die unser alltägliches Leben sicherer, kostengünstiger und leichter machen. Unternehmen werden von gesteigerter Produktivität, verbesserter Unternehmenstransparenz und der Art und Weise profitieren, wie Menschen kommunizieren, Informationen pflegen und sogar Ereignisse vorhersagen. Dieses Plus an Informationen wird auf alle möglichen Arten von Vorteil sein, die wir uns heute noch nicht einmal vorstellen können, und zwar ganz einfach, weil wir diese Daten noch nicht haben.

Johann Martin Schachner, Country Manager Atos Österreich

Wie sieht die Big Data/Analytics-Nutzung am heimischen Markt aus und welche Vorzeigeprojekte oder innovative Anwender gibt es in diesem Bereich?

Ein Großteil der heimischen Unternehmen und Institutionen hat das Potenzial von Big Data erkannt, um neue, erfolgskritische Erkenntnisse zu sammeln und Wettbewerbsvorteile zu generieren. Durch den Einsatz von Big Data Analytics entstehen zudem auch ganz neue Geschäftsmodelle. Angesichts der voranschreitenden digitalen Transformation sämtlicher Wirtschaftszweige wird auch die Bandbreite an Projekten und Anwendungsfällen kontinuierlich wachsen. Besonders deutlich wird diese Entwicklung aktuell an den Beispielen Industrie 4.0 und Smart Metering.
Als österreichisches Vorzeigeprojekt ist die sich im Aufbau befindende Industrie 4.0-Pilotfabrik in der Wiener Seestadt Aspern zu nennen. Als Systemintegrations-Partner der TU Wien zeichnet Atos für die IT-Referenzinstallation in der Pilotfabrik verantwortlich. Diese umfasst die Komponenten SAP HANA, PLM, MES sowie spezialisierte Industrie 4.0-Anwedungen, wie etwa Condition Monitoring. Sämtliche Maschinen- und Sensorik-Daten werden hier mithilfe von Big Data Analytics verarbeitet. Ein weiteres Beispiel kommt aus dem Energiebereich: Die Einführung von Smart Metering ist bei der Salzburg Netz GmbH aktuell in Vorbereitung. Das Thema „Big Smart Meter Data“ kann dabei in zwei Bereiche gegliedert werden: Einerseits dienen validierte Smart Meter Daten (Lastprofildaten) im Meter Data Management System als zentrale Datenquelle sowie als Basis für beispielsweise Aufgaben im Netzbereich (Bilanzierung, Netzplanung), Tarifierungsmodelle oder etwa für das Energiedatenmanagement. Andererseits können aus verschiedenen Quellen gespeiste, zentrale Logging-Daten, u.a. Smart Metering Infrastruktur, Netzleittechnik, als Datenquelle für die Optimierung der Betriebsführung genutzt werden. Künftig werden innovative Big-Data-Funktionen für das Management ganzer intelligenter Stromnetze, sogenannter Smart Grids, sowie für die Bereitstellung und Optimierung einer Reihe neuer Services genutzt.

Wie könnte der Big Data/Analytics-Alltag in fünf Jahren im Vergleich zu heute aussehen und welche Möglichkeiten wird es für Unternehmen und Anwender geben?

Bis 2020 wird mit einem Datenaufkommen von weltweit 44 Zettabyte gerechnet – aktuell werden nur 12 Prozent dieser Datenmenge genutzt. Anwendern eröffnet der neue Datenschatz eine Vielzahl an Möglichkeiten, Mehrwert für das eigene Unternehmen zu schaffen:
Finanzdienstleister werden in Zukunft strukturierte und unstrukturierte Daten dazu nutzen, um ad hoc auf Marktentwicklungen reagieren zu können, sowohl im Effekten- und Devisenhandel als auch bei der Erstellung maßgeschneiderter Angebote für ihre Kunden. Zudem werden Risiken und Betrugsfälle schnell und eindeutig identifiziert und entsprechende Gegenmaßnahmen automatisch angestoßen.
Im Transportbereich wiederum werden mithilfe von Geodatenanalyse wettbewerbsentscheidende Informationen geliefert, die anhand von grafischen Karten dargestellt und in eine intelligente Beziehung zueinander gesetzt werden, um Auslastungsoptimierungen im Bereich von Verkehrswegen oder Elektromobilität (z. B. eCar-Sharing/-Rental) vorzunehmen.
In der Fertigungsindustrie werden Produkt- und Produktionsplanung perfekt auf die immer vielfältigeren Kundenbedarfe abgestimmt sein. So entstehen individuelle Produkte sowie eine bessere und flexiblere Auslastung der Maschinen, kürzere Lieferzeiten.
Institutionen des öffentlichen Sektors erkennen rechtzeitig Trends oder Engpässe und nutzen diese Informationen, um ihre Dienstleistungen benutzerfreundlich, integriert und kosteneffizient anzubieten.
Medienunternehmen haben ein tiefgehendes Verständnis vom Nutzenverhalten und den Präferenzen ihrer Kunden. Sie agieren gezielt und planen Fernseh- und Werbeinhalte sowie -zeiten punktgenau.
Telekommunikationsunternehmen sind durch Big Data-Analysen ihrer Netzwerk- und Kundendaten in der Lage, die Servicequalität ad-hoc signifikant zu steigern und Echtzeitdienste anzubieten.
Versorgungsunternehmen setzen Konzepte für Datenanalysen und -visualisierung ein und nutzen die Fülle von Daten für die Weiterentwicklung intelligenter Netze.
Künftig werden sämtliche Unternehmensbereiche Big Data Analysen nutzen. Aus diesem Grund wird es in fünf Jahren einen großen Bedarf an Shared Analytics-Plattformen geben.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*