IT oder Fachbereiche: Wohin gehören Big-Data-Projekte?

Wenn Unternehmen Big Data sammeln, verwalten und analysieren, stellt sich die Frage, wer diese Daten verwalten soll: Die IT oder der Fachbereich? Die Berater von Booz haben mehrere Antworten darauf. [...]

In fast allen Unternehmen fallen inzwischen große Mengen an strukturierten wie auch an unstrukturierten Daten an. Zu den unstrukturierten Informationen zählen Social-Media-Daten, Videos, Präsentationen und Texte aber auch Sensor-Daten oder Geo-Informationen – „Big Data“ eben. Um die Potenziale zu heben, die in diesen Daten schlummern, müssen Unternehmen eine klare Vorstellung darüber haben, für welche Zwecke sie genutzt werden sollen: denkbar ist etwas, dass sie die Informationen für

  • die Optimierung der Lieferkette,
  • die Verbesserung der Kunden- und Lieferantenbeziehungen,
  • Marktprognosen
  • mehr Effizienz in operativen Prozessen oder
  • dem Reporting nutzen.

Ebenso müssen die Unternehmen entscheiden, wie die Daten gesammelt, verwaltet und analysiert werden sollen.
BIG-DATA-PROJEKTE BRAUCHEN ORGANISATION
Voraussetzung für eine sinnvolle Big-Data-Verarbeitung ist eine passende Organisationsstruktur, fordern die Analysten Tom Casey, Kumar Krishnamurthy und Boris Abezgauz von der US-Strategieberatungsfirma Booz. Diese Organisation ist an den Anforderungen des Business auszurichten und hat gleichzeitig die technologischen Voraussetzungen zu erfüllen, um die einzelnen Geschäftsbereiche beim Umgang und der Analyse von Big Data effizient unterstützen zu können. Das wiederum erfordert in Unternehmen eine abteilungs- und funktionsübergreifende Kooperation. Nach den Angaben von 500 Business-Intelligence-(BI)-Verantwortlichen, die an einer Online-Umfrage von Booz teilnahmen, gibt es drei Szenarien:
1. Die IT-Organisation soll führen: Die interne IT scheint die „natürliche“ Wahl zu sein, um Big-Data-Projekte voranzubringen. Sie kann sicherstellen, dass diese mit der bestehenden IT-Architektur konform gehen. Zugleich gewährleistet sie die konsistente Auswahl geeigneter Analyse-Tools, die ordnungsgemäße Verwendung technischer Ressourcen sowie effiziente, operative Prozesse. Allerdings lauern Booz zufolge auch einige Fallstricke, wenn die IT die Verantwortung in Big-Data-Vorhaben übernimmt. Sie sei häufig wenig vertraut mit der Geschäftsstrategie und könne daher kritische Business-Anforderungen weder priorisieren noch korrekt adressieren. Auch verzetteln sich IT-Abteilungen häufig darin, die perfekte, technische Lösung zu finden.
2. Das Business soll führen: Wenn Fachabteilungen wie das Finanzwesen oder das Marketing die Federführung in Big-Data-Projekten übernehmen, werden die Vorhaben meistens besser an der Geschäftsstrategie ausgerichtet. Zudem steigt die Wahrscheinlichkeit, dass die Belange einzelner Geschäftsbereiche zeitnah erfüllt werden. Doch im Gegenzug fehlt den Fachbereichen die für Big-Data-Projekte notwendige IT- und Technologie-Kompetenz. Das Ergebnis sind dann Analyse-Systeme, bei denen eine intakte Architekturbasis fehlt.
3. Big-Data-Kompetenz in Matrix-Organisation bündeln: Für die meisten bietet sich eine Matrix-Organisation an. Diese wird idealerweise mit geeigneten Funktionsträgern aus den betroffenen Fachbereichen und der IT-Organisation besetzt, die dann gemeinsam die spezifischen Datenmodelle und -strukturen definieren sowie das gesamte Vorhaben an den Business-Zielen ausrichten. Die Fachanwender identifizieren den Bedarf und priorisieren die Anforderungen an Big-Data-Analytics aus den verschiedenen Fachbereichen. Die IT-Mitarbeiter wiederum legen fest, wie die jeweils relevanten Daten am effektivsten gesammelt werden. Sie gewährleisten zudem die Korrektheit und Verfügbarkeit der Daten. Darüber hinaus fungiert die IT als Trusted Advisor bei allen Fragen, welche die Auswahl von Analyse-Tools oder die Erweiterung der IT-Architektur betreffen.
Darüber hinaus gibt es noch eine vierte Möglichkeit; nämlich Unternehmen, die kein klares Big-Data-Konzept haben. Diese Situation kommt den Booz-Analysten zufolge noch viel zu häufig vor.
* Andreas Schaffry ist Redakteur der deutschen CIO.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*