IT oder Fachbereiche: Wohin gehören Big-Data-Projekte?

Wenn Unternehmen Big Data sammeln, verwalten und analysieren, stellt sich die Frage, wer diese Daten verwalten soll: Die IT oder der Fachbereich? Die Berater von Booz haben mehrere Antworten darauf. [...]

In fast allen Unternehmen fallen inzwischen große Mengen an strukturierten wie auch an unstrukturierten Daten an. Zu den unstrukturierten Informationen zählen Social-Media-Daten, Videos, Präsentationen und Texte aber auch Sensor-Daten oder Geo-Informationen – „Big Data“ eben. Um die Potenziale zu heben, die in diesen Daten schlummern, müssen Unternehmen eine klare Vorstellung darüber haben, für welche Zwecke sie genutzt werden sollen: denkbar ist etwas, dass sie die Informationen für

  • die Optimierung der Lieferkette,
  • die Verbesserung der Kunden- und Lieferantenbeziehungen,
  • Marktprognosen
  • mehr Effizienz in operativen Prozessen oder
  • dem Reporting nutzen.

Ebenso müssen die Unternehmen entscheiden, wie die Daten gesammelt, verwaltet und analysiert werden sollen.
BIG-DATA-PROJEKTE BRAUCHEN ORGANISATION
Voraussetzung für eine sinnvolle Big-Data-Verarbeitung ist eine passende Organisationsstruktur, fordern die Analysten Tom Casey, Kumar Krishnamurthy und Boris Abezgauz von der US-Strategieberatungsfirma Booz. Diese Organisation ist an den Anforderungen des Business auszurichten und hat gleichzeitig die technologischen Voraussetzungen zu erfüllen, um die einzelnen Geschäftsbereiche beim Umgang und der Analyse von Big Data effizient unterstützen zu können. Das wiederum erfordert in Unternehmen eine abteilungs- und funktionsübergreifende Kooperation. Nach den Angaben von 500 Business-Intelligence-(BI)-Verantwortlichen, die an einer Online-Umfrage von Booz teilnahmen, gibt es drei Szenarien:
1. Die IT-Organisation soll führen: Die interne IT scheint die „natürliche“ Wahl zu sein, um Big-Data-Projekte voranzubringen. Sie kann sicherstellen, dass diese mit der bestehenden IT-Architektur konform gehen. Zugleich gewährleistet sie die konsistente Auswahl geeigneter Analyse-Tools, die ordnungsgemäße Verwendung technischer Ressourcen sowie effiziente, operative Prozesse. Allerdings lauern Booz zufolge auch einige Fallstricke, wenn die IT die Verantwortung in Big-Data-Vorhaben übernimmt. Sie sei häufig wenig vertraut mit der Geschäftsstrategie und könne daher kritische Business-Anforderungen weder priorisieren noch korrekt adressieren. Auch verzetteln sich IT-Abteilungen häufig darin, die perfekte, technische Lösung zu finden.
2. Das Business soll führen: Wenn Fachabteilungen wie das Finanzwesen oder das Marketing die Federführung in Big-Data-Projekten übernehmen, werden die Vorhaben meistens besser an der Geschäftsstrategie ausgerichtet. Zudem steigt die Wahrscheinlichkeit, dass die Belange einzelner Geschäftsbereiche zeitnah erfüllt werden. Doch im Gegenzug fehlt den Fachbereichen die für Big-Data-Projekte notwendige IT- und Technologie-Kompetenz. Das Ergebnis sind dann Analyse-Systeme, bei denen eine intakte Architekturbasis fehlt.
3. Big-Data-Kompetenz in Matrix-Organisation bündeln: Für die meisten bietet sich eine Matrix-Organisation an. Diese wird idealerweise mit geeigneten Funktionsträgern aus den betroffenen Fachbereichen und der IT-Organisation besetzt, die dann gemeinsam die spezifischen Datenmodelle und -strukturen definieren sowie das gesamte Vorhaben an den Business-Zielen ausrichten. Die Fachanwender identifizieren den Bedarf und priorisieren die Anforderungen an Big-Data-Analytics aus den verschiedenen Fachbereichen. Die IT-Mitarbeiter wiederum legen fest, wie die jeweils relevanten Daten am effektivsten gesammelt werden. Sie gewährleisten zudem die Korrektheit und Verfügbarkeit der Daten. Darüber hinaus fungiert die IT als Trusted Advisor bei allen Fragen, welche die Auswahl von Analyse-Tools oder die Erweiterung der IT-Architektur betreffen.
Darüber hinaus gibt es noch eine vierte Möglichkeit; nämlich Unternehmen, die kein klares Big-Data-Konzept haben. Diese Situation kommt den Booz-Analysten zufolge noch viel zu häufig vor.
* Andreas Schaffry ist Redakteur der deutschen CIO.


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*