Outsourcing von Data Analytics

Unternehmen greifen zunehmend auf externe Dienstleister zurück um Erkenntnisse aus ihren Daten zu gewinnen. Nachfolgend sind die Vorteile und Risiken zusammengetragen, die Branchenexperten beim Analytics-Outsourcing beobachten. [...]

Marktforscher beobachten einen Trend hin zum Outsourcing von Data Analytics.
Marktforscher beobachten einen Trend hin zum Outsourcing von Data Analytics. (c) Gewalt / Fotolia

Data-Analytics-Outsourcing bedeutet, dass Unternehmen externe Service-Provider mit der Analyse von Daten, die sie eben diesem Outsourcing-Unternehmen zur Verfügung stellen, beauftragen – ein Service, der vermehrt nachgefragt wird. So hat das Marktforschungsunternehmen Hexa Research im Vorjahr erhoben, dass der weltweite Data-Analytics-Outsourcing-Markt zwischen 2016 und 2024 eine durchschnittliche jährliche Wachstumsrate (CAGR) von mehr als 30 Prozent aufweist und bis 2024 einen Jahresumsatz von mehr als 6 Milliarden US-Dollar erreichen wird. Demnach erkennen Unternehmen zunehmend die Bedeutung von Analytics zur Umsatzsteigerung.
Allerdings verfügt nicht jeder Betrieb über das nötige Wissen und die Ressourcen für eine gründliche Datenanalyse. Hinzu kommt der Mangel an Data-Analytics-Fachleuten. Das hat zu einer gesteigerten Nachfrage nach Analytics-Services geführt. Der Hexa-Bericht unterteilt Analytics in drei Typen: predictive (vorhersagend), prescriptive (vorschreibend) und descriptive (beschreibend), wobei die deskriptive Analytik den größten Anteil am Gesamtmarkt hat, predictive Analytics aber von Hexa ein signifikantes Wachstum prognostiziert wird.
Grundsätzlich kann Outsourcing Offshore oder Onshore erledigt werden. „Die Bereitstellung der Services via Cloud ermöglicht einen einfacheren Zugriff auf Daten aus Regionen der Welt, in denen die Arbeitskosten geringer sind. Dadurch können die Kosten für die fortlaufende Verwaltung von Algorithmen gesenkt werden“, sagt Katy Ring, Research Director für Cloud- und IT-Services beim Marktforschungsunternehmen 451 Research. „Aber tatsächlich werden die Kosten eher durch Machine Learning sinken. Das Outsourcen von Daten-Management-Systemen ist da eher sinnvoll als das Outsourcen der Datenanalyse.“ Indem die nötige Arbeit zunehmend von Maschinen erledigt wird, »wird das Offshore-Konzept im Laufe der Zeit zunehmend verwässert«, weiß Beatriz Sanz Saiz, Global-Analytics-Partnerin für Beratungsdienstleistungen beim Consulting-Unternehmen EY. „Es geht weniger um Offshoring oder Onshoring als vielmehr darum, wie Menschen und Maschinen zusammenarbeiten, um das beste Ergebnis zu erzielen.“
Zudem gilt, dass das Auslagern von Data Analytics wohl nicht für alle Arten von Unternehmen bzw. für alle Arten von Analysen sinnvoll sein muss. Nachfolgend eine Übersicht der Vorteile und Risiken, die Branchenexperten beim Outsourcing von Data Analytics sehen.

Pro: Zugang zu im Unternehmen fehlenden Skills

Noch immer sind in der IT Fachkräfte Mangelware. Per Outsourcing kann dieses Knowhow bereitgestellt und die Lücke geschlossen werden. „Mit den stark wachsenden Datenströmen können traditionelle Rechenzentren kaum Schritt halten«, erklärt Katy Ring. »Dies erhöht den Druck, die Verwaltung des Datenbestands in die Cloud zu bringen und Big Data per Amazon Web Services, Microsoft Azure und Google Cloud Platform zu ermöglichen.“
Dazu benötigen Unternehmen Cloud-Management-Plattformen um Big-Data-Lakes bereitstellen und Datenlasten und -transfers von einzelnen Konsolen verwalten zu können. „Es ist jedoch schwierig, das mit einem IT-Team zu bewerkstelligen, das nicht über die entsprechenden Fähigkeiten verfügt. Outsourcing kann Unternehmen diese Fähigkeiten verschaffen.“

Kontra: Das Risiko, den falschen Anbieter zu wählen

Die Entscheidung, mit welchem Outsourcing-Partner man zusammenarbeiten soll, ist immer eine Herausforderung. „Die Anbieterauswahl ist mühsam, da alle Player damit werben, die beste Technologie zu haben“, sagt Alison Close, Research Manager für Finanz- und Rechnungswesen, BPaaS und Analyseservices bei der IDC. „Die Kosten sind ein wichtiger Faktor bei der Anbieterauswahl, doch Unternehmenskultur und Ausrichtung der Teams spielen dabei eine ebenso wichtige Rolle. Unternehmen erwarten heute verstärkt strategische Partnerschaften mit im täglichen Betrieb verankerte Ressourcen, effizienten Kommunikationskanälen und dass Resultate erzielt werden. Das geht über reine Kostensenkungen hinaus“, weiß Close.

Pro: Branchenexpertise

Während einige Data-Analytics-Funktionen universell eingesetzt werden können, sind andere speziell für bestimmte Bereiche wie Gesundheitswesen oder Finanzdienstleistungen gedacht. Ein Outsourcing-Partner mit fundierten Branchenkenntnissen ist ein enormer Wettbewerbsvorteil. „Provider, die z. B. über Fachkenntnisse im Einzelhandel verfügen, können spezielle Analyseservices, z. B. zu Customer Lifetime Value, Verkauf in der Filiale, Rentabilität oder Warenkorb anbieten. Alles Techniken, die für diese Branche sehr spezifisch sind“, sagt Close und fügt hinzu: „Sie können auch Benchmarks bezüglich Daten oder Metriken bereitstellen, um einen Vergleich mit Industriestandards oder anderen Branchenakteuren zu ermöglichen – das wäre ein klarer Wettbewerbsvorteil.“

Kontra: Kosten-Nutzen-Abwägungen

„Sobald ein Vorhersagemodell erstellt und von einem externen Dienstleister in ein Produkt umgewandelt wurde, muss es so lange wie nötig operationalisiert werden,“ erklärt Ring. Das bedeute, den Algorithmus stetig zu verbessern und die jeweiligen Regeln neu zu implementieren, damit die gewonnenen Erkenntnisse aussagekräftig bleiben.
Dazu Katy Ring: „Die Daten ändern sich ständig, so dass das Modell up-to-date gehalten werden muss. Diese ständigen Updates haben jedoch ihren Preis und dieser übersteigt das, was Unternehmen üblicherweise ihren internen IT-Dienstleistern für Business-Intelligence-Berichte zu zahlen bereit sind.“
Die Kostenfrage für Outsourcing-Dienstleistungen ist sicher eine Herausforderung, insbesondere für größere Betriebe mit komplexeren operativen Modellen. Eine Zustimmung der Geschäftsführung zu erhalten, dürfte das größte Hindernis sein, so Close, „vor allem wenn Datenquellen zentralisiert werden sollen, die in Silos vorhanden sind und dadurch verschiedene Geschäftsbereiche in diesen Entscheidungsfindungsprozess involviert sind.“

Pro: Einfache Skalierbarkeit und schneller Weg zur Analytik

Outsourcing-Services können Unternehmen nicht nur dabei unterstützen Data-Analytics-Skills zu erwerben, sondern auch beim Aufbau einer Analyseinfrastruktur, die Inhouse nicht oder zumindest nicht einfach zu verwirklichen ist.
Data Analytics »ist zu einem selbstverständlichen Bestandteil der Geschäftstätigkeit geworden und weit mehr als nur Data Warehousing und Business Intelligence«, erklärt Jorgen Heizenberg, Research Director Data and Analytics bei Gartner. »Das erfordert ein Maß an Skalierbarkeit und Komplexität, das nicht immer im eigenen Haus zu finden ist. Einer der häufigsten Gründe, warum Organisationen nach externer Analytics-Unterstützung suchen, ist, dass ihnen die internen Ressourcen fehlen, um diese wachsende Nachfrage zu befriedigen.“ Eine weitere Überlegung sei die Absicht, die Kosten beim Erwerb dieser Analysefunktionen niedrig zu halten, sagt Heizenberg, da die Anbieter häufig auf analytische Ressourcen wie Frameworks und Accelerators zurückgreifen.
Das Technologie-Knowhow des Anbieters nutzen zu können, sei es bei der Implementierung eines Data Warehouse oder beim Einführen von Robotic Process Automatisation (RPA) oder cloudbasierter Werkzeuge zur Verbesserung der Betriebseffizienz, kann ein großer Vorteil sein, ist Close überzeugt. „Das Outsourcing von Data Analytics an einen Drittanbieter könnte auch dazu beitragen, innovativere Lösungen einzuführen, die vom Unternehmen möglicherweise gar nicht in Betracht gezogen werden.“

Kontra: Die Kontrolle verlieren

Jede Outsourcing-Vereinbarung bedeutet, etwas aufgeben zu müssen, sei es die vollständige Kontrolle über verschiede Arbeitsbereiche oder gar der Abbau von Arbeitsplätzen. Bei Analytics-Outsourcing sind die Analysemodelle die größten Ressourcen, die geopfert werden müssen.
„Für ‚Insight-as-a-Service‘ hat ein Kunde die Daten üblicherweise dem Service-Provider gegeben, damit dieser dem Kunden die gewünschten Antworten liefert“, erläutert Ring. „In so einem Modell besitzt der Kunde nie den Algorithmus oder die Logik dahinter. Bei Beendigung der Zusammenarbeit bleiben dem Kunden nur die Daten und die Empfehlungen, nicht die Modelle, Ansätze, das Framework oder die Konfiguration.“
„Unternehmen, die Datenanalysen auslagern, könnten auch Bedenken haben, wo ihre Daten gespeichert werden und ob der Speicherort für sie tatsächlich die beste Option darstellt“, gibt Close zu bedenken. „Werden die Daten intern On-Site in einer dedizierten Umgebung, die nur für das auftraggebende Unternehmen eingerichtet wurde, gespeichert – oder in einer gehosteten „shared“ Public Cloud im Rechenzentrum des Anbieters?“

Pro: Einhaltung der jeweils aktuellen Datenschutzbestimmungen

Ein stark zunehmendes Datenvolumen erhöht das Risiko, das beim Verwalten und Analysieren der Daten nicht alle Vorschriften eingehalten werden. Unterschiede zwischen Governance- und Sicherheitsrichtlinien in den verschiedenen Datenquellen stellten Unternehmen vor Herausforderungen, wenn es um die Datenüberwachung in Data Lakes gehe, sagt Ring. „Insbesondere wenn Anforderungen in Bezug auf personenbezogene Daten und die Datenschutzgrundverordnung (DSGVO) betroffen sind, ist ein externer Partner gefragt, der die geforderte Überprüfung der Daten leicht vornehmen kann.“

Kontra: Die Notwendigkeit, die Datenmanagement-Strategie zu besitzen

„Um die ‚Demokratisierung‘ von Daten innerhalb eines Unternehmens umzusetzen, wird ein Chief Data Officer (CDO) benötigt, der sich für eine unternehmensweite Strategie zur Erfassung, Verwaltung und gemeinsamen Nutzung von Daten einsetzt“, erklärt Ring. Die Self-Service-Analytics- und Governance-Layers müssten so konzipiert werden, dass sie im Lauf der Zeit eine Reihe von Anwendungsfällen ermöglichten, weshalb eine CDO-Rolle so wichtig sei. „Der CDO ist letztendlich verantwortlich für die Ausrichtung von Geschäft und IT rund um das Datenmanagement. Wenn nun die auslagernde Organisation diese interne Rolle nicht hat, wird der Outsourcing-Ansatz nur begrenzten Erfolg haben,“ resümiert Ring.

Pro: Großes Potenzial, um den Wert von Daten zu nutzen

Es heißt, dass Daten die neue Währung für Unternehmen sind, und tatsächlich steckt in der Nutzung von Analysen ein großes Potenzial, um geschäftliche Vorteile zu generieren.
Mit der zunehmenden Verlagerung der Arbeit auf Maschinen, wird sich die Wertschöpfungskette von Daten und Analysen grundlegend ändern, ist Saiz überzeugt. „Wie in jedem digitalen Business wird eine Disintermediation (ein Verschwinden der Vermittler, Anm.) stattfinden, so dass der Wert an den beiden Enden des Geschäfts zu liegen kommt – entweder am Ende der Daten oder am Ende der Entscheidungsunterstützung bzw. Business Insights.“
In diesem Zusammenhang besteht ein möglicher Vorteil des Outsourcings in der Chance, einen Datenmarktplatz zu nutzen und alternative Geschäftsmodelle zu entwickeln, „wobei ein unabhängiger Dritter die Daten von mehreren Organisationen verwahrt und das Konzept einer Plattform für anonymisierten und sicheren Datenaustauschs fördert“, sagt Saiz.

Kontra: Potenzial für Konflikte

Jeder hofft bei Outsourcing-Vereinbarungen, dass die Kooperation für alle Beteiligten reibungslos verläuft. Aber natürlich können im laufenden Betrieb immer Probleme auftauchen. Dies gilt insbesondere dann, wenn Unternehmen beim Erstellen der Verträge geschlampt haben und vergessen haben, wichtige Vertragsbedingungen wie Kündigung, Daten-Governance, Eigentumsrechte an geistigem Eigentum, Haftung, Kennzahlen und SLAs, Preismodelle und zusätzliche Kapazitäts- und Wartungskosten einzubeziehen, so Heizenberg. Dies kann zu möglichen Konflikten während oder am Ende des Engagements führen. 

*Bob Violino ist Redakteur der Network World.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*