Fünf Trends, die datengesteuerte Unternehmen im Jahr 2023 beachten sollten

Noch zu Beginn dieses Jahres schien es so, als entspanne sich die Lage auf internationaler Ebene und ein kollektives Aufatmen zeichnete sich ab. Lange hat es jedoch nicht gedauert, bis die traurige Realität an die Tür geklopft und Unternehmen weltweit auf den Boden der Tatsachen zurückgeholt hat. [...]

Foto: Akela999/Pixabay

Aufgrund der aktuellen Wirtschaftslage hinterfragen Unternehmen fast jeder Branche, welche Investitionen sinnvoll sind und getätigt werden sollten. Die Folgen für die Technologiebranche sind spürbar: VC-Finanzierungen gehen zurück, Digitalisierungsstrategien geraten ins Stocken und vielerorts verhindern neue Regularien und mangelnde Datenkompetenz ein erneutes Wachstum.  

Um datengesteuerten Unternehmen in dieser unsicheren Zeit den richtigen Weg zu weisen, hat Qlik fünf Schlüsseltrends skizziert, die für das Jahr 2023 besonders wichtig werden.

In unsicheren Zeiten ist es umso wichtiger, den Fokus auf jene Lösungen, Strukturen und Prozesse zu legen, die einen Weg aus der Krise aufzeigen. Bei so viel Innovationsdruck ist es schwierig, die adäquaten Maßnahmen zu identifizieren.

Eines steht jedoch fest: Die sich rasant verändernden Bedingungen erfordern schnelle und zielgerichtete Entscheidungsfindungsprozesse sowie die Integration von isolierten und distribuierten Datensätzen, um ein Gesamtbild aller Variablen in Echtzeit sehen zu können. Ohne dieses setzen Unternehmen ihren künftigen Erfolg aufs Spiel. 

Investitionen in abgeleitete und synthetische Daten

Wenn die letzten Jahre etwas verdeutlicht haben, dann ist es die Bedeutung der Risikovorhersage und des Risikomanagements. Vor COVID-19 standen beispielsweise nicht genügend reale Daten über Pandemien zur Verfügung, um sich auf eine solche Krise vorzubereiten.

Synthetische Daten, also Daten die künstlich generiert werden und nicht auf realen Messungen oder Datenerhebungen beruhen, schließen diese Lücke. Darüber hinaus können auf Grundlage von Modellen, die auf synthetischen Daten basieren, genauere Ergebnisse erzielt werden. Darauf deuten neue Forschungsergebnisse hin.

Zudem entfallen dadurch Bedenken in Bezug auf Datenschutz, Urheberrecht und Ethik, die mit realen Daten verbunden sind. Abgeleitete Daten ermöglichen es wiederum, Daten für verschiedene Zwecke zu verwenden und erlauben die Planung verschiedener Szenarien, die für die Vorbereitung auf zukünftige Probleme und Krisen erforderlich ist.

KI dringt tiefer in die Datenpipeline ein

Aktuell stellen viele Unternehmen Neueinstellungen zurück oder bauen gar Stellen ab. Ein Umstand, der die durch den Fachkräftemangel ohnehin angespannte Personaldecke weiter belastet. Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind in der Lage, aufwändige Vorgänge im Bereich der Datenaufbereitung zu automatisieren.

Indem KI tiefer in die Datenpipeline eingebracht wird, noch bevor eine Anwendung oder ein Dashboard erstellt wurde, lässt sich der Zeitaufwand für die Datenvorbereitung reduzieren und Ressourcen können in die Datenanalyse gesteckt werden.

Aktuell fallen weniger als 20 Prozent der Zeit auf ebendiese, während mehr als 80 Prozent für die Suche nach geeigneten Daten, deren Aufbereitung sowie deren Verwaltung aufgewendet werden.

Auf diese Weise könnten sich Datenfachkräfte darauf konzentrieren, gemeinsam durch ausführliche Analyse neue und wertvolle Erkenntnisse zu gewinnen und einen bedeutenden Mehrwert für ihr Unternehmen zu generieren. 

Natural Language Processing (NLP) macht dem Menschen Konkurrenz

Viele Unternehmen nutzen bereits seit einiger Zeit Sprach-KI in ihrer Grundform. So ist die Interaktion mit einem Chatbot im Kundenservice schon fast alltäglich. Schätzungen zufolge wird die Beliebtheit der Sprachbots in den kommenden Jahren um weitere 18 Prozent zunehmen.

Parallel befinden sich mehrere neue Technologie-Modelle in der Entwicklung, die wesentlich leistungsfähiger sind als alles, was aktuell auf dem Markt ist. Wohin die Entwicklung führt, lässt sich nur erahnen. Sicher ist jedoch, dass NLP enorme Auswirkungen auf die Art und Weise haben wird, wie Informationen abgefragt, interpretiert oder berichtet werden.

Durch NLP sind nicht nur solche Daten leichter auffindbar, nach denen aktiv gesucht wird, sondern es kommen auch Daten zum Vorschein, an die bei der Suche noch gar nicht gedacht wurde. 

Entschärfung von Lieferkettenunterbrechungen durch Echtzeitdaten 

Die Nachwirkungen von COVID-19 und die anhaltenden globalen Konflikte beeinträchtigen noch immer die Lieferketten. Wer in den letzten Jahren versucht hat, ein neues Auto oder einen Computer zu kaufen, weiß, wie schwerwiegend die Lieferketten beeinträchtigt wurden.

Es gibt keine Anzeichen dafür, dass sich die Lage in den nächsten Jahren entspannen wird. Somit bleibt auch die Notwendigkeit bestehen, schnell auf alle Eventualitäten reagieren oder diesen idealerweise vorausschauend entgegenwirken zu können. Potenzielle Störfaktoren müssen erkannt werden, bevor sie entstehen. Der Schlüssel hierzu ist die Möglichkeit, Daten in Echtzeit und im jeweiligen Kontext zu analysieren.

So ist es nicht verwunderlich, dass laut IDC bis 2027 sechzig Prozent der Ausgaben im Bereich Datenerfassung und -bewegung auf Lösungen fallen, die Simulationen, Optimierungen und Empfehlungen in Echtzeit ermöglichen. 

„X-Fabric“ verbindet Data Governance

Investitionen in Daten und Analysen haben sich aufgrund der Pandemie immens beschleunigt – ein Trend, der sich auch weiterhin fortsetzen wird. So planen laut einer aktuellen Studie rund 93 Prozent der befragten Unternehmen, ihre Ausgaben in diesen Bereichen weiter zu erhöhen. Sich schnell verändernde Regularien zum Datenschutz sowie zur Verteilung, Diversität und Dynamik von Daten bremsen Unternehmen dabei aus, den größtmöglichen Wettbewerbsvorteil aus den Daten zu generieren.

Besonders herausfordernd ist dies in einer fragmentierten Welt, in der Data Governance zunehmend komplexer wird. Um das volle Datenpotenzial ausschöpfen zu können, ist der verbesserte Zugriff auf Daten, deren Bewegung in Echtzeit sowie eine fortschrittliche Transformation zwischen Quellen und Systemen im gesamten Unternehmen von entscheidender Bedeutung. 

Aus diesem Grund setzen immer mehr Unternehmen auf eine „X-Fabric“. Dabei handelt es sich um eine Datenstruktur, die neben verteilten Daten auch Applikationen, BI-Dashboards und Algorithmen durch Kataloge und Cloud-Datenintegrationslösungen verknüpft. Dies ist eine entscheidende Komponente in der modernen verteilten Umgebung für jedes Unternehmen, das mit Gewissheit handeln und dem Prinzip einer Connected Governance folgen möchte.

Derzeit sind diese Methoden jedoch noch weniger ausgereift als eine Methodik, die nur verteilte Datensätze durch semantische Modelle miteinander verbindet.

Fazit

Die gute Nachricht ist, dass wir infolge der letzten Jahre besser als je zuvor darauf vorbereitet sind, mit aufkommenden Widrigkeiten umzugehen.

Daten- und Analyseexperten müssen sich auf eine stärkere Fragmentierung durch disparate Datenzentren, unterbrochene Lieferketten, einen ständigen Innovationsbedarf und erschwerten Zugang zu qualifizierten Arbeitskräften einstellen.

Um im richtigen Moment reagieren und alle Eventualitäten antizipieren zu können, wird diese Fähigkeit in einer krisengebeutelten Welt zur Kernkompetenz.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*