Fünf Trends, die datengesteuerte Unternehmen im Jahr 2023 beachten sollten

Noch zu Beginn dieses Jahres schien es so, als entspanne sich die Lage auf internationaler Ebene und ein kollektives Aufatmen zeichnete sich ab. Lange hat es jedoch nicht gedauert, bis die traurige Realität an die Tür geklopft und Unternehmen weltweit auf den Boden der Tatsachen zurückgeholt hat. [...]

Foto: Akela999/Pixabay

Aufgrund der aktuellen Wirtschaftslage hinterfragen Unternehmen fast jeder Branche, welche Investitionen sinnvoll sind und getätigt werden sollten. Die Folgen für die Technologiebranche sind spürbar: VC-Finanzierungen gehen zurück, Digitalisierungsstrategien geraten ins Stocken und vielerorts verhindern neue Regularien und mangelnde Datenkompetenz ein erneutes Wachstum.  

Um datengesteuerten Unternehmen in dieser unsicheren Zeit den richtigen Weg zu weisen, hat Qlik fünf Schlüsseltrends skizziert, die für das Jahr 2023 besonders wichtig werden.

In unsicheren Zeiten ist es umso wichtiger, den Fokus auf jene Lösungen, Strukturen und Prozesse zu legen, die einen Weg aus der Krise aufzeigen. Bei so viel Innovationsdruck ist es schwierig, die adäquaten Maßnahmen zu identifizieren.

Eines steht jedoch fest: Die sich rasant verändernden Bedingungen erfordern schnelle und zielgerichtete Entscheidungsfindungsprozesse sowie die Integration von isolierten und distribuierten Datensätzen, um ein Gesamtbild aller Variablen in Echtzeit sehen zu können. Ohne dieses setzen Unternehmen ihren künftigen Erfolg aufs Spiel. 

Investitionen in abgeleitete und synthetische Daten

Wenn die letzten Jahre etwas verdeutlicht haben, dann ist es die Bedeutung der Risikovorhersage und des Risikomanagements. Vor COVID-19 standen beispielsweise nicht genügend reale Daten über Pandemien zur Verfügung, um sich auf eine solche Krise vorzubereiten.

Synthetische Daten, also Daten die künstlich generiert werden und nicht auf realen Messungen oder Datenerhebungen beruhen, schließen diese Lücke. Darüber hinaus können auf Grundlage von Modellen, die auf synthetischen Daten basieren, genauere Ergebnisse erzielt werden. Darauf deuten neue Forschungsergebnisse hin.

Zudem entfallen dadurch Bedenken in Bezug auf Datenschutz, Urheberrecht und Ethik, die mit realen Daten verbunden sind. Abgeleitete Daten ermöglichen es wiederum, Daten für verschiedene Zwecke zu verwenden und erlauben die Planung verschiedener Szenarien, die für die Vorbereitung auf zukünftige Probleme und Krisen erforderlich ist.

KI dringt tiefer in die Datenpipeline ein

Aktuell stellen viele Unternehmen Neueinstellungen zurück oder bauen gar Stellen ab. Ein Umstand, der die durch den Fachkräftemangel ohnehin angespannte Personaldecke weiter belastet. Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind in der Lage, aufwändige Vorgänge im Bereich der Datenaufbereitung zu automatisieren.

Indem KI tiefer in die Datenpipeline eingebracht wird, noch bevor eine Anwendung oder ein Dashboard erstellt wurde, lässt sich der Zeitaufwand für die Datenvorbereitung reduzieren und Ressourcen können in die Datenanalyse gesteckt werden.

Aktuell fallen weniger als 20 Prozent der Zeit auf ebendiese, während mehr als 80 Prozent für die Suche nach geeigneten Daten, deren Aufbereitung sowie deren Verwaltung aufgewendet werden.

Auf diese Weise könnten sich Datenfachkräfte darauf konzentrieren, gemeinsam durch ausführliche Analyse neue und wertvolle Erkenntnisse zu gewinnen und einen bedeutenden Mehrwert für ihr Unternehmen zu generieren. 

Natural Language Processing (NLP) macht dem Menschen Konkurrenz

Viele Unternehmen nutzen bereits seit einiger Zeit Sprach-KI in ihrer Grundform. So ist die Interaktion mit einem Chatbot im Kundenservice schon fast alltäglich. Schätzungen zufolge wird die Beliebtheit der Sprachbots in den kommenden Jahren um weitere 18 Prozent zunehmen.

Parallel befinden sich mehrere neue Technologie-Modelle in der Entwicklung, die wesentlich leistungsfähiger sind als alles, was aktuell auf dem Markt ist. Wohin die Entwicklung führt, lässt sich nur erahnen. Sicher ist jedoch, dass NLP enorme Auswirkungen auf die Art und Weise haben wird, wie Informationen abgefragt, interpretiert oder berichtet werden.

Durch NLP sind nicht nur solche Daten leichter auffindbar, nach denen aktiv gesucht wird, sondern es kommen auch Daten zum Vorschein, an die bei der Suche noch gar nicht gedacht wurde. 

Entschärfung von Lieferkettenunterbrechungen durch Echtzeitdaten 

Die Nachwirkungen von COVID-19 und die anhaltenden globalen Konflikte beeinträchtigen noch immer die Lieferketten. Wer in den letzten Jahren versucht hat, ein neues Auto oder einen Computer zu kaufen, weiß, wie schwerwiegend die Lieferketten beeinträchtigt wurden.

Es gibt keine Anzeichen dafür, dass sich die Lage in den nächsten Jahren entspannen wird. Somit bleibt auch die Notwendigkeit bestehen, schnell auf alle Eventualitäten reagieren oder diesen idealerweise vorausschauend entgegenwirken zu können. Potenzielle Störfaktoren müssen erkannt werden, bevor sie entstehen. Der Schlüssel hierzu ist die Möglichkeit, Daten in Echtzeit und im jeweiligen Kontext zu analysieren.

So ist es nicht verwunderlich, dass laut IDC bis 2027 sechzig Prozent der Ausgaben im Bereich Datenerfassung und -bewegung auf Lösungen fallen, die Simulationen, Optimierungen und Empfehlungen in Echtzeit ermöglichen. 

„X-Fabric“ verbindet Data Governance

Investitionen in Daten und Analysen haben sich aufgrund der Pandemie immens beschleunigt – ein Trend, der sich auch weiterhin fortsetzen wird. So planen laut einer aktuellen Studie rund 93 Prozent der befragten Unternehmen, ihre Ausgaben in diesen Bereichen weiter zu erhöhen. Sich schnell verändernde Regularien zum Datenschutz sowie zur Verteilung, Diversität und Dynamik von Daten bremsen Unternehmen dabei aus, den größtmöglichen Wettbewerbsvorteil aus den Daten zu generieren.

Besonders herausfordernd ist dies in einer fragmentierten Welt, in der Data Governance zunehmend komplexer wird. Um das volle Datenpotenzial ausschöpfen zu können, ist der verbesserte Zugriff auf Daten, deren Bewegung in Echtzeit sowie eine fortschrittliche Transformation zwischen Quellen und Systemen im gesamten Unternehmen von entscheidender Bedeutung. 

Aus diesem Grund setzen immer mehr Unternehmen auf eine „X-Fabric“. Dabei handelt es sich um eine Datenstruktur, die neben verteilten Daten auch Applikationen, BI-Dashboards und Algorithmen durch Kataloge und Cloud-Datenintegrationslösungen verknüpft. Dies ist eine entscheidende Komponente in der modernen verteilten Umgebung für jedes Unternehmen, das mit Gewissheit handeln und dem Prinzip einer Connected Governance folgen möchte.

Derzeit sind diese Methoden jedoch noch weniger ausgereift als eine Methodik, die nur verteilte Datensätze durch semantische Modelle miteinander verbindet.

Fazit

Die gute Nachricht ist, dass wir infolge der letzten Jahre besser als je zuvor darauf vorbereitet sind, mit aufkommenden Widrigkeiten umzugehen.

Daten- und Analyseexperten müssen sich auf eine stärkere Fragmentierung durch disparate Datenzentren, unterbrochene Lieferketten, einen ständigen Innovationsbedarf und erschwerten Zugang zu qualifizierten Arbeitskräften einstellen.

Um im richtigen Moment reagieren und alle Eventualitäten antizipieren zu können, wird diese Fähigkeit in einer krisengebeutelten Welt zur Kernkompetenz.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*