In einer disruptiven Welt spielen Daten die Hauptrolle: Diese vier Trends treiben 2023 Effizienzsteigerungen und Neuerungen voran

In allen Branchen sind Veränderungen und Umwälzungen zur neuen „Norm“ geworden, und auf dem Weg ins Jahr 2023 haben sich dadurch vier neue datengesteuerte Technologien durchgesetzt, sagt Thomas Kunnumpurath, Vice President, Systems Engineering bei Solace. [...]

Thomas Kunnumpurath, Vice President Systems Engineering bei Solace (Quelle: Solace)

Vom Einsatz von Hyperautomatisierung und Applied Observability bis zur ereignisgesteuerten API-Wirtschaft werden diese Technologien jedes Unternehmen in die Lage versetzen, Veränderungen zu bewältigen und Daten besser zu nutzen, die Effizienz zu steigern und das Kundenerlebnis zu verbessern.

1. Einsatz, der sich auszahlt: Intelligente Automatisierung und Hyperautomatisierung bringen Unternehmen auf Erfolgskurs

Gartner und IDC nennen in ihren jährlichen Technologietrends für 2023 sowohl die Hyperautomatisierung als auch die intelligente Automatisierung. Hyperautomatisierung hebt die Automatisierung auf eine höhere Stufe, indem mehr Intelligenz zur Automatisierung genutzt und ein breiterer Satz von Tools verwendet wird, so dass auch zuvor nicht automatisierbare Aufgaben automatisiert werden können.

Hyperautomatisierungsprojekte gibt es in vielen verschiedenen Formen und in einer Vielzahl von Branchen, von Banken und Versicherungen bis zu Fertigungsunternehmen und dem Gesundheitswesen.

Gartner beschreibt das US-Gesundheitsunternehmen CVS Health als Paradebeispiel, das die Hyperautomatisierung zur Vereinfachung seiner schwerfälligen Leistungsverwaltungsprozesse genutzt hat, um Effizienz, Genauigkeit und Kundenservice zu verbessern. Es wurde ein neues System entwickelt, um die Aufgaben vom Antragseingang über die Zahlungen bis zur Problemlösung zu rationalisieren.

Zuvor handelte es sich dabei um funktionsübergreifende, weitgehend manuelle und zeitaufwendige Aufgaben, bei denen Daten in einer Vielzahl von Formaten analysiert und mit komplexen Kodierungsregeln abgeglichen werden mussten. Mit einer Kombination aus KI, RPA, maschinellem Lernen, Datenanalysen und Natural-Language-Prozessen (NLP) konnte das Unternehmen einen Großteil dieser Arbeit automatisieren.

Da die Konsumenten von Waren und Dienstleistungen immer schnelleren und besseren Kundenservice verlangen, müssen Unternehmen die Entwicklungszyklen verkürzen und Möglichkeiten zur Kostenreduzierung finden, um ihren Vorsprung zu wahren. Die Beseitigung von Reibungsverlusten, die Implementierungsteams ausbremsen, ist der Schlüssel zum Erfolg bei den Endkunden. 

Verschaffen Sie der Automatisierung den bestmöglichen Start: EDA hilft dabei

Um den Erfolg der Hyperautomatisierung zu maximieren, muss ein Unternehmen jedoch durch eine ereignisgesteuerte Architektur (EDA) – und vor allem durch ein Event Mesh – unterstützt werden. Ein Event Mesh ist ein verbundenes Netzwerk von Event Brokern, das es ermöglicht, Daten in Echtzeit an die Stellen im Unternehmen zu verteilen, an denen sie benötigt werden.

Das geschieht dynamisch, d.h. neue Ereignistypen können jederzeit hinzugefügt werden, und das Interesse an Ereignissen kann registriert werden, sodass ein nahtloser Austausch von Daten für die Anwendungen möglich ist, die sie nutzen möchten.

Nehmen Sie beispielsweise die Luftfahrtbranche. Ein Event Mesh streamt Informationen wie Flugrouten, Verspätungen, Annullierungen und gesammelte Flugmeilen sofort zwischen Anwendungen, angeschlossenen Geräten und Menschen überall auf der Welt. Mit einem Event Mesh können Informationen über Ereignisse kontinuierlich an mehrere Systeme weitergeleitet und gefiltert werden, sodass jedes System nur die Daten erhält, die es benötigt.

Das verbessert das Kundenerlebnis, da Passagiere, Piloten und Besatzungen in Echtzeit benachrichtigt werden, wenn bei ihrem Flug etwas Relevantes passiert.

Oder nehmen Sie zum Beispiel den Flughafen Heathrow. Nach der Verkleinerung seiner IT-Abteilung während der Pandemie musste er seine Abhängigkeit von der IT-Abteilung bei der Bereitstellung von Lösungen verringern. Die Antwort bestand darin, die Abteilung in die Rolle eines Koordinators zu versetzen und eine Low-Code/No-Code-Community aufzubauen, die es den Mitarbeitern im gesamten Unternehmen ermöglichte, ihre Automatisierung für Gesundheits- und Sicherheitsanwendungen selbst zu entwickeln, um die sichere Rückkehr an den Arbeitsplatz oder Live-Audits zu unterstützen.

Im August letzten Jahres konnte Heathrow durch die Hyperautomatisierung enorme Einsparungen bei potenziellen Outsourcing-Kosten erzielen, den Papierkram um 120.000 Seiten reduzieren und die manuellen Dateneingaben um mehr als 1.170 Stunden verringern.

2. Drehen Sie jeden Stein um: Applied Observability zeigt Ihnen mehr Details als je zuvor

Observability ist erwachsen geworden. Aus ihrem Anfangsstadium als reiner Technikbegriff hat sie sich zu einem Schlüsselelement entwickelt, mit dem Unternehmen wichtige Datenereignisse in einer zunehmend entkoppelten Geschäftswelt verfolgen, die von der Systemarchitektur bis zu den von ihr unterstützten Geschäftsabläufen reicht.

Die nächste Stufe ist nun die „Applied Observability“, die Gartner auf seinem letzten Orlando-Symposium als einen der wichtigsten strategischen Technologietrends für 2023 bezeichnet hat.

Applied Observability ermöglicht es Unternehmen, ihre Datenobjekte als Wettbewerbsvorteil zu nutzen. Das bedeutet, dass sie in der Lage sind, die richtigen Daten zur richtigen Zeit zu liefern, um schnell handeln zu können, und zwar auf der Grundlage von bestätigten Aktionen der Beteiligten und nicht von Absichten. Zu den „beobachtbaren“ Daten gehören wichtige digitalisierte Objekte wie Protokolle, Traces, API-Aufrufe, Verweildauer, Downloads und Dateiübertragungen, die auftreten, wenn ein Stakeholder irgendeine Art von Aktion durchführt.

Die angewandte Observability meldet diese beobachtbaren Artefakte in einem hochgradig orchestrierten und integrierten Ansatz zurück, um die Entscheidungsfindung im Unternehmen zu beschleunigen, und ermöglicht es den Verantwortlichen, an jedem Punkt des Workflows nachzuvollziehen, wie lange die vollständige Verarbeitung einer Aktion gedauert hat.

Durch diesen Einblick in die End-to-End-Workflows erhalten Unternehmen einen besseren Überblick darüber, wie lange ihre Systeme für die Verarbeitung eines Ablaufs benötigt haben, und sie erhalten in Echtzeit Einblicke in Engpässe oder verbesserungswürdige Bereiche, um sicherzustellen, dass ihre Systeme optimal funktionieren.

EDA bringt die Observability einen entscheidenden Schritt voran

Um diese Erkenntnisse zu gewinnen, ist jedoch eine ereignisgesteuerte Softwarearchitektur erforderlich. Distributed Tracing ist eine Methode zur Verfolgung von Anwendungsanfragen, während sie von Frontend-Geräten zu Backend-Diensten und Datenbanken fließen. Per Definition kann Distributed Tracing – im Gegensatz zum traditionellen Tracing – visualisiert werden, um in einem durchsuchbaren, grafischen Bild zu zeigen, wann, wo und wie ein einzelnes Ereignis durch ein Unternehmen geflossen ist, und das unabhängig von der Anzahl der Schritte, die der Workflow zur vollständigen Verarbeitung benötigt hat.

Bedenken Sie die potenziellen Vorteile dieser Rückverfolgbarkeit und der durchgängigen Beobachtbarkeit in einem Zahlungsökosystem, das auf einer ereignisgesteuerten Architektur basiert. Durch die Einbettung des Distributed Tracings in ein Event Mesh werden Rückverfolgungsereignisse im OpenTelemetry-Format ausgegeben, so dass die Banken sie in jedem kompatiblen Tool erfassen, visualisieren und analysieren können.

So können sie nicht nur bestätigen, dass eine bestimmte Nachricht veröffentlicht wurde, sondern auch genau nachvollziehen, wann und von wem sie gesendet wurde, wohin sie ging, bis hin zu einzelnen Zwischenstationen, wer sie wann erhalten hat … oder warum nicht.

Wenn sie strategisch geplant und erfolgreich ausgeführt wird, ist Applied Observability die wohl leistungsfähigste Quelle für datengestützte Entscheidungsfindung. Und da OpenTelemetry ein klar definierter offener Standard ist, kann sie sowohl in synchronen als auch in asynchronen Arbeitsabläufen eingesetzt werden.

3. Das Metaverse wird die Grenzen zwischen physisch und digital weiter verwischen

Wenn man die generellen Trends betrachtet, kommt man an der zunehmenden Popularität des Metaverse nicht vorbei. Es liegt auf der Hand, dass es das Potenzial hat, alles neu zu gestalten – von den Verbrauchergewohnheiten über öffentliche Dienstleistungen bis zu Gesundheit, Wohlfahrt und Bildung – in einem entstehenden digitalen Universum, in dem Anbieter, Kreative und Verbraucher ein paralleles Leben zu ihrer realen Existenz führen können.

Angetrieben von Technologien wie digitalen Zwillingen, Augmented Reality und Virtual Reality wird das Metaverse nach Schätzungen von McKinsey bis 2030 einen Wert von fünf Billionen Dollar haben.

Das Metaverse hilft Unternehmen, wie nie zuvor in Echtzeit zu operieren

Echtzeitdaten werden der entscheidende gemeinsame Nenner sein, um die Kluft zwischen der digitalen und der physischen Welt zu überbrücken und das Metaverse zu optimieren. McKinsey nennt Echtzeitdaten als wesentlichen Faktor, um die Einführung des Metaverse in mehreren Schlüsselindustrien zu erleichtern.

Dazu gehören: Der Einzelhandel – zur Verbesserung des Einkaufs-, Laden- und Produkterlebnisses, Effizienzsteigerung und Erschließung neuer Einnahmequellen. Banken und Finanzdienstleistungen – zur Unterstützung dezentraler Finanzstrukturen. Das Transportwesen – zur zentralen Koordinierung und zum zentralen Projektmanagement (z. B. über IoT/Digitale Zwillinge), insbesondere in der Logistik, mit Echtzeit-Datenerfassung zur Optimierung. Und das Gesundheitswesen – für vollständig personalisierte Gesundheitskonsultationen mit Zugang zu Echtzeitdaten.

Das Metaverse kann per Definition nicht statisch sein. Es muss in Echtzeit in Bewegung sein. Es braucht eine ereignisgesteuerte Architektur und ein Echtzeit-Event-Mesh, die es unterstützen.

Wenn beispielsweise ein Avatar einen Einzelhändler im Metaverse besucht, muss der Händler unzählige Benutzeraktionen verfolgen – wie lange sich jemand ein Produkt ansieht, welche Produkte das größte Interesse finden usw. Das Metaverse wird eine beträchtliche Menge an Daten produzieren, die die Unternehmen in Echtzeit analysieren wollen.

Diese Daten können genutzt werden, um Entscheidungen zu treffen, die von Echtzeitanpassungen des Lagerbestands bis zu Anreizen durch Echtzeitangebote/Rabatte/Coupons und zur dynamischen Preisgestaltung für Produkte reichen.

4. Die Beschleunigung der ereignisgesteuerten API-Wirtschaft

Die API-Wirtschaft hat mit der Verbreitung von Webanwendungen und dem Aufschwung digitaler Unternehmen, die Anwendungen und Vermögenswerte mithilfe vertrauter Architekturmuster und Protokolle wie HTTP/Representational State Transfer (REST) offenlegen und verbinden müssen, explosionsartig zugenommen.

Untersuchungen der MIT Initiative on the Digital Economy haben gezeigt, dass über einen Zeitraum von vier Jahren die Marktkapitalisierung von Unternehmen, die APIs nutzen, um 12,7 % höher war als die von Unternehmen, die keine APIs einsetzen.

Doch die API-Wirtschaft verändert sich. Ereignisgesteuerte Architekturen und asynchrone ereignisgesteuerte APIs werden für Unternehmen, die ihre Geschäftsprozesse, Kundeninteraktionen und Lieferketten in Echtzeit abwickeln möchten, immer wichtiger. Die Verwendung sowohl synchroner als auch asynchroner Methoden kann zu einer Anwendungsumgebung führen, in der die Systemressourcen am effektivsten genutzt werden.

Die Grenzen zwischen synchron und asynchron verwischen – und schaffen eine einzige Anlaufstelle

AsyncAPI und RESTful APIs sind die nächste Entwicklung in der API-Wirtschaft, und API-Management-Plattformen werden sich schnell an diese neue Realität anpassen müssen. Als Paradebeispiel hat Forrester kürzlich ein globales Biotech-Unternehmen vorgestellt, das im API-gesteuerten Bereich bahnbrechend ist.

Wie die Fallstudie zeigt, hat das Unternehmen verstanden, dass EDA eine Ergänzung zu RESTful-APIs ist – und damit ein weiteres Werkzeug in seinem digitalen Werkzeugkasten, das die Lücken eines reinen REST-Ansatzes füllt.

Daher wurde von Anfang an ein kombinierter Event- und REST-Ansatz geplant. Sowohl APIs als auch Events werden als digitale Produkte verwaltet, wobei die Verwaltung und der Lebenszyklus von beiden zu einem Prozess zusammengefasst wurden. Ein Plattformteam baut eine einheitliche API- und Ereignisplattform für die App-Entwicklungsteams auf, anstatt jede Plattform als separates Silo zu entwickeln.

Das Ergebnis sind eine schnellere Markteinführung und neue Geschäftsmöglichkeiten. Das Unternehmen setzt auch auf die FAIR-Datenprinzipien: Daten, die auffindbar, zugänglich, interoperabel und wiederverwendbar sind. Ein digitaler Marktplatz, der sowohl Ereignisse als auch APIs umfasst, macht die Daten über Open API Specification (OAS) und AsyncAPI-Metadaten auffindbar und maschinenlesbar. Auf die Daten kann dann bei Bedarf über APIs zugegriffen werden, und Ereignisse liefern Daten in Echtzeit.

An diesem Beispiel wird deutlich, dass moderne Unternehmen realistischerweise eine „One-Stop-Shop“-Plattform benötigen, die ihren individuellen Strategien zur Anwendungsintegration am besten gerecht wird – eine Plattform, die eine einheitliche Verwaltung für den Zugriff, die Wiederverwendung und die Offenlegung sowohl asynchroner ereignisgesteuerter als auch synchroner RESTful-APIs bietet.

2023 – das Jahr, in dem datengetriebene Technologie den Wandel vorantreibt und die Effizienz steigert

Zusammen können die vier genannten Trends  die Art und Weise verändern, wie Unternehmen arbeiten, kommunizieren und wichtige Entscheidungen treffen. Der gemeinsame Nenner dieser Trends ist die Notwendigkeit einer 360°-Sicht auf die Datenbewegungen, unabhängig von der Zeit. Alle Wege führen zu einer ereignisgesteuerten Architektur. Sie wird Unternehmen helfen, den Fluss von Ereignissen im gesamten Unternehmen zu steuern.

*Thomas Kunnumpurath ist Vice President Systems Engineering bei Solace


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*