„Die Fähigkeit, Daten in Echtzeit zu analysieren, ist entscheidend“

Daten sind der Schlüssel zum Erfolg in der heutigen Geschäftswelt. Aber wie können Unternehmen das volle Potenzial ihrer Daten ausschöpfen? Jörg Tewes, CEO von Exasol, einem Anbieter von High-Performance Analytics-Datenbanken, gibt im Interview mit IT WELT.at einen Ein- und Ausblick. [...]

Jörg Tewes ist CEO von Exasol, einem Anbieter von High-Performance Analytics-Datenbanken. (c) Exasol
Jörg Tewes ist CEO von Exasol, einem Anbieter von High-Performance Analytics-Datenbanken. (c) Exasol

Wie sehen Sie die aktuelle Herausforderung, dass herkömmliche Data Analytics Lösungen und Legacy-Systeme mit der kontinuierlich steigenden weltweiten Datenmenge an ihre Grenzen geraten?

Sich an die Spitze stellen oder sang- und klanglos untergehen – darüber entscheidet heute auch die Fähigkeit, Daten effizient und schnell für sich zu nutzen. Und zwar nicht nur punktuell, sondern in allen Unternehmensbereichen. Die Entscheider in den Unternehmen sind hier in der Zwickmühle: Sie stehen vor dem Dilemma, dass sie in Sachen Datenanalysen häufig Kompromisse eingehen müssen – entweder bezüglich der Effizienz, der Performance der Lösung oder der Kosten. Denn herkömmliche Data Analytics Lösungen und die bestehenden Legacy-Systeme sind oft für kleinere und strukturierte Datenmengen konzipiert und daher häufig nicht in der Lage, immer weiter ansteigende und komplexer werdende Datenmengen schnell und wirksam zu verarbeiten. Diese Herausforderung können Unternehmen nur mit innovativen Ansätzen und Technologien meistern. Die Integration von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) ist unverzichtbar geworden, um aus den großen Datenmengen wertvolle Erkenntnisse in Echtzeit zu gewinnen und so schnelle datenbasierte Entscheidungen zu treffen. Hier braucht es skalierbare Lösungen, die flexibel mit den Anforderungen mitwachsen und es Unternehmen ermöglichen, Daten in großem Umfang und mit hoher Geschwindigkeit zu analysieren, ohne dabei das Budget oder die Produktivität zu beeinträchtigen.

Welche spezifischen Probleme und Einschränkungen treten auf, wenn es darum geht, herkömmliche Data Warehouses mit der steigenden Nutzung und den zeitkritischen Analyseaufgaben in Einklang zu bringen?

Die zunehmende Nutzung von Daten bedeutet häufig, dass Unternehmen Daten aus verschiedenen Quellen und in unterschiedlichen Formaten erfassen und verarbeiten müssen. Herkömmliche Data Warehouses sind nicht in der Lage, diese Datenvielfalt effizient zu integrieren und zu verarbeiten. Dies kann zu Datenqualitätsproblemen und Schwierigkeiten bei der Analyse führen. Data Warehouses erfüllen zudem oft nicht die Geschwindigkeitsanforderungen, da sie auf eine Batch-orientierte Verarbeitung ausgelegt sind. Dies führt zu Verzögerungen bei der Datenverarbeitung und -analyse, was sich wiederum auf die Qualität der Entscheidungsfindung auswirkt. Insgesamt erfordert die Anpassung herkömmlicher Data Warehouses an die steigende Nutzung und zeitkritische Analyseaufgaben sorgfältige Planung und Investitionen, um die Leistungsfähigkeit und Skalierbarkeit zu gewährleisten und den ständig wachsenden Datenanforderungen gerecht zu werden.

Welche Trends und Entwicklungen erwarten Sie in den kommenden Jahren im Bereich Data Science und Machine Learning, und wie könnten diese die Arbeitsweise von Unternehmen beeinflussen?

Die verstärkte Integration von KI- und ML-Technologien in die Geschäftsprozesse wird dazu führen, dass immer mehr Unternehmen datengetriebene Entscheidungen in Echtzeit treffen können. Dies wird die Effizienz steigern und die Produktivität verbessern, da fundierte Entscheidungen auf der Grundlage einer breiteren und tieferen Datenbasis getroffen werden. So hilft unsere neueste Entwicklung „Exasol Espresso“ Unternehmen mittels KI, mehr Datenquellen zusammenzuführen, zu integrieren und zu nutzen, um Kunden noch schneller bedienen und bessere Vorhersagen treffen zu können – und das durch viele Nutzer gleichzeitig, was die Datendemokratisierung entscheidend vorantreibt. Diese Entwicklung bedarf auch des Aufbaus einer umfassenden Datenkultur im Unternehmen, die dafür sorgt, dass alle Mitarbeitenden die Chancen und Möglichkeiten der Datennutzung sehen, hier selbst aktiv werden und den neuen Technologien offen gegenüberstehen. Gleichzeitig müssen Datenschutz und Ethik bei der Nutzung von Daten eine zentrale Rolle spielen, um das Vertrauen der Kunden zu erhalten und regulatorische Anforderungen zu erfüllen.

Wie wichtig sind Echtzeitanalysen und Ad-hoc-Analysen angesichts der zunehmend dynamischen Geschäftsanforderungen?

Der Einsatz von Echtzeit- und Ad-hoc-Analysen gewinnt zunehmend an Bedeutung. Denn Unternehmen, die ihre Daten schnell und effizient nutzen, haben einen klaren Wettbewerbsvorteil. Lösungen, die beispielsweise hochperformante In-Memory-Analysedatenbanken bieten, ermöglichen es Unternehmen, große Datenmengen mit hoher Geschwindigkeit zu analysieren, ohne dabei ihr Budget oder ihre Produktivität zu beeinträchtigen. Die Fähigkeit, Daten in Echtzeit zu analysieren, ist entscheidend, um fundierte Entscheidungen zu treffen, präzise Geschäftsprognosen zu erstellen und die Customer Journey zu optimieren. Dies ist besonders entscheidend in Branchen, in denen schnelle Entscheidungen getroffen werden müssen, wie z. B. im E-Commerce oder im Finanzsektor.

Schnelle Entscheidungen können jedoch auch Konsequenzen haben, die sorgfältig berücksichtigt werden müssen. Im E-Commerce könnte eine falsche Lagerbestandsprognose zu Überbeständen oder Engpässen führen, etwa in besonders verkaufsstarken Phasen. Im Finanzsektor hingegen können ungenaue Analysen falsche Investitionsentscheidungen nach sich ziehen. In Anwendungsfällen wie dem autonomen Fahren ist die Schnelligkeit und Genauigkeit der Analysen noch entscheidender, denn hier hängt die Sicherheit der Fahrerinnen und Fahrer davon ab. Ad-hoc-Analysen ermöglichen es Unternehmen außerdem, schnell auf unerwartete Herausforderungen und Chancen zu reagieren. Aber auch die immer strenger werdenden Nachweispflichten in Sachen Nachhaltigkeit verlangen belastbare datenbasierte Nachweise. Unternehmen sollten sich jetzt darauf vorbereiten, hier gut aufgestellt zu sein, um den Anforderungen vonseiten des Gesetzgebers, aber auch der Kunden gewachsen zu sein.

Wie können solche Echtzeitanalysen Unternehmen dabei unterstützen, wettbewerbsfähig zu bleiben und sich flexibel an veränderte Rahmenbedingungen anzupassen?

Gerade in Europa, wo der Mangel an IT-Fachkräften weit verbreitet ist und Digitalisierungsinitiativen durch fehlende Ressourcen gebremst werden, kann die verstärkte Nutzung von Datenerkenntnissen dabei helfen, wettbewerbsfähig zu bleiben. Auf Knopfdruck und quasi in Echtzeit auf Datenerkenntnisse zugreifen und daraus entsprechende Maßnahmen ableiten zu können, bringt Unternehmen einen entscheidenden Vorteil, etwa beim Kundenservice oder individualisierten Sales-Aktionen. Darüber hinaus können Risiken für die IT-Sicherheit, Lieferkettenunterbrechungen oder disruptive Marktveränderungen identifiziert werden. Durch die Auswertung von Betriebsdaten ergeben sich auch in der Produktion und der Logistik vielversprechende Möglichkeiten, um Geld, Zeit und Ressourcen effizienter einzusetzen. Aber auch der Blick auf zukünftige Risiken ist hier entscheidend: Der Bereich vorausschauende Wartung (Predictive Maintenance) birgt massives Einsparpotenzial, da ein Stillstand von Maschinen immer bares Geld kostet. Ein weiteres Beispiel ist der Gesundheitsbereich: Hier ist es unabdingbar für die Patientensicherheit, dass die Maschinen absolut zuverlässig laufen und potenzielle Ausfälle oder Probleme frühzeitig erkannt und behoben werden. Die Nachfrage nach Lösungen, die ohne lange Implementierungszeiten und intensiven IT-Support funktionieren, ist dabei hoch.

Worauf sollten Unternehmen bei der Zusammenarbeit mit Tech-Stack-Anbietern achten und wie kann es Unternehmen gelingen, ihre Tech-Stacks im Zeitalter von KI zukunftssicher zu machen?

Um Tech-Stacks zukunftssicher zu machen, sollten Unternehmen darauf achten, dass die ausgewählten Technologien skalierbar und flexibel sind. Eine skalierbare Technologieinfrastruktur stellt sicher, dass die Systeme eines Unternehmens bei Expansion oder steigendem Datenverkehr höhere Arbeitslasten effizient und ohne nennenswerte Leistungseinbußen bewältigen können und bildet damit die Grundlage für nachhaltiges Wachstum und Wettbewerbsfähigkeit in einer sich rasch wandelnden Technologielandschaft. Ein prägnantes Beispiel für die Relevanz von skalierbaren Technologien zeigt sich insbesondere während Ereignissen wie dem Black Friday. In dieser Zeit erleben Unternehmen im E-Commerce einen explosionsartigen Anstieg des Online-Verkehrs und der Transaktionen. Eine nicht ausreichend skalierbare Technologie könnte zu einem Ausfall der Website, langen Ladezeiten oder sogar zum Verlust von Kunden führen. Im Gegensatz dazu ermöglicht eine gut durchdachte und skalierbare Tech-Infrastruktur, dass die Online-Plattform reibungslos den enormen Ansturm bewältigen kann und schnell und flexibel auf die Anforderungen der Kunden reagiert.

Im Zeitalter der KI und des stetigen technologischen Fortschritts ist es entscheidend, dass der Tech-Stack mit den sich ändernden Anforderungen mitwachsen kann und bei der Implementierung neuer Technologien nicht komplett ausgetauscht werden muss. Der „BI Accelerator“ fungiert als Schnittstelle zwischen dem bestehenden Tech-Stack und den modernen Technologien, beschleunigt Datenanalysen, verbessert die Skalierbarkeit und erhöht die Effizienz, ohne dabei die bewährte Infrastruktur aufgeben zu müssen. Dies spart nicht nur Zeit und Ressourcen, sondern ermöglicht es auch, flexibel auf sich ändernde Anforderungen einzugehen und Wettbewerbsvorteile durch eine agilere Technologieintegration zu realisieren. Zudem ist die IT-Sicherheit ein nicht zu vernachlässigender Faktor. Unternehmen müssen sicherstellen, dass ihr Tech-Stack robuste Sicherheitsmaßnahmen enthält, um sich vor Datenverlusten und Cyberangriffen zu schützen. Eine regelmäßige Überprüfung und Aktualisierung des Tech-Stacks ist daher unerlässlich. Dies gilt besonders in sensiblen Bereich des Gesundheitswesens.

Welche Faktoren sollten Unternehmen beachten, um versteckte Kostenfallen bei der Migration in die Cloud zu vermeiden und wie können diese vermieden oder minimiert werden?

Unternehmen sollten zunächst eine umfassende Analyse ihrer bestehenden IT-Infrastruktur durchführen, um genau zu verstehen, welche Workloads in die Cloud migriert werden sollten und welche nicht. Eine unüberlegte Migration kann zu ungeplanten Kosten führen – in wirtschaftlich ohnehin unsicheren Zeiten kann das im Ernstfall existenzbedrohend sein. Zweitens sollten Unternehmen ihre Cloud-Ausgaben aktiv überwachen und verfolgen, um unerwartete Kostensteigerungen frühzeitig zu erkennen – dafür sollten sich auch die Budgetverantwortlichen, sprich die CFOs, gut mit der Materie auskennen. Unternehmen sollten genau abwägen, welche Daten und Workloads in die Cloud verschoben werden und welche besser lokal gehalten werden sollten. Eine durchdachte hybride Cloud-Strategie ermöglicht es Unternehmen, die Vorteile der Cloud zu nutzen, ohne dabei auf die Kontrolle über kritische Daten oder Compliance-Anforderungen zu verzichten. Schließlich ist eine langfristige Planung und Budgetierung für die Cloud ratsam. Unternehmen sollten ihre zukünftigen Anforderungen und Wachstumsprognosen berücksichtigen, um eine Unter- oder Überdimensionierung zu vermeiden, die zu unnötigen Kosten führen könnte.

Wie können Unternehmen Vendor Lock-in und ungeplante Kostenexplosionen vermeiden?

Grundsätzlich sollten Unternehmen auf Kostentransparenz bei ihren Anbietern und Partnern achten. Versteckte Kostenfallen und das „Kleingedruckte“ in Verträgen können Unternehmen in ernste finanzielle Schieflagen bringen. Auch durch „Cloud-only“-Lösungen kann ein Vendor Lock-in entstehen, da häufig alle im Unternehmen vorhandenen Daten in der Cloud eines Anbieters liegen. Data Analytics Lösungen, die Daten verarbeiten können, egal ob sie sich in der Cloud oder On-Premises befinden, ermöglichen Unternehmen hier die nötige Flexibilität. Um darüber hinaus unabhängig zu bleiben, sollten Unternehmen darauf achten, dass sich neue Lösungen, beispielsweise im Bereich Data Analytics und/oder KI, in bestehende Tech-Stacks einfügen lassen, unabhängig davon, um welchen Anbieter es sich handelt. Muss die gesamte Infrastruktur bei einer Erweiterung der Anwendungen ausgetauscht werden (Rip-and-Replace), können die Kosten schnell in die Höhe schnellen.

Ist Cloud only langfristig die richtige Lösung oder sollten Unternehmen hier auch andere Wege gehen?

Die Frage, ob Cloud-only langfristig die richtige Lösung ist, ist komplex und hängt von verschiedenen Faktoren ab. Cloud-only bietet zweifellos viele Vorteile, darunter Skalierbarkeit, Flexibilität und Kosteneffizienz. Unternehmen können Ressourcen nach Bedarf nutzen, ohne in teure Hardware oder Wartung investieren zu müssen. Diese Faktoren machen es zu einer attraktiven Option, insbesondere für Start-ups und kleinere Unternehmen, die schnell wachsen wollen. Unternehmen sollten jedoch auch andere Möglichkeiten in Betracht ziehen. Je nach Branche und spezifischen Anforderungen können Herausforderungen oder gesetzliche Vorgaben bezüglich Datenschutz und Compliance auftreten, etwa in den Bereichen Finance, Healthcare oder dem Public Sektor. Darüber hinaus sind Unternehmen, die sich ausschließlich auf die Cloud verlassen, möglicherweise anfälliger für Ausfälle oder Sicherheitsrisiken, die wiederum von ihrem Cloud-Anbieter abhängen. Es ist daher ratsam, eine hybride Strategie zu verfolgen, die sowohl Cloud-Ressourcen als auch lokale Ressourcen umfasst. Auf diese Weise können Unternehmen ihre IT-Infrastruktur flexibel an ihre spezifischen Bedürfnisse anpassen und gleichzeitig Risiken minimieren.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*