In-Memory-Welle nicht mehr aufzuhalten

Über kurz oder lang werden In- bzw. Big-Memory-Systeme herkömmliche Datenbanken komplett ablösen, ist Erwin Greiml, neuer Chef der Software AG Österreich, überzeugt. Zu groß sind die potenziellen Geschwindigkeits- und Effizienzvorteile. [...]

Seit Anfang dieses Jahres ist Erwin Greiml offiziell Österreich-Geschäftsführer der Software AG und folgt damit Walter Weihs nach, der sich nach 13 Jahren an der Spitze der Software AG in den Ruhestand verabschiedet. Im Gespräch mit der COMPUTERWELT erklärt Greiml welchen Mehrwert die Automatisierung von Businessprozessen bringt, und warum herkömmliche Datenbanken die Big-Data-Welle nicht überleben werden.

Computerwelt: Was sind für die Software AG derzeit die heißen IT-Themen?
Erwin Greiml:
Cloud, Social Media, Big Data und Business Process Excellence.

Nehmen wir gleich das populärste Stichwort: Cloud. Welche Rolle spielt die Cloud für die Software AG und umgekehrt?
Wir sind kein klassischer Anbieter von Cloud-Services, sondern ein Cloud-Enabler und unterstützen bei der Orchestrierung von Services aus verschiedenen Clouds. Nehmen wir zum Beispiel Open Air und Salesforce.com: Das sind zwei Cloud-Produkte und wenn es den Bedarf gibt, diese beiden Clouds miteinander zu integrieren, dann wollen wir mit unserer Middleware Webmethods ein Produkt bieten, das das kann. Zu diesem Zweck machen wir Webmethods gerade fit für Cloud-Integrationsprojekte.

Mit Prozessen, die Services verschiedener Clouds beinhalten, gewinnt auch das Thema Business Process Excellence an Bedeutung. Welchen Mehrwert liefert die Software AG dabei?
Der größte Mehrwert ist die Automatisierung von Businessprozessen. Wie Henry Ford schon gesagt hat: Wenn man automatisiert und seine Prozesse gut im Griff hat, dann kann man besser produzieren. Es geht darum, von der Entstehung bis zur Umsetzung die Prozessgeschichte genau zu dokumentieren und daraus einen langfristigen Business-Mehrwert zu generieren, weil damit auch künftige Änderungen einfacher werden und man nicht den Faden zu den eigenen Prozessen verliert.

Wie sieht die Realität aus? Haben Ihre Kunden ihre Businessprozesse im Griff?
Eine große Herausforderung in der Praxis ist, dass von Fachabteilungen entworfene Prozesse einer gewissen Dynamik unterliegen. Normalerweise läuft es so: Eine Fachabteilung baut einen Prozess, dokumentiert ihn und übergibt dieses Dokument an die IT, die was daraus machen soll. Die IT kann aber nicht immer zu hundert Prozent mit den Anforderungen, die da drinnen stehen, etwas anfangen, weil viel Interpretationsspielraum existiert. Dadurch entsteht die Situation, dass gewisse Prozesse, die von den Fachabteilungen designed wurden, in der IT so nicht gelebt werden können. Daraufhin wird Rücksprache gehalten, der Prozess wird verändert, aber die Dokumentation, die in Word, Excel, Aris oder welchem Tool auch immer, gezeichnet wurde, wird nicht mehr verändert. Das Prozessmodell weicht damit immer mehr von dem implementierten Prozess ab. Schaut man sich dann zwei Jahre später den entworfenen Prozess und den tatsächlich implementierten an, dann ist das nicht mehr der gleiche Prozess.
Das wird dann mit der Zeit immer schlimmer: Wenn sich ein Prozess maßgeblich verändert, weil sich beispielsweise das Geschäftsmodell ändert, dann schauen die Fachabteilungen nicht auf das implementierte Prozessmodell, sondern auf das, das sie damals niedergeschrieben haben. Basierend darauf kommen sie dann mit Änderungswünschen zur IT und die sagt: Geht nicht, weil unser Prozess in Wahrheit ganz anders ausschaut.

Wie adressiert die Software AG dieses Problem?
Mit der Übernahme von IDS Scheer haben wir nicht nur das Produkt Aris gekauft, mit dem man Prozesse zeichnen kann, sondern auch die Klammer zwischen den beiden Produktschienen Aris und Webmethods geschaffen. Das nennt sich Model to Execute und bedeutet, dass die in Aris gezeichneten Modelle automatisiert übernommen werden. Wenn die IT nun eine Änderung durchführt, dann geht das nicht mehr ohne Zustimmung der Fachabteilung. Es gibt einen Freigabeprozess zum Prozess und damit weichen die tatsächlich implementierten Prozesse nicht mehr so stark von den dokumentierten ab. An diesem Punkt stehen wir beim Thema Business Process Excellence heute.

Einer der zu Beginn genannten Trends ist Big Data. Viel Lärm um nichts oder ein Gamechanger?
Big Data ist ein großer Wachstumsmarkt, nicht nur für uns. Wir haben in diesem Bereich mit der Übernahme von Terracotta eine In-Memory-Lösung zugekauft, die derzeit bis zu vier Terabyte Daten im Hauptspeicher adressieren kann. Nimmt man nur strukturierte Daten her, dann liegen sogar die meisten Banken unter dieser Menge. Diese Daten kann man nun alle im Hauptspeicher vorhalten und mit einem Geschwindigkeitsvorteil von Eins zu Tausend auswerten. Das hat massive Auswirkungen auf das Business.

Haben Sie ein konkretes Beispiel?
Paypal verliert weltweit 80 Millionen im Jahr durch Betrugsfälle und konnte mit dem Einsatz von Big Data diesen Verlust um zehn Prozent reduzieren. Wenn jemand über Paypal etwas bezahlt, hat Pay­pal genau das Zeitfenster der Transaktion, um Betrugserkennung durchzuführen. Weil sie nun viel mehr Daten im Hauptspeicher haben, können sie mehr Fraud-Detection-Abfragen in der selben Zeit darüberlaufen lassen und dadurch reduzieren sich die Betrugsfälle im Jahr um zehn Prozent. Das spart bei 80 Millionen immerhin acht Millionen pro Jahr.

Was kann Terracotta sonst noch?
Transaktionsorientierte Unternehmen, bei denen die Transaktionen am Host viel Geld kosten, können damit die Daten vom Host offloaden. Alles, was in der Datenbank drinnen ist, wird sukzessive in den Hauptspeicher geschrieben und lesende Anfragen laufen nur mehr über Terracotta. Dadurch erspare ich mir alle Klicks, die auf der Datenbank entstehen. Da Mainframe-Datenbanken nicht gerade günstig sind, lassen sich so mit Mainframe-Offloading enorm Kosten einsparen. Da findet gerade ein Paradigmenwechsel statt. Was in der Vergangenheit der Wechsel vom Band zur Festplatte war, ist jetzt der Übergang von Platten auf Hauptspeicher. Die Zukunft liegt darin, dass man Systeme baut, die dahinter keine Datenbank mehr brauchen. Die Datenbank, das Datenmanagement findet im Big Memory statt. Da braucht es noch ein Umdenken, aber über kurz oder lang werden klassische Systeme die Big-Memory-Welle nicht überleben.

Das Gespräch führte Oliver Weiss.

Erwin Greiml:
Die berufliche Laufbahn von Erwin Greiml begann 1979 im Vertrieb von Xerox Austria. Im Laufe seiner Karriere war er Leiter des indirekten Vertriebs bei NCR Austria, Leiter Systemhaus und Marketing bei Computer Austria (Vorgängerorganisation von T-Systems Austria) sowie Vertriebsleiter bei Atos Origin. Seit Mai 2002 gehört Greiml, der in seiner Freizeit gerne Golf spielt, Jazz genießt und selbst malt, dem Vertriebs­team der Software AG in Österreich an. Danach war er lange Zeit Prokurist und ist nun seit Oktober 2012 als Geschäftsführer im Firmenbuch eingetragen.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*