„In-Memory-Lösungen sind ökonomisch irrational“

Das Unternehmen Teradata, bisher ein großer Kritiker von In-Memory-Lösungen, kündigte diese Woche in Kopenhagen eine Überraschung für den 8. Mai an: Man werde selbst in das Business mit In-Memory-Computing einsteigen. Details wollte man zwar nicht verraten, aber Teradata-CTO Stephen Brobst verriet Computerwelt.at immerhin, wie die neue Lösung NICHT aussehen wird. [...]

Nachdem man an der In-Memory-Lösung HANA von SAP seitens Teradata lange kein gutes Haar gelassen hat – sie wäre zu teuer – sorgte das Unternehmen am Rande seiner Veranstaltung Teradata Universe in Kopenhagen mit der „Ankündigung einer Ankündigung“ für Aufhorchen. Hermann Wimmer, der President der International Region von Teradata, ließ durchblicken, dass das Unternehmen am 8. Mai eine entsprechende Lösung präsentieren wird.

Wimmers Worte: „Am 8. Mai kommt etwas Neues. Man hört kaum etwas von In-Memory und Big Data zusammen. Warum? In-Memory ist teuer. Aber wir haben es geschafft, In-Memory und Big Data Analytics zu kombinieren.“

Näheres dazu war den Unternehmensvertretern kaum zu entlocken. Der charismatische Stephen Brobst (Bild) beispielsweise, seines Zeichens CTO von Teradata, wollte auf Nachfrage von Computerwelt.at nur verraten – mit einem Augenzwinkern – was die neue Lösung NICHT sein wird.

ÖKONOMISCH IRRATIONALER WAHNSINN
Brobst gehörte von Beginn an zu den größten Kritikern von SAP HANA. „Ich habe es schon vor zwei Jahren gesagt und ich sage es auch heute: In-Memory-Lösungen sind ökonomisch irrational. Es wäre Wahnsinn, alle seine Daten in den schnellen Speicher zu laden. SAP sagt zwar, dass die Storage-Kosten jedes Jahr um 30 Prozent sinken, aber das monatliche Wachstum der Daten übersteigt diesen Wert.“

Teradata habe sich dieses Dilemmas angenommen. „Wir würden nicht alle Daten in den Speicher laden“, so Brobst. „Aber wenn man herausfinden könnte, wo man welche Daten am ökonomischsten unterbringt, wäre das nicht eine sehr interessante Lösung? Die falsche Antwort auf dieses Problem wäre, Hardware mit verschiedenem Storage auszuliefern und Experten händisch die Daten nach ihrer Relevanz zuordnen zu lassen. Wenn Sie damit fertig sind ist ihre Arbeit bereits überholt. Man braucht dazu die Intelligenz in der Software, die diese Entscheidungen automatisch trifft.“

Mehr zu diesem Thema wollte sich dann aber auch CTO und Data-Warehousing-Spezialist Brobst nicht entlocken lassen. Schließlich muss ja für den 8. Mai noch etwas Neues zum Ankündigen übrigbleiben. (rnf)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*