Big Data dank Cloud-Plattform auch für KMU

Bei der heurigen Teradata Partner-Konferenz Ende Oktober in Dallas war durchaus so etwas wie Goldgräber-Stimmung zu spüren. Beherrschendes Thema der von 4.000 Kunden und Partnern besuchten Veranstaltung war der Slogan "Unleash the power of Data". [...]

CEO Mike Koehler hat das Konferenz-Thema in seiner Keynote auf den Punkt gebracht: „Viele Unternehmen sitzen auf unglaublichen Mengen von Daten, können diese aber nicht oder nicht gut genug nutzen, weil die Möglichkeit zur tiefgreifenden Analyse fehlen. Teradata will dabei helfen, diese versteckten Goldschätze zu heben.“ Daten in großen Rechenzentren zu speichern, reiche schon lange nicht mehr aus.
 
Ausschlaggebend für den unternehmerischen Erfolg sei viel mehr, die anwachsenden Datenmengen nach verschiedensten Kriterien in Echtzeit zu analysieren und die Ergebnisse den Entscheidungsträgern rasch zur Verfügung zu stellen. Das auch unter dem Gesichtspunkt von steigender Bedeutung von Social-Media-Aktivitäten und dem „Internet der Dinge“. Der ­Löwenanteil des Datenaufkommens wird bereits von Appliances, die über das Internet kommunizieren, produziert.
 
„Ein Beispiel dafür ist die Smart-Grid Technologie, wobei auch hier Teradata in Zusammenarbeit mit Siemens Pionierarbeit im Bereich der Smart-Meter-Technologie leistet. Energieanbieter können mit intelligenter Stromzählern das Verbraucherverhalten analysieren und mit zugeschnittenen Angeboten Spitzen und Täler im Energieverbrauch ausgleichen,“ erklärt Gerald Rosak, Geschäftsleitung Teradata für Österreich, Ungarn und Polen:

CLOUD-PLATTFORM
Teradata ließ im Zuge der Konferenz auch mit einer Ankündigung aufhorchen, die nicht nur Großunternehmen interessieren dürfte, sondern alle Unternehmen, die über Kundenbewegungen verfügen. Diese Datenströme zu analysieren ist mit der neuen Teradata Cloud-Plattform jetzt auch abseits von großen Datawarehouses oder on-premise-Lösungen möglich.

„Die Plattform stellt eine zusätzliche Wahlmöglichkeit dar, wie unsere Technologie effizient, skalierbar und mit guter Kostenkontrolle eingesetzt werden kann“, erlärt Scott Gnau, Präsident der Teradata Labs. Gnau zufolge würden auch künftige Produkte und Services von Teradata in die Cloud-Plattform integriert werden, so wie die Aster Discovery-Plattform Database-Services oder die Data-Management Software, die auf der Open-Source Hadoop basiert. Und das schon in der ersten Jahreshälfte 2014. Netflix hat die Teradata-Cloud-Plattform bereits erfolgreich ein­geführt, um das User-Verhalten seiner 37 Millionen Benutzer zu analysieren und seine Angebote entsprechend anzupassen beziehungsweise zu personalisieren.

DATA DRIVEN MARKETING
Der Begriff des „data driven marketing“ führt Teradata zufolge dazu, dass das Thema Datawarehouse und Analytics langsam aus den IT-Abteilungen der Unternehmen in Richtung Chefetage wandert. Kunden können Datenbanktechnologie, Discovery und Data-Management-Services auf einer monatlichen Basis beziehen, ohne dabei große Start-Investitionen tätigen zu müssen.

Neu ist auch die Teradata Warehouse Appliance 2750, die In-Memory-Technologie mit dem Enterprise Datawarehouse zusammenführt. Im Vergleich mit dem Vorgängermodell 2690 ist die neue Appliance in Kombination mit Teradata Intelligent Memory und der neuesten Version der Teradata Database rund dreimal so leistungsfähig und erreicht verbesserte Antwortzeiten um den Faktor 700.

„FEIN ABGESTUFTES KONZEPT“
Ausschlaggebend dazu ist, wie CEO Koehler im Gespräch mit der COMPUTERWELT erläutert, die kritische Herangehensweise von Teradata an das verbreitete All-in-Memory Konzept. „Teradata-Systeme dienen der Analyse von sehr großen Datenmengen aus heterogenen Quellen. Auch wenn die RAM-Preise fallen, steigen die zu analysierenden Datenmengen jedoch schneller.“ Koehler weiter: Wir setzen daher bei unseren Systemen und Technologien auf ein fein abgestuftes Storage-Konzept und halten auch immer größere Datenmengen aus Performancegründen im Hautspeicher, jedoch nur die relevanten 20 Prozent.“
 
Und da diese 20 Prozent der relevanten Daten nicht statisch sind, sondern höchst dynamischen Änderungsprozessen unterliegen, ist es Teradata zufolge von entscheidender Bedeutung, diese Änderungen mit hoher Geschwindigkeit und automatisch zu identifizieren. Hier kommt der selbst entwickelte Intelligent Memory Manager ins Spiel, der mit „predictive analytics“ ein Prognosemodell für das dynamische Speichermanagement liefert. (hk)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*