Big Data dank Cloud-Plattform auch für KMU

Bei der heurigen Teradata Partner-Konferenz Ende Oktober in Dallas war durchaus so etwas wie Goldgräber-Stimmung zu spüren. Beherrschendes Thema der von 4.000 Kunden und Partnern besuchten Veranstaltung war der Slogan "Unleash the power of Data". [...]

CEO Mike Koehler hat das Konferenz-Thema in seiner Keynote auf den Punkt gebracht: „Viele Unternehmen sitzen auf unglaublichen Mengen von Daten, können diese aber nicht oder nicht gut genug nutzen, weil die Möglichkeit zur tiefgreifenden Analyse fehlen. Teradata will dabei helfen, diese versteckten Goldschätze zu heben.“ Daten in großen Rechenzentren zu speichern, reiche schon lange nicht mehr aus.
 
Ausschlaggebend für den unternehmerischen Erfolg sei viel mehr, die anwachsenden Datenmengen nach verschiedensten Kriterien in Echtzeit zu analysieren und die Ergebnisse den Entscheidungsträgern rasch zur Verfügung zu stellen. Das auch unter dem Gesichtspunkt von steigender Bedeutung von Social-Media-Aktivitäten und dem „Internet der Dinge“. Der ­Löwenanteil des Datenaufkommens wird bereits von Appliances, die über das Internet kommunizieren, produziert.
 
„Ein Beispiel dafür ist die Smart-Grid Technologie, wobei auch hier Teradata in Zusammenarbeit mit Siemens Pionierarbeit im Bereich der Smart-Meter-Technologie leistet. Energieanbieter können mit intelligenter Stromzählern das Verbraucherverhalten analysieren und mit zugeschnittenen Angeboten Spitzen und Täler im Energieverbrauch ausgleichen,“ erklärt Gerald Rosak, Geschäftsleitung Teradata für Österreich, Ungarn und Polen:

CLOUD-PLATTFORM
Teradata ließ im Zuge der Konferenz auch mit einer Ankündigung aufhorchen, die nicht nur Großunternehmen interessieren dürfte, sondern alle Unternehmen, die über Kundenbewegungen verfügen. Diese Datenströme zu analysieren ist mit der neuen Teradata Cloud-Plattform jetzt auch abseits von großen Datawarehouses oder on-premise-Lösungen möglich.

„Die Plattform stellt eine zusätzliche Wahlmöglichkeit dar, wie unsere Technologie effizient, skalierbar und mit guter Kostenkontrolle eingesetzt werden kann“, erlärt Scott Gnau, Präsident der Teradata Labs. Gnau zufolge würden auch künftige Produkte und Services von Teradata in die Cloud-Plattform integriert werden, so wie die Aster Discovery-Plattform Database-Services oder die Data-Management Software, die auf der Open-Source Hadoop basiert. Und das schon in der ersten Jahreshälfte 2014. Netflix hat die Teradata-Cloud-Plattform bereits erfolgreich ein­geführt, um das User-Verhalten seiner 37 Millionen Benutzer zu analysieren und seine Angebote entsprechend anzupassen beziehungsweise zu personalisieren.

DATA DRIVEN MARKETING
Der Begriff des „data driven marketing“ führt Teradata zufolge dazu, dass das Thema Datawarehouse und Analytics langsam aus den IT-Abteilungen der Unternehmen in Richtung Chefetage wandert. Kunden können Datenbanktechnologie, Discovery und Data-Management-Services auf einer monatlichen Basis beziehen, ohne dabei große Start-Investitionen tätigen zu müssen.

Neu ist auch die Teradata Warehouse Appliance 2750, die In-Memory-Technologie mit dem Enterprise Datawarehouse zusammenführt. Im Vergleich mit dem Vorgängermodell 2690 ist die neue Appliance in Kombination mit Teradata Intelligent Memory und der neuesten Version der Teradata Database rund dreimal so leistungsfähig und erreicht verbesserte Antwortzeiten um den Faktor 700.

„FEIN ABGESTUFTES KONZEPT“
Ausschlaggebend dazu ist, wie CEO Koehler im Gespräch mit der COMPUTERWELT erläutert, die kritische Herangehensweise von Teradata an das verbreitete All-in-Memory Konzept. „Teradata-Systeme dienen der Analyse von sehr großen Datenmengen aus heterogenen Quellen. Auch wenn die RAM-Preise fallen, steigen die zu analysierenden Datenmengen jedoch schneller.“ Koehler weiter: Wir setzen daher bei unseren Systemen und Technologien auf ein fein abgestuftes Storage-Konzept und halten auch immer größere Datenmengen aus Performancegründen im Hautspeicher, jedoch nur die relevanten 20 Prozent.“
 
Und da diese 20 Prozent der relevanten Daten nicht statisch sind, sondern höchst dynamischen Änderungsprozessen unterliegen, ist es Teradata zufolge von entscheidender Bedeutung, diese Änderungen mit hoher Geschwindigkeit und automatisch zu identifizieren. Hier kommt der selbst entwickelte Intelligent Memory Manager ins Spiel, der mit „predictive analytics“ ein Prognosemodell für das dynamische Speichermanagement liefert. (hk)


Mehr Artikel

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*