Sammeln für die Kunden

4.000 CEO und CIO aus 51 Ländern sind dem Ruf von Teradata zur jährlichen Partner-Konferenz gefolgt. Der Fokus: Big Data. [...]

Große Mengen an Daten bilden heute die Geschäftsgrundlage vieler Unternehmen, genauer gesagt, das gezielte Sammeln, das Aufbereiten sowie das Verfügbarmachen der Daten. Denn die richtige Auswertung und der Einsatz der Erkenntnisse kann Unternehmen den entscheidenden Geschäftsvorteil verschaffen. Dazu bedarf es geeigneter IT-Lösungen. Hier hat Teradata einiges zu bieten, beschäftigt sich das Unternehmen nach eigener Aussage doch bereits seit seiner Gründung im Jahr 1979 mit Big Data, also zu einem Zeitpunkt als es den Begriff noch gar nicht gab. Allerdings vergisst Bob Fair, Chief Marketing and Information Officer bei Teradata, in seiner Eröffnungsrede nicht, darauf hinzuweisen, dass eine Big-Data-Strategie mindestens genauso wichtig ist, wie die geeignete Technologie. Unter dem Motto „Datadriven“ zeigte Teradata viele Business Cases für erfolgreiches Pflügen des Datenackers und stellte zudem neue Analysewerkzeuge für BigData vor und betreibt Finetuning bei seiner Intelligent-Memory-Technologie.

CONNECTION ANAYLYTICS
Damit in der Fülle der Daten relevante Zusammenhänge erkannt werden, sind gute Analysetools nötig. Solche Zusammenhänge innerhalb einzelner, aber auch über unterschiedliche Netzwerke hinweg zu finden, bedurfte bisher spezieller Systeme oder eigens dafür geschriebene Programme. Mit dem neuen Connection Analytics hat Teradata ein Werkzeug geschaffen, mit dem Unternehmen ohne allzu großen Zeit-und Ressourcenaufwand verschiedene Datensets analysieren können. Es wird quasi schlüsselfertig geliefert und fußt auf der Teradata Aster Discovery Plattform mit ihren mächtigen MapReduce- und Graph-Funktionen.

Damit liefert Teradata ein Analysewerkzeug, das so auf Enterprise-Level noch nicht erhältlich war. Dank Connection Analytics ist es Unternehmen möglich, sich vor Cyber-Bedrohungen aller Art zu schützen, Kundenverluste zu vermeiden, Marketingkampagnen zu verbessern, indem Multiplikatoren und Meinungsführer identifiziert werden können.

Möglich wird die oben erwähnte Ausführung systemübergreifender Abfragen durch die Weiterentwicklung der QueryGrid-Software von Teradata. Damit lässt sich auf Systeme unterschiedlicher Anbieter zugreifen und aus einer heterogenen IT-Landschaft ein aufeinander abgestimmtes System formen. Mittels QueryGrid fühlt sich auch eine Multi-System-Umgebung an wie ein Einzelsystem. Dank dem integrierten „Explain“-Plan und bekannten Verwaltungswerkzeugen behalten Administratoren den zentralen Überblick über die Ressourcennutzung und erhalten ein nahtlos ineinandergreifendes Datensystem. Mit dem Zugriff von Teradata auf Teradata Aster ergänzt QueryGrid die Teradata Database um über 100 vorkonfigurierte Aster-Funktionen wie nPath, Graph und Sessionize. Diese Funktionen können Anwender der Datenbank nun in ihrer SQL-Anweisung aufrufen und für Abfragen nutzen.
Erwähnenswert ist auch der „AdaptiveOptimizer“, ein Werkzeug, das innerhalb von QueryGrid Statistiken darüber erstellt, wie die verschiedenen Systeme Anfragen beantworten. Diese Statistiken werden für die inkrementelle Planung weiterer Abfragen genutzt. Das erhöht laut Teradata die Performance heterogener Systeme, die verschiedene Technologien wie Oracles relationale Datenbank oder NoSQL-Datenhaltungen wie Hadoop oder auch MongoDB kombinieren.

INTELLIGENT MEMORY
Auch die bereits letztes Jahr eingeführte Intelligent-Memory-Technik ist Teil der Unified Data Architecture (UDA) von Teradata, die die gemeinsame Nutzung von Teradata, Teradata Aster und dem Open-Source Apache Hadoop verwirklicht. Bei Teradata Intelligent Memory werden je nach „Temperatur“ diejenigen Daten, die am häufigsten genutzt werden, in den Arbeitsspeicher verschoben, um dort analysiert zu werden. Alle Daten im Arbeitsspeicher zu halten, erachtet Teradata übrigens für zu teuer und nicht notwendig. Diese Technik beschleunigt den Analyseprozess enorm.

In der kommenden Version (15.10) der Teradata-Datenbank wird diese Technik vor allem durch eine effizientere Auslastung der Prozessoren (auch für den neuen Intel Haswell Prozessor) und des Hauptspeichers weiter beschleunigt. Dabei handelt es sich um Query Pipelining und neue Tabellenstrukturen für In-Memory-Analysen. Query Pipelining ist ein neuer Ansatz zur Query-Verarbeitung, bei dem Ergebnisse eines Abfrageschritts unmittelbar in den nächsten Schritt einfließen – ohne dass die Daten dazwischen aus dem Hauptspeicher ausgelagert werden. Die verringerte Datenbewegung führt zu einem weitaus höheren Durchsatz. Die Daten werden zudem bereits im Hauptspeicher in Spalten- statt in Zeilenform gespeichert, was die Leistung bei vermindertem Speicherverbrauch weiter erhöht.

Auch neue Methoden zur Bewertung der „Datentemperatur“ hat Teradata hinzugefügt. Connection Analytics und QueryGrid wird ab Ende des vierten Quartal verfügbar sein, die neuen Intelligent-Memory-Technologien im Laufe des ersten Halbjahres 2015. (kdl)


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Christoph Mutz, Senior Product Marketing Manager, AME, Western Digital (c) AME Western Digital
Interview

Speicherlösungen für Autos von morgen

Autos sind fahrende Computer. Sie werden immer intelligenter und generieren dabei jede Menge Daten. Damit gewinnen auch hochwertige Speicherlösungen im Fahrzeug an Bedeutung. Christoph Mutz von Western Digital verrät im Interview, welche Speicherherausforderungen auf Autohersteller und -zulieferer zukommen. […]

Andreas Schoder ist Leiter Cloud & Managend Services bei next layer, Alexandros Osyos ist Senior Produkt Manager bei next layer. (c) next layer
Interview

Fokus auf österreichische Kunden

Der österreichische Backup-Experte next layer bietet umfassendes Cloud-Backup in seinen Wiener Rechenzentren. Im Interview mit ITWelt.at erläutern Andreas Schoder, Leiter Cloud & Managed Services, und Alexandros Osyos, Senior Produkt Manager, worauf Unternehmen beim Backup achten müssen und welche Produkte und Dienstleistungen next layer bietet. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*