Sammeln für die Kunden

4.000 CEO und CIO aus 51 Ländern sind dem Ruf von Teradata zur jährlichen Partner-Konferenz gefolgt. Der Fokus: Big Data. [...]

Große Mengen an Daten bilden heute die Geschäftsgrundlage vieler Unternehmen, genauer gesagt, das gezielte Sammeln, das Aufbereiten sowie das Verfügbarmachen der Daten. Denn die richtige Auswertung und der Einsatz der Erkenntnisse kann Unternehmen den entscheidenden Geschäftsvorteil verschaffen. Dazu bedarf es geeigneter IT-Lösungen. Hier hat Teradata einiges zu bieten, beschäftigt sich das Unternehmen nach eigener Aussage doch bereits seit seiner Gründung im Jahr 1979 mit Big Data, also zu einem Zeitpunkt als es den Begriff noch gar nicht gab. Allerdings vergisst Bob Fair, Chief Marketing and Information Officer bei Teradata, in seiner Eröffnungsrede nicht, darauf hinzuweisen, dass eine Big-Data-Strategie mindestens genauso wichtig ist, wie die geeignete Technologie. Unter dem Motto „Datadriven“ zeigte Teradata viele Business Cases für erfolgreiches Pflügen des Datenackers und stellte zudem neue Analysewerkzeuge für BigData vor und betreibt Finetuning bei seiner Intelligent-Memory-Technologie.

CONNECTION ANAYLYTICS
Damit in der Fülle der Daten relevante Zusammenhänge erkannt werden, sind gute Analysetools nötig. Solche Zusammenhänge innerhalb einzelner, aber auch über unterschiedliche Netzwerke hinweg zu finden, bedurfte bisher spezieller Systeme oder eigens dafür geschriebene Programme. Mit dem neuen Connection Analytics hat Teradata ein Werkzeug geschaffen, mit dem Unternehmen ohne allzu großen Zeit-und Ressourcenaufwand verschiedene Datensets analysieren können. Es wird quasi schlüsselfertig geliefert und fußt auf der Teradata Aster Discovery Plattform mit ihren mächtigen MapReduce- und Graph-Funktionen.

Damit liefert Teradata ein Analysewerkzeug, das so auf Enterprise-Level noch nicht erhältlich war. Dank Connection Analytics ist es Unternehmen möglich, sich vor Cyber-Bedrohungen aller Art zu schützen, Kundenverluste zu vermeiden, Marketingkampagnen zu verbessern, indem Multiplikatoren und Meinungsführer identifiziert werden können.

Möglich wird die oben erwähnte Ausführung systemübergreifender Abfragen durch die Weiterentwicklung der QueryGrid-Software von Teradata. Damit lässt sich auf Systeme unterschiedlicher Anbieter zugreifen und aus einer heterogenen IT-Landschaft ein aufeinander abgestimmtes System formen. Mittels QueryGrid fühlt sich auch eine Multi-System-Umgebung an wie ein Einzelsystem. Dank dem integrierten „Explain“-Plan und bekannten Verwaltungswerkzeugen behalten Administratoren den zentralen Überblick über die Ressourcennutzung und erhalten ein nahtlos ineinandergreifendes Datensystem. Mit dem Zugriff von Teradata auf Teradata Aster ergänzt QueryGrid die Teradata Database um über 100 vorkonfigurierte Aster-Funktionen wie nPath, Graph und Sessionize. Diese Funktionen können Anwender der Datenbank nun in ihrer SQL-Anweisung aufrufen und für Abfragen nutzen.
Erwähnenswert ist auch der „AdaptiveOptimizer“, ein Werkzeug, das innerhalb von QueryGrid Statistiken darüber erstellt, wie die verschiedenen Systeme Anfragen beantworten. Diese Statistiken werden für die inkrementelle Planung weiterer Abfragen genutzt. Das erhöht laut Teradata die Performance heterogener Systeme, die verschiedene Technologien wie Oracles relationale Datenbank oder NoSQL-Datenhaltungen wie Hadoop oder auch MongoDB kombinieren.

INTELLIGENT MEMORY
Auch die bereits letztes Jahr eingeführte Intelligent-Memory-Technik ist Teil der Unified Data Architecture (UDA) von Teradata, die die gemeinsame Nutzung von Teradata, Teradata Aster und dem Open-Source Apache Hadoop verwirklicht. Bei Teradata Intelligent Memory werden je nach „Temperatur“ diejenigen Daten, die am häufigsten genutzt werden, in den Arbeitsspeicher verschoben, um dort analysiert zu werden. Alle Daten im Arbeitsspeicher zu halten, erachtet Teradata übrigens für zu teuer und nicht notwendig. Diese Technik beschleunigt den Analyseprozess enorm.

In der kommenden Version (15.10) der Teradata-Datenbank wird diese Technik vor allem durch eine effizientere Auslastung der Prozessoren (auch für den neuen Intel Haswell Prozessor) und des Hauptspeichers weiter beschleunigt. Dabei handelt es sich um Query Pipelining und neue Tabellenstrukturen für In-Memory-Analysen. Query Pipelining ist ein neuer Ansatz zur Query-Verarbeitung, bei dem Ergebnisse eines Abfrageschritts unmittelbar in den nächsten Schritt einfließen – ohne dass die Daten dazwischen aus dem Hauptspeicher ausgelagert werden. Die verringerte Datenbewegung führt zu einem weitaus höheren Durchsatz. Die Daten werden zudem bereits im Hauptspeicher in Spalten- statt in Zeilenform gespeichert, was die Leistung bei vermindertem Speicherverbrauch weiter erhöht.

Auch neue Methoden zur Bewertung der „Datentemperatur“ hat Teradata hinzugefügt. Connection Analytics und QueryGrid wird ab Ende des vierten Quartal verfügbar sein, die neuen Intelligent-Memory-Technologien im Laufe des ersten Halbjahres 2015. (kdl)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*