Teradata: Höhere Leistung und Verfügbarkeit

Teradata hat eine Reihe von Software-Updates veröffentlicht, die den Aufbau flexibler Hybrid-Architekturen auf Basis einer gemeinsamen Datenbank ermöglichen sollen. Die Verbesserungen sollen das Verschieben von Workloads zwischen Public und Managed Cloud, VMware und Appliances erlauben. [...]

Mit den Updates sollen Unternehmen je nach Einsatzstrategie und ökonomischen Anforderungen Workloads zwischen verschiedenen Umgebungen verschieben können. Die neuen Features sind in zwei Kategorien unterteilt: Unter dem Namen „Teradata Everywhere“ fasst der Big Data-Spezialist eine Reihe von Neuerungen zusammen, die die Teradata-Datenbank auf zusätzliche Plattformen bringen und ihre Leistung verbessern. Die Initiative „Borderless Analytics“ umfasst Software-Updates für die bessere Verknüpfung von Analyseumgebungen On-Premise und in der Cloud.
Teradata Everywhere
Mit der neuen MAPS-Architektur lassen sich Data Warehouses von Teradata reibungslos skalieren und damit sich wandelnden Geschäftsanforderungen anpassen. MAPS erlaubt außerdem mehr gleichzeitige taktische Abfragen bei einheitlicherer Leistung. Der neue Adaptive Optimizer erkennt, auf welcher Plattform die Teradata-Datenbank läuft und sorgt dadurch für optimierte Leistung. Beide Verbesserungen sind für das zweite Quartal 2017 geplant.
Als erste MPP-Datenbank (MPP: Massively Parallel Processing) für Analytics ist die Teradata-Datenbank auf mehreren Public und Managed Cloud-Angeboten, per VMware-Virtualisierung und auf speziellen Appliances (Teradata IntelliFlex) verfügbar. Ab dem vierten Quartal ist sie erstmals auf dem Microsoft Azure Marketplace erhältlich. Die Teradata-Datenbank auf Azure unterstützt bis zu 32 Knoten und ist in einer MPP-Konfiguration erhältlich. Auf Amazon Web Services (AWS) ist die Datenbank in vielen Regionen, darunter Europa, bereits erhältlich, ab sofort unterstützt sie auch dort MPP und bis zu 32 Knoten. Teradata erweitert zudem sein Managed Cloud-Angebot für Europa mit einem Rechenzentrum in Deutschland.
Ab dem dritten Quartal ist die Teradata Virtual Machine Edition (TVME) verfügbar, die sich problemlos in bestehende VMware-Umgebungen einfügt. Die Software ermöglicht ein Data Warehouse mit bis zu 32 virtuellen Knoten und erlaubt dank flexibler Lizenzen, die Datenbanken je nach Anforderung beliebig zu skalieren und mehrere Instanzen für besondere Zwecke wie Test oder Entwicklung zu verwenden. 
„Das Ziel lautet: mehr Wahlfreiheit für unsere Kunden, und zwar ohne Kompromisse“, erklärte Oliver Ratzesberger, Executive Vice President und Chief Product Officer, Teradata. „Mit Teradata Everywhere können sich Firmen auf geschäftsfördernde Analytics konzentrieren, statt mühsam ihre Umgebungen kompatibel zu gestalten.“
Borderless Analytics
Unter dem Namen Borderless Analytics veröffentlicht Teradata Verbesserungen der Programme QueryGrid und Unity. Diese Verbesserungen machen Analyse-Umgebungen flexibler, so dass Unternehmen analytische Workloads einfach zwischen verschiedenen lokalen und Cloud-Systemen verschieben können. So lassen sich Nutzungsspitzen abfedern, Investitionen steuern, verschiedene Nutzergruppen bedienen und Daten dort analysieren, wo sie vorliegen.
Die Software Teradata QueryGrid erlaubt Analytics-Abfragen über verschiedene Systeme hinweg. Die nächste Generation von QueryGrid verfügt über eine einheitliche Syntax, da es nur noch eine Anbindung pro Zielsystem gibt. Weitere Neuerungen sind Verschlüsselung, Leistungsmonitoring und verbesserte Sicherheit. Die ersten neuen Features sind ab dem vierten Quartal verfügbar.
Das Programm Teradata Unity verteilt Workloads und sorgt für hohe Verfügbarkeit – in der neuesten Version übernimmt es diese Aufgaben für komplette Hybrid-Umgebungen aus On-Premise-Appliances und Virtualisierungsumgebungen, Managed Cloud- und Public Cloud-Kapazitäten. Im ersten Halbjahr 2017 kommen Features hinzu, um einzelne Datenänderungen zwischen Teradata-Systemen zu kopieren und ganze Datenbanken auf Knopfdruck zu replizieren. Letzteres eignet sich für redundante Verfügbarkeit, Notfallwiederherstellung, Tests, Qualitätssicherung und Entwicklung.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*