Standortübergreifend 2012

Data Pipeline führt Daten zu Analysezwecken zusammen. [...]

Der neue Amazon-Service Data Pipeline ist dafür vorgesehen, die Analyse und das Management von Daten standortübergreifend zu ermöglichen. Mit Hilfe eines grafischen User-Interfaces können Anwender ihre Daten verändern und erkunden, unabhängig davon, ob sie in Amazons AWS-Cloud oder im eigenen Data Center abgelegt wurden.

Data Pipeline ist selbstverständlich in allen Speicherumgebungen von AWS einsetzbar, dazu zählen etwa die Dienste Simple Storage Service (S3), die NoSQL-Implementation DynamoDB sowie der kürzlich vorgestellte Data-Warehouse-Dienst Redshift.Auf der Anwenderkonferenz Re:invent in Las Vegas demonstrierte Matt Wood, Big-Data-Chef bei AWS, die Funktionsweise, indem er eine DynamoDB-Datenbank so konfigurierte, dass Informationen automatisch im Speicherdienst S3 sowie in BI-Tools repliziert werden.

Der neue Dienst ergänzt andere AWS-Angebote rund um das Speichern und Auswerten von Daten. Anfang des Jahres hatte Amazons Web-Geschäftsbereich bereits den Service Glacier für dauerhaftes Speichern vorgestellt. Zudem wurde im AWS-Marktplatz eine eigene Big-Data-Sektion eingerichtet, wo Anwender Applikationen zur Verarbeitung von Massendaten finden. AWS gab auf der Konferenz bekannt, dass S3 nun über eine Billionen Dateien speichere.

Neben der Pipeline-Lösung kündigte Amazon zwei weitere Optionen für das Processing und die Analyse von Big Data an. Dabei handelt es sich um neue Instanztypen für den Dienst Elastic Cloud Compute (EC2). Die Version Cluster High Memory bietet 240 Gigabyte RAM und zwei Mal 120 Gigabyte SSD-Speicher. Die zweite, neue Instanzoption High Storage wird mit 117 Gigabyte RAM und 48 Terabyte Disk-Speicher bereitgestellt. (idg/oli)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*