Standortübergreifend 2012

Data Pipeline führt Daten zu Analysezwecken zusammen. [...]

Der neue Amazon-Service Data Pipeline ist dafür vorgesehen, die Analyse und das Management von Daten standortübergreifend zu ermöglichen. Mit Hilfe eines grafischen User-Interfaces können Anwender ihre Daten verändern und erkunden, unabhängig davon, ob sie in Amazons AWS-Cloud oder im eigenen Data Center abgelegt wurden.

Data Pipeline ist selbstverständlich in allen Speicherumgebungen von AWS einsetzbar, dazu zählen etwa die Dienste Simple Storage Service (S3), die NoSQL-Implementation DynamoDB sowie der kürzlich vorgestellte Data-Warehouse-Dienst Redshift.Auf der Anwenderkonferenz Re:invent in Las Vegas demonstrierte Matt Wood, Big-Data-Chef bei AWS, die Funktionsweise, indem er eine DynamoDB-Datenbank so konfigurierte, dass Informationen automatisch im Speicherdienst S3 sowie in BI-Tools repliziert werden.

Der neue Dienst ergänzt andere AWS-Angebote rund um das Speichern und Auswerten von Daten. Anfang des Jahres hatte Amazons Web-Geschäftsbereich bereits den Service Glacier für dauerhaftes Speichern vorgestellt. Zudem wurde im AWS-Marktplatz eine eigene Big-Data-Sektion eingerichtet, wo Anwender Applikationen zur Verarbeitung von Massendaten finden. AWS gab auf der Konferenz bekannt, dass S3 nun über eine Billionen Dateien speichere.

Neben der Pipeline-Lösung kündigte Amazon zwei weitere Optionen für das Processing und die Analyse von Big Data an. Dabei handelt es sich um neue Instanztypen für den Dienst Elastic Cloud Compute (EC2). Die Version Cluster High Memory bietet 240 Gigabyte RAM und zwei Mal 120 Gigabyte SSD-Speicher. Die zweite, neue Instanzoption High Storage wird mit 117 Gigabyte RAM und 48 Terabyte Disk-Speicher bereitgestellt. (idg/oli)


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*