Oracle: 2016 kommt Big Data im Mainstream an

Daten sind das Gold des Digitalen Zeitalters. Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für Spezialisten – 2016 soll sie im Mainstream ankommen. Oracle identifiziert die größten Big Data-Trends für das neue Jahr. [...]

Daten helfen Unternehmen nicht nur ihre Ziele schneller zu erreichen und die Wettbewerbsposition zu stärken, sie ermöglichen es auch, die Kunden besser zu verstehen und Produkte und Services gezielter und schneller an den Markt anzupassen. Im Gegensatz zu Gold ist der Rohstoff Daten aber keineswegs endlich. Ganz im Gegenteil: Etwa alle 18 Monate verdoppeln sich die Terabytes an strukturierten und unstrukturierten digitalen Informationen. Die Herausforderung besteht vielmehr darin, aus dem unüberschaubaren Informationsfluss die wertvollen Körner zu sieben.

Lange Zeit war die Nutzung und Analyse von Big Data ein Thema für IT- und Datenspezialisten – diese Ära ist nun vorbei, denn 2016 wird Big Data endlich im Mainstream ankommen. Oracle hat versucht vorherzusagen, welche Trends uns dieses Jahr rund um Big Data erwarten.

Ausgereifte Standardlösungen ersetzen die anfänglichen Spezialsysteme

Big Data-Pioniere hatten keine andere Wahl, als ihre eigenen Cluster und -Umgebungen zu entwickeln. Diese auf Hadoop, Spark oder anderen aufkommenden Technologien beruhenden Spezialsysteme zu entwickeln, zu verwalten und zu warten ist allerdings extrem zeit- und kostenaufwendig. So beträgt die durchschnittliche Entwicklungszeit sechs Monate. So viel Zeit hat heute niemand mehr? Kein Problem, denn dank Cloud-Diensten und Anwendungen mit vorkonfigurierten Automatisierungen und Standards wird 2016 ein sehr viel größerer Anwenderkreis auf ausgereifte Lösungen zugreifen können.

Datenvirtualisierung wird Realität

Unternehmen erfassen heute nicht nur eine immer größer werdende Bandbreite an Daten, sie verwenden auch eine Vielzahl an Algorithmen, Analysen und Software-Anwendungen. Entwickler und Analytiker verlieren dadurch schnell mal den Überblick, wo welche Daten gespeichert sind oder haben Probleme mit den Zugriffsverfahren der jeweiligen Repositories. Daher werden Unternehmen 2016 nicht mehr nur auf eine einzelne Technologie setzen. Sie werden zukünftig vermehrt Daten virtualisieren. Die Benutzer und Anwendungen greifen dann über SQL, REST und andere Skriptsprachen auf diese virtualisierten Daten zu. Die richtige Technologie zur Datenvirtualisierung bietet dabei die gleiche Performance wie die nativen Methoden – einschließlich Rückwärtskompatibilität und Sicherheit.

Datenstromorientierte Programmierung beschleunigt das Tempo

In den Anfängen des Big-Data-Einsatzes dominierte die manuell programmierte Datenverarbeitung. Neue Verwaltungswerkzeuge bringen nun bessere Voraussetzungen für eine anspruchsvollere Datenverarbeitung mit und werden die ursprünglichen Big-Data-Technologien in den Hintergrund drängen. Darüber hinaus wird sich die datenstromorientierte Programmierung weiter etablieren. Diese setzt auf eine starke Parallelverarbeitung, erleichtert die Wiederverwendung von funktionalen Operatoren und unterstützt nahtlos Funktionen für Statistik und maschinelles Lernen.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*