Automatisierung wird entscheidend für Kunden sein

In der Vergangenheit bauten Entwicklerteams Data Warehouses manuell, und Führungskräfte fokussierten sich nicht primär auf die Effizienz dieses Vorgangs. Doch mittlerweile erkennen sie, dass ein Großteil hiervon automatisiert werden kann, um die Bereitstellung von Entscheidungsdaten, die sie täglich benötigen, zu beschleunigen. [...]

Neil Barton
Neil Barton
Bereits 2017 haben Führungskräfte begonnen, das „Wie“ der Daten in Frage zu stellen, und die Automatisierung der Dateninfrastruktur sowie die Beseitigung manueller und redundanter Elemente aus dem Entwicklungsprozess rückte in den Fokus.
Die Fortschritte in den Bereichen Automatisierung, Cloud und DevOps werden im kommenden Jahr die Art und Weise verändern, wie Data Warehouses aufgebaut und verwaltet werden und wie Unternehmen mit Daten arbeiten. Zukünftig wird die Technologie endlich auf die Bedürfnisse des jeweiligen Unternehmens abgestimmt sein, und als Ergebnis allmählich der Wert realisiert werden, den Data Warehouses liefern können. 2018 wird eine zunehmende Verlagerung hin zur Integration neuer Datenplattformen zusammen mit der traditionellen relationalen Datenbank zu beobachten sein, um eine breitere Palette von Verarbeitungsfunktionen besser nutzen zu können und eine vielfältigere Informationsumgebung mit der Flexibilität und Skalierbarkeit zu bieten, die es ermöglicht, mit einem Unternehmen zu wachsen. Die Automatisierung wird für die Entwicklung und Weiterentwicklung dieser Umgebung von entscheidender Bedeutung sein.
IoT – effektive Methoden zur Analyse massiver Datenströme
Im Jahr 2018 wird sich die Zahl der Unternehmen, die IoT-Fähigkeiten in diesem Bereich nutzen, aufgrund der technologischen Fortschritte, die mit Sensoren erzielt wurden, und des Wertes, der durch die gesammelten Daten realisiert wird, weiter rapide vergrößern. Der Segen und möglicherweise auch der Fluch der atemberaubenden Geschwindigkeit, mit der Unternehmen IoT-Sensoren einsetzen, sind die riesigen Datenmengen, die bei der Verfolgung von Dingen in Echtzeit anfallen. Darüber hinaus ist die zusätzliche Komplexität der Kombination dieser riesigen Daten, die in einer Vielzahl von Formen in das Unternehmen einfließen, von großem Nutzen für die Analytik.
Im nächsten Jahr werden sich die Unternehmen weiterhin mit dem Wunsch auseinandersetzen, Daten von Sensoren im Feld zu sammeln und zu verstehen, wie diese Daten am besten genutzt werden können. Um dies zu nutzen, müssen Unternehmen Technologien implementieren, die den konstanten Datenstrom bewältigen können, und zusätzlich nach effektiveren Methoden zur Analyse der Daten suchen, wie zum Beispiel maschinelles Lernen und Deep-Learning, um einen verwertbaren Einblick zu erhalten.“
Data Lake Konzepte
Data Lakes sind kein neues Konzept, aber mit zunehmender Datenerhebung und der Notwendigkeit, all diese Rohdaten zu speichern, werden sie immer wichtiger für den Erfolg des datengetriebenen Geschäfts. 2018 wird wahrscheinlich das Jahr sein, in dem die Unternehmen beginnen zu verstehen, was „Schema-on-Use“ wirklich bedeutet und die damit verbundenen Auswirkungen auf formalisierte „data quality“-Programme und -Praktiken. Nur ein gut verwalteter Data Lake wird erfolgreich sein – der Rest verwelkt und stirbt.
Wenn ein Data Lake korrekt eingerichtet ist, kann er alle Daten und Informationen, die in einem Unternehmen gespeichert wurden, in einem dynamischen, unstrukturierten Repository speichern, das Flexibilität und schnelle Veränderungen ermöglicht und den Weg für zukünftige Self-Service-Analysen ebnet.
Datenumgebung Cloud 
Mehr Unternehmen setzen bereits auf die Cloud als bevorzugte Architektur für ihre Datenumgebung, und 2018 wird ein Wendepunkt für die Einführung sein. Cloud-first wird wahrscheinlich zur Normalität werden und selbst große Unternehmen werden diese Haltung voll und ganz akzeptieren. Die größte Herausforderung für Unternehmen, die diesen Übergang vollziehen, wird sein, wie sie den Zeitraum, in dem sie über Daten sowohl on-Premise als auch in der Cloud verfügen, bewältigen können. Wir arbeiten bereits mit Unternehmen zusammen, um automatisierte und effiziente hybride Datenumgebungen zu entwickeln und zu betreiben, und erwarten, dass diese Zahl im nächsten Jahr drastisch ansteigen wird.
*Neil Barton ist CTO bei WhereScape.

Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*