Datenexplosion

Bis 2020 soll sich die weltweite Datenmenge verfünfzigfachen. [...]

Die Datenexplosion lässt sich selbst von Wirtschaftskrisen nicht bremsen: Im Jahr 2012 wurden weltweit bereits 2,8 Zettabyte an Daten erzeugt. „Das ist mehr als alle Bücher, die jemals geschrieben wurden, in digitaler Form“, erklärte Martin Hammerschmid, Country Manager von EMC Österreich, bei der Präsentation der IDC-Studie Digital Universe. Bis 2020 soll sich die Datenmenge alle zwei Jahre verdoppeln und dann auf unvorstellbare 40 Zettabyte anwachsen. Ein Zettabyte sind 1.000.000.000.000.000.000.000 Byte – eine Zahl mit 21 Nullen. „Im Jahr 2020 wird jeder Mensch im Schnitt jährlich etwa 5.247 Gigabyte zum digitalen Universum beitragen. Das entspricht einem Wachstum von 2010 bis 2020 um das Fünfzigfache“, so Hammerschmid.

Die Ursachen für das Datenwachstum sind der weltweite Siegeszug von PC, Tablets und Smartphones, eine stark wachsende Internetnutzung in den Schwellenländern und generell die zunehmende Verbreitung vernetzter Geräte wie beispielsweise Überwachungskameras und intelligente Stromzähler. Der Anteil an von Maschinen erzeugten Daten soll von elf Prozent 2005 bis 2020 auf über 40 Prozent wachsen.

Im Gegensatz zur Datenmenge soll jedoch laut Hammerschmid die Zahl der IT-Profis nur um den Faktor 1,5 wachsen und die IKT-Ausgaben bis 2020 um prognostizierte 40 Prozent. Im Klartext heißt das, dass in Zukunft mit quasi gleichbleibenden finanziellen Mitteln ein Vielfaches der heutigen Datenmenge bewältigt werden muss. Die Ausgaben pro Gigabyte fallen in diesem Zeitraum dementsprechend von zwei auf 0,2 Dollar.

Das große Potenzial von Big Data liegt in der Gewinnung von Business-relevanten Erkenntnissen aus bisher unerschlossenen Datenquellen. Das große Problem dabei ist, dass die Mehrheit der neuen Daten in unstrukturierter Form vorliegt und daher nicht so einfach ausgewertet werden kann. Doch die Auswertbarkeit steigt: Während heute rund 23 Prozent aller Daten ausgewertet werden können, sollen bis 2020 immerhin knapp 33 Prozent des digitalen Universums für Big-Data-Analysen nutzbar sein. Um diesen Trend zu unterstützen, propagiert Hammerschmid das Berufsbild des Data Scientist, der die richtigen Fragen stellt und damit in der riesigen Datenmenge verborgene Erkenntnisse zum Vorschein bringt. (oli)


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*