„Big Data“: Rohstoff der Informationsgesellschaft

Soziale Netzwerke, Internet-Suche, Verkehrsinfos in Echtzeit: In der Informationsgesellschaft fallen immer mehr Daten an. Die Analyse dieser "Big Data" birgt Risiken für den Schutz der Privatsphäre, kann nach Auffassung von Forschern aber auch das Alltagsleben einfacher machen. Eine Konferenz in Hildesheim befasste sich jetzt mit Datenströmen von ständig neu erfassten Messwerten. [...]

„Hier sind am Horizont Möglichkeiten für intelligente Anwendungen zu erkennen, deren Potenzial kaum absehbar ist“, sagte der Informatiker Lars Schmidt-Thieme zum Abschluss der Konferenz „Data Analysis, Machine Learning and Knowledge Discovery“ am Freitag in Hildesheim. So könnte etwa die Echtzeit-Auswertung von Sensordaten im Auto die Unfallrisiken im Verkehr deutlich verringern. Bereits in zehn Jahren könnte das vollautomatische Autofahren denkbar sein.
„Jede Lenkbewegung und Pedalbewegung, jeder Schaltvorgang und die präzise Erfassung des Benzinverbrauchs – das sind alles interessante Dinge, die man miteinander verknüpfen kann und mit deren Hilfe man das Fahrverhalten optimieren kann“, erklärte der Professor der Uni Hildesheim, der als Experte für Wirtschaftsinformatik und maschinelles Lernen die dreitägige Konferenz der Deutschen Gesellschaft für Klassifikation (GfKl) geleitet hat. Allein bei Anwendungen im Verkehrswesen könne man heute noch kaum überblicken, was durch eine automatische Steuerung von Fahrzeugen einmal möglich sein werde.
Die Aufbereitung von Echtzeitdaten der aktuellen Verkehrsentwicklung steht auch im Zentrum eines von der EU geförderten Forschungsprojekts an der Universität Hildesheim: Die an „Reduction“ beteiligten Wissenschaftler aus fünf Ländern wollen bis 2014 ein Navigationssystem entwickeln, das Autofahrer so an ihr Ziel führt, dass dabei möglichst wenig CO2-Emissionen entstehen.
Als weiteres Beispiel für die praktische Nutzung der Analyse von Datenströmen nannte Schmidt-Thieme die Möglichkeit einer personalisierten Therapie in der Medizin. So lasse sich eine Medikation mit Hilfe von kontinuierlich erfassten Sensordaten ungleich präziser steuern als bisher. Die Analyse von Datenströmen ermögliche eine erhebliche Effizienzsteigerung und senke damit auch die Kosten.
Die Auswertung von Datenströmen war einer der Schwerpunkte der Konferenz, an der 180 Informatiker, Statistiker, Betriebswirte, Bioinformatiker und andere Wissenschaftler aus 23 verschiedenen Ländern teilnahmen. Das Thema „Big Data“, also der intelligente Umgang mit großen Datenmengen, werde oft nur im Zusammenhang mit kritischen Fragen wie der Gefährdung der Privatsphäre gesehen, sagte Schmidt-Thieme im Gespräch mit der Nachrichtenagentur dpa. Jede Technologie könne aber zum Guten wie zum Schlechten eingesetzt werden.
So war Anfang Juni die Empörung groß, als ein Forschungsprojekt des Hasso-Plattner-Instituts mit der Wirtschaftsauskunftei Schufa bekannt wurde, bei dem es um die Nutzung von Facebook-Daten für die Bewertung der Bonität von Kreditkunden ging. Die Pläne wurden schnell gestoppt. „Das Forschungsprojekt hat eine Debatte über den Umgang mit frei verfügbaren Daten angestoßen, die die Schufa erst mit Vorlage der Forschungsergebnisse erwartet hätte“, erklärte das Unternehmen damals.
Die gesellschaftliche Debatte darüber, wie wir mit den Datenmengen umgehen, sei sehr wichtig, betonte Schmidt-Thieme. „Wir müssen jedes System auch dahingehend prüfen, inwieweit es missbraucht werden kann.“ Gegenmodell ist das „Privacy-Preserving Data Mining“: Hier kommt es darauf an, die Analyse so anzulegen, dass keine Rückschlüsse auf personenbezogene Daten möglich sind.
Nicht die Schwächung, sondern die Stärkung von Grundrechten und Demokratie erhoffen sich die Aktivisten der Open-Data-Bewegung, welche die Bereitstellung von Datenbeständen aus der öffentlichen Verwaltung anstrebt. „Wenn man Daten in verschiedenen Kontexten miteinander verknüpft, erkennt man Zusammenhänge, die man vorher nicht hatte“, erklärt Christian Horchert vom Open Data Network. „So kann man auch die Wirkungszusammenhänge von politischen Entscheidungen besser nachvollziehen.“ (apa/dpa)

Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*