„Big Data“: Rohstoff der Informationsgesellschaft

Soziale Netzwerke, Internet-Suche, Verkehrsinfos in Echtzeit: In der Informationsgesellschaft fallen immer mehr Daten an. Die Analyse dieser "Big Data" birgt Risiken für den Schutz der Privatsphäre, kann nach Auffassung von Forschern aber auch das Alltagsleben einfacher machen. Eine Konferenz in Hildesheim befasste sich jetzt mit Datenströmen von ständig neu erfassten Messwerten. [...]

„Hier sind am Horizont Möglichkeiten für intelligente Anwendungen zu erkennen, deren Potenzial kaum absehbar ist“, sagte der Informatiker Lars Schmidt-Thieme zum Abschluss der Konferenz „Data Analysis, Machine Learning and Knowledge Discovery“ am Freitag in Hildesheim. So könnte etwa die Echtzeit-Auswertung von Sensordaten im Auto die Unfallrisiken im Verkehr deutlich verringern. Bereits in zehn Jahren könnte das vollautomatische Autofahren denkbar sein.
„Jede Lenkbewegung und Pedalbewegung, jeder Schaltvorgang und die präzise Erfassung des Benzinverbrauchs – das sind alles interessante Dinge, die man miteinander verknüpfen kann und mit deren Hilfe man das Fahrverhalten optimieren kann“, erklärte der Professor der Uni Hildesheim, der als Experte für Wirtschaftsinformatik und maschinelles Lernen die dreitägige Konferenz der Deutschen Gesellschaft für Klassifikation (GfKl) geleitet hat. Allein bei Anwendungen im Verkehrswesen könne man heute noch kaum überblicken, was durch eine automatische Steuerung von Fahrzeugen einmal möglich sein werde.
Die Aufbereitung von Echtzeitdaten der aktuellen Verkehrsentwicklung steht auch im Zentrum eines von der EU geförderten Forschungsprojekts an der Universität Hildesheim: Die an „Reduction“ beteiligten Wissenschaftler aus fünf Ländern wollen bis 2014 ein Navigationssystem entwickeln, das Autofahrer so an ihr Ziel führt, dass dabei möglichst wenig CO2-Emissionen entstehen.
Als weiteres Beispiel für die praktische Nutzung der Analyse von Datenströmen nannte Schmidt-Thieme die Möglichkeit einer personalisierten Therapie in der Medizin. So lasse sich eine Medikation mit Hilfe von kontinuierlich erfassten Sensordaten ungleich präziser steuern als bisher. Die Analyse von Datenströmen ermögliche eine erhebliche Effizienzsteigerung und senke damit auch die Kosten.
Die Auswertung von Datenströmen war einer der Schwerpunkte der Konferenz, an der 180 Informatiker, Statistiker, Betriebswirte, Bioinformatiker und andere Wissenschaftler aus 23 verschiedenen Ländern teilnahmen. Das Thema „Big Data“, also der intelligente Umgang mit großen Datenmengen, werde oft nur im Zusammenhang mit kritischen Fragen wie der Gefährdung der Privatsphäre gesehen, sagte Schmidt-Thieme im Gespräch mit der Nachrichtenagentur dpa. Jede Technologie könne aber zum Guten wie zum Schlechten eingesetzt werden.
So war Anfang Juni die Empörung groß, als ein Forschungsprojekt des Hasso-Plattner-Instituts mit der Wirtschaftsauskunftei Schufa bekannt wurde, bei dem es um die Nutzung von Facebook-Daten für die Bewertung der Bonität von Kreditkunden ging. Die Pläne wurden schnell gestoppt. „Das Forschungsprojekt hat eine Debatte über den Umgang mit frei verfügbaren Daten angestoßen, die die Schufa erst mit Vorlage der Forschungsergebnisse erwartet hätte“, erklärte das Unternehmen damals.
Die gesellschaftliche Debatte darüber, wie wir mit den Datenmengen umgehen, sei sehr wichtig, betonte Schmidt-Thieme. „Wir müssen jedes System auch dahingehend prüfen, inwieweit es missbraucht werden kann.“ Gegenmodell ist das „Privacy-Preserving Data Mining“: Hier kommt es darauf an, die Analyse so anzulegen, dass keine Rückschlüsse auf personenbezogene Daten möglich sind.
Nicht die Schwächung, sondern die Stärkung von Grundrechten und Demokratie erhoffen sich die Aktivisten der Open-Data-Bewegung, welche die Bereitstellung von Datenbeständen aus der öffentlichen Verwaltung anstrebt. „Wenn man Daten in verschiedenen Kontexten miteinander verknüpft, erkennt man Zusammenhänge, die man vorher nicht hatte“, erklärt Christian Horchert vom Open Data Network. „So kann man auch die Wirkungszusammenhänge von politischen Entscheidungen besser nachvollziehen.“ (apa/dpa)

Mehr Artikel

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*