„Big Data“: Rohstoff der Informationsgesellschaft

Soziale Netzwerke, Internet-Suche, Verkehrsinfos in Echtzeit: In der Informationsgesellschaft fallen immer mehr Daten an. Die Analyse dieser "Big Data" birgt Risiken für den Schutz der Privatsphäre, kann nach Auffassung von Forschern aber auch das Alltagsleben einfacher machen. Eine Konferenz in Hildesheim befasste sich jetzt mit Datenströmen von ständig neu erfassten Messwerten. [...]

„Hier sind am Horizont Möglichkeiten für intelligente Anwendungen zu erkennen, deren Potenzial kaum absehbar ist“, sagte der Informatiker Lars Schmidt-Thieme zum Abschluss der Konferenz „Data Analysis, Machine Learning and Knowledge Discovery“ am Freitag in Hildesheim. So könnte etwa die Echtzeit-Auswertung von Sensordaten im Auto die Unfallrisiken im Verkehr deutlich verringern. Bereits in zehn Jahren könnte das vollautomatische Autofahren denkbar sein.
„Jede Lenkbewegung und Pedalbewegung, jeder Schaltvorgang und die präzise Erfassung des Benzinverbrauchs – das sind alles interessante Dinge, die man miteinander verknüpfen kann und mit deren Hilfe man das Fahrverhalten optimieren kann“, erklärte der Professor der Uni Hildesheim, der als Experte für Wirtschaftsinformatik und maschinelles Lernen die dreitägige Konferenz der Deutschen Gesellschaft für Klassifikation (GfKl) geleitet hat. Allein bei Anwendungen im Verkehrswesen könne man heute noch kaum überblicken, was durch eine automatische Steuerung von Fahrzeugen einmal möglich sein werde.
Die Aufbereitung von Echtzeitdaten der aktuellen Verkehrsentwicklung steht auch im Zentrum eines von der EU geförderten Forschungsprojekts an der Universität Hildesheim: Die an „Reduction“ beteiligten Wissenschaftler aus fünf Ländern wollen bis 2014 ein Navigationssystem entwickeln, das Autofahrer so an ihr Ziel führt, dass dabei möglichst wenig CO2-Emissionen entstehen.
Als weiteres Beispiel für die praktische Nutzung der Analyse von Datenströmen nannte Schmidt-Thieme die Möglichkeit einer personalisierten Therapie in der Medizin. So lasse sich eine Medikation mit Hilfe von kontinuierlich erfassten Sensordaten ungleich präziser steuern als bisher. Die Analyse von Datenströmen ermögliche eine erhebliche Effizienzsteigerung und senke damit auch die Kosten.
Die Auswertung von Datenströmen war einer der Schwerpunkte der Konferenz, an der 180 Informatiker, Statistiker, Betriebswirte, Bioinformatiker und andere Wissenschaftler aus 23 verschiedenen Ländern teilnahmen. Das Thema „Big Data“, also der intelligente Umgang mit großen Datenmengen, werde oft nur im Zusammenhang mit kritischen Fragen wie der Gefährdung der Privatsphäre gesehen, sagte Schmidt-Thieme im Gespräch mit der Nachrichtenagentur dpa. Jede Technologie könne aber zum Guten wie zum Schlechten eingesetzt werden.
So war Anfang Juni die Empörung groß, als ein Forschungsprojekt des Hasso-Plattner-Instituts mit der Wirtschaftsauskunftei Schufa bekannt wurde, bei dem es um die Nutzung von Facebook-Daten für die Bewertung der Bonität von Kreditkunden ging. Die Pläne wurden schnell gestoppt. „Das Forschungsprojekt hat eine Debatte über den Umgang mit frei verfügbaren Daten angestoßen, die die Schufa erst mit Vorlage der Forschungsergebnisse erwartet hätte“, erklärte das Unternehmen damals.
Die gesellschaftliche Debatte darüber, wie wir mit den Datenmengen umgehen, sei sehr wichtig, betonte Schmidt-Thieme. „Wir müssen jedes System auch dahingehend prüfen, inwieweit es missbraucht werden kann.“ Gegenmodell ist das „Privacy-Preserving Data Mining“: Hier kommt es darauf an, die Analyse so anzulegen, dass keine Rückschlüsse auf personenbezogene Daten möglich sind.
Nicht die Schwächung, sondern die Stärkung von Grundrechten und Demokratie erhoffen sich die Aktivisten der Open-Data-Bewegung, welche die Bereitstellung von Datenbeständen aus der öffentlichen Verwaltung anstrebt. „Wenn man Daten in verschiedenen Kontexten miteinander verknüpft, erkennt man Zusammenhänge, die man vorher nicht hatte“, erklärt Christian Horchert vom Open Data Network. „So kann man auch die Wirkungszusammenhänge von politischen Entscheidungen besser nachvollziehen.“ (apa/dpa)

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*