Künstliche Intelligenz und maschinelles Lernen brauchen gewaltige Datenmengen. Die Verbindung von Big Data und Machine Learning ist eines der Hauptthemen der Informatik-Fachtagung zum Datenbanktechnologie und Wissensmanagement in Wien. [...]
Daten werden immer mehr zum wichtigen Rohstoff für Forschung und Wirtschaft. Künstliche Intelligenz beruht heute oft auf Machine Learning. Das bedeutet, dass Algorithmen anhand großer Datenmengen selbstständig dazulernen und sich selbst verbessern. Diese Methode setzt man heute in ganz unterschiedlichen Fachbereichen ein, etwa bei der Analyse medizinischer 3D-Bilddaten oder auch beim Untersuchen von Satellitenbildern.
Viele Techniken, die in der Forschung wichtig sind, von der DNA-Analyse bis zur Elektronenmikroskopie, erfordern einen effizienten Umgang mit riesigen Datenmengen. Unsere Datenbanken müssen intelligenter werden, um komplexere Abfragen zu ermöglichen. Eine der wichtigsten internationalen Tagungen zu Datenmanagement und Datentheorie findet nun vom 26. bis 29. März in Wien statt. Gleich zwei Konferenzen werden dabei vereint: die „International Conference on Extending Database Technology“ (EDBT) und die „International Conference on Database Theory“ (ICDT). Beide konnten von Reinhard Pichler vom Institut für Logic and Computation der TU Wien nach Wien geholt werden.
Daten intelligent verknüpfen
Reinhard Pichler leitet an der TU Wien den Forschungsbereich „Database and Artificial Intelligence“. Ein wichtiger Forschungsschwerpunkt seiner Gruppe ist die Informationsintegration: „Viele Unternehmen haben das Problem, dass sie ihre Daten in heterogenen Quellen abgespeichert haben, zum Beispiel in unterschiedlich organisierten Datenbanken. Wenn man Informationen aus diesen heterogenen Datenquellen zusammenführen oder auch nur abfragen möchte, kann es zu Inkonstistenzen kommen“, erklärt Pichler. „Das ist derzeit ein sehr wichtiges Forschungsgebiet in der Datenbank-Community. Wie soll man zum Beispiel vorgehen, wenn die Daten aus zwei verschiedenen Krankenhäusern zusammengeführt werden?“
Wenn man es mit sehr großen Datenmengen zu tun hat, muss man manchmal das Ziel aufgeben, die perfekte Antwort auf eine bestimmte Frage zu finden. Oft erreicht man die nötige Geschwindigkeit und Effizienz nur dann, wenn man sich stattdessen mit einer vernünftigen Näherungslösung zufrieden gibt. So spielen auch statistische Methoden in der Theorie der Datenbanken eine immer wichtigere Rolle. Auch Deep Learning ist ein Forschungsgebiet, das sich derzeit rasant entwickelt: Nach dem Vorbild der Nervenzellen im Gehirn, die einander in einem komplexen Netzwerk gegenseitig beeinflussen, versucht man, mit künstlichen Neuronalen Netzwerken lernfähige Computersysteme herzustellen.
Einer der prominenten Vortragenden, die zur Konferenz nach Wien kommen werden, ist Peter Haas, ein Informatiker mit familiären Wurzeln in Wien, der derzeit an der Universität von Massachusetts in Amherst forscht. „Das Ziel ist es nicht nur, das Anwendungsgebiet und die Effizienz der Algorithmen selbst zu verbessern, sondern auch ihre Verwertbarkeit für Analytiker um rationale Entscheidungsfindung zu unterstützen“, sagt Haas. Ein weiterer „Invited Speaker“ ist Chris Jermaine von der Rice University in Houston. Er beschäftigt sich mit Daten-Analytik und entwickelt Tools, mit denen man große Datenmengen analysieren, speichern, abfragen und manipulieren kann.
Georg Gottlob: Wien-Oxford-Wien
Im Rahmen der Konferenz findet auch ein Workshop zu Ehren von Professor Georg Gottlob statt, der vergangenes Jahr mit der Ada Lovelace Medal ausgezeichnet wurde, dem wichtigsten Informatik-Preis Großbritanniens. Nach 11 Jahren an der Universität Oxford kehrte Gottlob 2017 nach Wien zurück, wo er derzeit Sprecher des vom Wissenschaftsfonds FWF geförderten Doktoratskollegs für Logische Methoden in der Informatik – LogiCS ist. Gottlob ist auch Träger des Wittgenstein-Preises, und ERC Advanced Grant, Fellow mehrerer Akademien, darunter die Royal Society, sowie Fellow der Association for Computing Machinery (ACM). Auch während seiner Zeit in Oxford blieb Gottlob eng mit der TU Wien verbunden und arbeitete intensiv mit Reinhard Pichler und Thomas Eiter zusammen. Derzeit forscht Georg Gottlob mit Reinhard Pichler an neuen Methoden zur Query Decomposition, die zu schnelleren Algorithmen zur Beantwortung komplexer Datenbankabfragen führen sollen.
Be the first to comment