Wie man künstliche Intelligenz kompakt und ressourcenschonend in technische Systeme einbetten kann, wird nun an einem neuen Christian-Doppler-Labor an der TU Wien untersucht. [...]
Unsere Computer lernen dazu. „Machine Learning“ ist eines der großen Zukunftsthemen in der IT-Industrie. Man lässt einen Computer nicht einfach nur eine Serie vorgefertigter Befehle abarbeiten, sondern entwickelt Systeme, die trainiert werden und dazulernen können. So lassen sich Aufgaben bewältigen, die auf andere Weise kaum lösbar werden, etwa im Bereich der Bilderkennung.
Meistens sind die Hardwareanforderungen dafür allerdings sehr groß. Man verwendet Hochleistungscomputer oder sogar große Computercluster. An der TU Wien wählt man nun einen praxistauglicheren Weg: In einem neuen Christian-Doppler-Labor wird nun untersucht, wie man Machine Learning auf möglichst effiziente und ressourcenschonende Weise in „Embedded Systems“ nutzen kann – das sind elektronische Rechner, die oft auf kompakte, kaum sichtbare Weise in verschiedensten Geräten eingebaut sein können, vom Auto bis zur Fertigungsanlage in der Industrie. So wird künstliche Intelligenz Schritt für Schritt in unserem Alltag Einzug halten.
Wirtschaftsministerium fördert Innovation
Am 2. März 2020 wird das neue Labor eröffnet. Unterstützt wird das neue Labor vom Bundesministerium für Digitalisierung und Wirtschaftsstandort (BMDW) und den Firmenpartnern Mission Embedded GmbH, Siemens Österreich und AVL List. Als wissenschaftlicher Partner ist auch die TU Graz am Projekt beteiligt.
„Um die Digitalisierung auf den Boden zu bringen, braucht es konkrete Lösungen, die vor Ort und auch unter widrigen Bedingungen funktionieren“, betont Margarete Schramböck, Bundesministerin für Digitalisierung und Wirtschaftsstandort. „Für automatische Verkehrslenkung etwa müssen Ampeln mit wenig Strom und Speicherplatz lebenslang lernen, und sich bei jedem Wetter an ihre Umgebung anpassen können. Damit das funktioniert und Österreich vorne dabei sein kann, braucht es Grundlagenforschung in künstlicher Intelligenz und Maschinellem Lernen wie in diesem CD-Labor: Es entsteht neues Wissen, das die Wissenschaft voranbringt und bei den Unternehmenspartnern in neue Produkte einfließen kann. Das nutzt allen Beteiligten und bringt Fortschritt für unsere Gesellschaft.“
Neuronale Netze
„Die Grundidee von Machine Learning ist recht einfach: Wir schicken einen bestimmten Input in ein Computersystem, zum Beispiel ein Bild. Und das System liefert dann einen bestimmten Output – zum Beispiel, ob auf dem Bild ein Hund oder eine Katze zu sehen ist“, erklärt Prof. Axel Jantsch. „Beim Machine Learning geht es also darum, die inneren Eigenschaften des Systems Schritt für Schritt so anzupassen, dass es immer den richtigen Output liefert.“
Das gelingt mit neuronalen Netzen – einer Technik, die biologischen Nervensystemen nachempfunden ist. Wenn wir etwas lernen, werden bestimmte Nervenzellen angeregt, die mit anderen Nervenzellen verbunden sind, die dadurch ebenfalls angeregt werden. Während des Lernprozesses verändern sich die Verbindungen zwischen den Nervenzellen. Auf ähnliche Weise verändert man beim Machine Learning die Verbindungen zwischen den Knotenpunkten eines digitalen Netzes. Wenn das Netz auf die richtige Weise mit riesengroßen Datenmengen trainiert wird, kann es danach hochkomplizierte Aufgaben lösen.
Beschränkte Ressourcen
„Wenn wir heute über spektakuläre Erfolge in der künstlichen Intelligenz lesen, dann stecken dahinter oft neuronale Netze, berechnet mit ungeheurer Computerleistung“, sagt Axel Jantsch. „In der Praxis muss man aber oft mit beschränkten Ressourcen auskommen. Energie, Speicherplatz und Rechenzeit sind nicht in unbegrenztem Maß verfügbar.“
Ein Beispiel dafür ist das selbstfahrende Auto: Es kann seine Bilddaten nicht ständig auf einen Hochleistungs-Server hochladen, um dort von neuronalen Netzen ermitteln zu lassen, ob es jetzt bremsen muss oder nicht. Die Daten müssen vor Ort verarbeitet werden – und zwar innerhalb kurzer Zeit, mit hoher Verlässlichkeit. Typischerweise geschieht das in einer kleinen Box etwa hinter dem Rückspiegel, mit begrenzter Kapazität und limitiertem Stromverbrauch.
Um ressourcensparendes Machine Learning in bestehende Technologie zu integrieren, darf man sich nicht nur auf die Entwicklung von Software beschränken. „In unserem neuen CD-Labor forschen wir daran, wie man Hardware am besten konfigurieren kann“, erklärt Axel Jantsch. Welche Chips eignen sich für welche Anwendung? Welche Rechnerarchitektur sollte man verwenden? Welche Plattformen und Tools ermöglichen die höchste Effizienz?
Im Zentrum der Forschung an der TU Wien steht Bildanalyse und Objekterkennung. Die Einsatzbereiche für solche Technologien sind vielfältig, sie reichen vom adaptiven Regeln von Raum und Gebäudeklima über selbstfahrende Autos bis zur Qualitätskontrolle bei Produktionsanlagen in der Industrie und personalisierter Sensorik zur Analyse von Körpersignalen in der Medizin und Sport. „Wir sehen, dass die Nachfrage nach solchen Technologien, aber auch nach jungen Leuten mit Ausbildung in diesem Bereich sehr groß ist“, sagt Jantsch. „Österreichs Wirtschaft könnte schneller wachsen, wenn es hier mehr Aktivität gäbe. Dafür wollen wir mit unserem Forschungsprojekt einen Beitrag leisten.“
Be the first to comment