Mit KI zum neuen Bilderlebnis

Maschinelles Lernen (ML) gilt als Schlüsseltechnologie der künstlichen Intelligenz (KI) und hält Einzug in eine immer größer werdende Zahl von Systemen und Anwendungen. Dank Maschinellen Lernens können Fotos und Videos auf völlig neue Weise analysiert, interpretiert und gestaltet werden. [...]

Beispiel für einen Style Transfer in der MaeSTrO App. (c) obs – HPI Hasso-Plattner-Institut
Beispiel für einen Style Transfer in der MaeSTrO App. (c) obs – HPI Hasso-Plattner-Institut

Am Hasso-Plattner-Institut (HPI) in Potsdam forscht ein Team von Wissenschaftlern am Fachgebiet Computergrafische Systeme unter der Leitung von Jürgen Döllner im Bereich „Visual Media Analytics“ an solchen ML-Verfahren. Mit ihnen ermöglichen sie beispielsweise die schnelle und interaktive Übertragung verschiedener Kunststile – auch bekannt als „Style Transfer“ – auf Fotos und Videos.

Beim Style Transfer wird ein neuronales Netzwerk mit einer Vielzahl an Gemälden und Kunstwerken trainiert, um Muster und Merkmale verschiedener Künstler zu erlernen. Dafür werden die Bilddaten auf mehreren Abstraktionsstufen, von der Objektebene bis ins kleinste Detail, analysiert. Grafische Elemente der erlernten Kunststile werden dann automatisiert und pixelscharf auf das jeweilige Foto übertragen. Die Ergebnisse besitzen grafische Züge der entsprechenden Wissensbasis, d.h. sie bekommen dadurch Züge der Kunstwerke, die als Wissensbasis verwendet wurden.

Ein großer Nachteil dieses Ansatzes war bislang, dass ausschließlich Farben und Strukturen eines künstlerischen Stils erlernt wurden, nicht jedoch weit umfangreichere Designaspekte, die die Komposition eines Kunstwerks berücksichtigen. So wird z. B. der Farbstil des Sternenhimmels in van Gogh’s „The Starry Night“ fälschlicherweise auf Wiesen und Wälder übertragen. Ziel der HPI-Forschung war es den Style Transfer von einem automatischen „Black-Box“-Prozess zu einem interaktiven Werkzeug auf Basis von Visual Media Analytics weiterzuentwickeln.

Künstliche Intelligenz ermöglicht es auch, das Geschehen in einem Video zu analysieren und dann die Dynamik in einem einzelnen Bild zu stilisieren. Wie ein solches neuartiges Abstraktionsverfahren aussehen kann, stellten Max Reimann und Sumit Shekhar 2019 auf der SIGGRAPH – der Aussenderinformationen zufolge weltweit führenden Konferenz und Fachmesse für Computergrafik und interaktive Techniken – in Los Angeles vor. Die App berechnet Bewegungsinformationen zu einem Videoclip und fasst diese in einem abstrahierten „Live-Foto“ zusammen, um Dynamik stilistisch zu visualisieren.

Die Wissenschaftler des HPI-Fachgebiets Computer Graphische Systeme publizieren regelmäßig auf renommierten Konferenzen und Symposien; auf der SIGGRAPH Asia 2017 wurden gleich zwei Arbeiten auf dem „Symposium for Mobile Graphics and Interactive Applications“ ausgezeichnet. Co-Author ist unter anderem Sebastian Pasewaldt, HPI-Doktorand und CEO des Unternehmens Digital Masterpieces (www.digitalmasterpieces.com), das er 2013 mit einem weiteren HPI-Absolventen gründete. Das HPI-Startup entwickelt Kunst– und Fotobearbeitungs-Apps wie BeCasso, Clip2Comic oder ArtCard für iPhone und iPad, die auch für Grafiker, Künstler und Buchillustratoren immer attraktiver werden. „Wir beobachten, dass unsere interaktiven Apps zunehmend auch Künstler und Kreative bei ihrer Arbeit unterstützen“, so Pasewaldt. Ausschlaggebend für den Wandel sei zum einen die enorme Verarbeitungsgeschwindigkeit der umgesetzten Techniken und das vielfältige Angebot unterschiedlicher Kunststile in einer App sowie die exzellente Ausgabequalität und einfache Bedienbarkeit.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*