Bewegungserfassung: System zieht User aus

Ein internationales Forscher-Team hat mit "DoubleFusion" ein System zur Bewegungserfassung entwickelt, das den Nutzer gleichzeitig auch virtuell auszieht. [...]

Das System "DoubleFusion" digitalisiert die Körperform anstatt der Kleidung. (c) liuyebin.com
Das System "DoubleFusion" digitalisiert die Körperform anstatt der Kleidung. (c) liuyebin.com

Der Sinn dahinter ist, unabhängig von der getragenen Kleidung wirklich nur die menschlichen Körperformen zu digitalisieren. Das könnte dem Team zufolge diverse Anwendungen in den Bereichen AR und VR, Gaming, Unterhaltung oder auch für virtuelles Klamotten-Shoppen haben.

Echte Formen statt Kleidung

Für professionelle Motion-Capture-Verfahren in der Unterhaltungsindustrie müssen Darsteller hautenge, dünne Anzüge tragen. Denn andere Kleidung wie Jeans, schlabbrige Shirts oder gar Röcke würden zu Unsicherheiten bei der Erfassung der eigentlichen Körperform führen. Das anlässlich der diesjährigen Conference on Computer Vision and Pattern Recognition vorgestellte System dient nun dazu, bei der Bewegungserfassung trotz Alltagskleidung nur den tatsächlichen Körper zu erfassen. „Mit DoubleFusion können sich User erstmals leicht selbst digitalisieren“, meint daher das Team in seinem Paper für die Fachkonferenz.

Das System baut darauf auf, dass Kameras, die Tiefeninformationen erfassen, immer größere Verbreitung finden. Bisherige Ansätze, eben damit Körper zu digitalisieren, hatten aber noch Probleme mit schnellen Bewegungen und Kleidung. DoubleFusion setzt nun darauf, anhand der Tiefendaten und mithilfe der Verfolgung von Gelenken ein plausibles Skelett abzuschätzen und dann ein passendes Körpermodell darum aufzubauen. Dabei bereitet relativ dicke Kleidung noch Probleme, da das System diese eher als mehr Körpermasse interpretiert – also zu breite Körperformen erstellt.

Weitere Verfeinerungen als Ziel

In der aktuellen Form kann DoubleFusion gehaltene Gegenstände, wie beispielsweise einen Joystick, nicht erkennen und würde daraus seltsame Körperfortsätze machen. Doch will das Team unter Leitung der Tsinghua University sich in Zukunft damit beschäftigen, wie die Interaktion von Personen mit Gegenständen aufgelöst werden kann. Denn die Forscher sind vom Potenzial der Entwicklung überzeugt. Das scheint auch plausibel. Bei einer virtuellen 3D-Ankleide für den Online-Einkauf beispielsweise wäre es ganz praktisch, weder einen Spezialanzug zu benötigen noch tatsächlich Nacktaufnahmen über das Internet übertragen zu müssen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*