System macht aus jeder Oberfläche Touchscreen

Ein neues System, das an der Purdue University in den USA entwickelt wird, erlaubt es, aus jeder glatten Oberfläche einen Touchscreen zu machen. Die Wissenschaftler verwenden dazu eine Kinect-Kamera, die räumliche Bewegungen aufzeichnet. [...]

Diese Informationen werden mit einem neuen 3D-Modell der menschlichen Hand kombiniert, wodurch die Handhaltung mit großer Präzision ermittelt werden kann. Der Bildschirm wird mittels eines Projektors direkt auf die Oberfläche gezeichnet. Das System erlaubt den Einsatz beider Hände und aller Finger gleichzeitig. Auch die parallele Nutzung durch mehrere Personen stellt kein Problem dar.

„Es ist, als ob überall gigantische iPads zur Verfügung stünden, auf jeder Wand in einem Haus, auf Tischen und Arbeitsflächen – und das alles ohne teure Technologie anschaffen zu müssen“, sagt Niklas Elmqvist, einer der beteiligten Forscher, in einer Aussendung. Das System ist in der Lage, User anhand ihrer Gesten zu identifizieren und Rechts- von Linkshändern zu unterscheiden. So kann das Interface auf persönliche Vorlieben Rücksicht nehmen. Die Erfahrungen der Forscher mit ersten Prototypen werden diese Woche auf einem Symposium in Cambridge präsentiert.

„Ein solches Interface ist nicht überall nützlich. Um Excel im Büro zu bedienen, eignet es sich beispielsweise nicht. Ein Massensystem wird es also eher nicht werden. Für kollaboratives Arbeiten oder die Steuerung von Geräten wie Fernsehern eignet es sich aber hervorragend. Im Heim-PC-Bereich und im Büro werden wir noch eine Zeit lang mit Maus und Tastatur auskommen müssen. Dort heißt die einzige Alternative Spracheingabe“, erklärt Matthias Schroeder von UCDplus gegenüber der Nachrichtenagentur pressetext.

Laut den Forschern beträgt die Erfolgsquote des Systems bei der Erkennung der Handhaltung eines Nutzers bereits 98 Prozent. Durch die Kinect-Kamera kann das Interface verschiedene Teile der Hand und deren Entfernung zur Oberfläche bestimmen. Das ermöglicht völlig neue Arten der Gestensteuerung. Denkbar wäre beispielsweise, dass durch Positionierung der flachen Hand über der Oberfläche ein Menü aufgerufen wird. Auch eine Teilung der Aufgaben für die rechte und linke Hand wäre machbar. Das System lässt sich auch mit einem Stift bedienen, was die Möglichkeiten zusätzlich erweitert.

„Das große Potenzial dieses System liegt einerseits in der Anwendung bei mobilen Geräten, deren Möglichkeiten durch große virtuelle Touchscreens enorm erweitert werden können, und andrerseits in der Flexibilität des Systems. Die einfache Technologie ermöglicht die Interaktion nämlich nicht nur mit den Händen, sondern auch mit Objekten. Die Kamera könnte beispielsweise ein Flugticket erkennen und dem User Informationen dazu anzeigen oder sogar das direkte Einchecken ermöglichen“, erklärt Schroeder. (pte)


Mehr Artikel

News

KI in der Softwareentwicklung

Der “KI Trend Report 2025” von Objectbay liefert Einblicke, wie generative KI entlang des Software Engineering Lifecycle eingesetzt wird. Dafür hat das Linzer Softwareentwicklungs-Unternehmen 9 KI-Experten zu ihrer Praxiserfahrung befragt und gibt Einblicke, wie der Einsatz von KI die IT-Branche verändert wird. […]

News

F5-Studie enthüllt Lücken im Schutz von APIs

APIs werden immer mehr zum Rückgrat der digitalen Transformation und verbinden wichtige Dienste und Anwendungen in Unternehmen. Gerade im Zusammenhang mit kommenden KI-basierten Bedrohungen zeigt sich jedoch, dass viele Programmierschnittstellen nur unzureichend geschützt sind. […]

News

VINCI Energies übernimmt Strong-IT

VINCI Energies übernimmt Strong-IT in Innsbruck und erweitert damit das Leistungsspektrum seiner ICT-Marke Axians. Strong-IT schützt seit mehr als zehn Jahren Unternehmen gegen digitale Bedrohungen, während Axians umfassende IT-Services einbringt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*