Forscher der Purdue Universität arbeiten derzeit an einem neuen Ansatz, der mobile Geräte Objekte in Fotos identifizieren und beschreiben lässt. [...]
Damit könnte die zeitaufwendige Suche durch hunderte von Fotos auf den mobilen Geräten bald ein Ende haben. Die Eingabe eines Stichwortes zur Beschreibung des gesuchten Bildes wird dann genügen. Die Ergebnisse zeigen, dass diese Technologie 15 Mal effizienter ist als diejenige konventioneller Grafik-Prozessoren. Ziel ist eine weitere Steigerung der lernfähigen Smartphones um das Zehnfache.
Für die Technologie bedarf es Maschinen, die wie das menschliche Gehirn funktionieren, so die Experten. Das Verarbeiten von Information, das Erkennen und schließlich die Begriffsbezeichnung, bedürfen umfassender Rechenleistung. Obwohl das Prinzip durch das Taggen bei Objekten und Fotos im Internet bereits Anwendung findet, wurde der neue Ansatz im mobilen Bereich bislang noch nicht angewendet.
Die Funktionsweise ist einfach: Ein Software-Algorithmus scannt ein Bild und zerteilt es. So wird ein Gesicht in viele kleine Schichten geschnitten – Augen, Nase, Mund und anderes wird berücksichtigt. Der Algorithmus analysiert in der Folge jede Schicht und identifiziert das Bild am Ende. Danach wird es vom Programm indexiert und ein geeigneter Name vergeben.
Die Anwendung ist jedoch nicht auf die Bildersuche in Smartphones beschränkt, sagt Forscher Eugenio Culurciello. Die Innovation könnte auch in neuen Technologien der erweiterten Realität, wie Google Glass, bei Gesichtserkennungssystemen oder eigenständig fahrenden Autos Anwendung finden. Auch im medizinischen Bereich gibt es Anwendungsgebiete. So könnten in der Diagnostik und Früherkennung die Maschinen eingesetzt werden, um medizinische Bilder nach Anomalien zu durchsuchen. (pte)
Be the first to comment