Sprachsteuerung als signifikante Sicherheitsgefahr

Die Sprachsteuerungs-Features in Smartphones und anderen modernen Endgeräten gewähren deren Nutzern zwar mehr Bedienungsfreiheiten, stellen aber auch eine signifikante Sicherheitsgefahr dar. [...]

Cyber-Kriminelle können die Schwachstellen der noch relativ neuen Technologien besonders leicht ausnutzen, um sich Zugriff auf persönliche Daten zu verschaffen, böswillige Nachrichten zu verschicken oder sonstigen Schaden für die betreffenden User anzurichten. Zu diesem ernüchternden Ergebnis kommt eine aktuelle Analyse des Security-Experten AVG. Dieser kritisiert vor allem die mangelnden Sicherheitskontrollen bei der Sprachbefehleingabe und fordert die Hersteller dringend zum Nachbessern auf.

„Smartphones und Wearable-Geräte haben eine völlig neue Welt eröffnet, was die Interaktion zwischen Menschen und Computern betrifft“, stellt Yuval Ben-Itzhak, Chief Technology Officer bei AVG, auf dem Forschungs-Blog des Unternehmens fest. Sicher, es sei ein Vorteil, dass die Bedienung heute über das „bloße Erheben der Stimme“ möglich ist. „Dadurch lassen sich wichtige Dinge erledigen und man hat die Hände frei“, betont der Sicherheitsfachmann, der in diesem Zusammenhang auch auf sogenannte sprachaktivierte persönliche Assistenten à la „Siri“ oder „Google Now“ verweist. „Beide Technologien können Stimmen aufzeichnen, Sprache in Texte übersetzen und zum Ausführen von Befehlen – vom Telefonat über SMS-Nachrichten bis zu E-Mails und vieles mehr – eingesetzt werden“, erläutert Ben-Itzhak.

Aber: „Diese Technologien sind zwar aufregend, aber bei weitem nicht so sicher, wie wir glauben“, bringt der AVG-Experte die Problematik auf den Punkt. Zum Beispiel seien entsprechende Features nicht gut genug auf die individuelle Stimme der User eingestellt. „Im Grunde kann jeder über Google Now auf Ihrem Handy telefonieren, SMS verschicken oder anderen Unsinn anstellen“, warnt Ben-Itzhak: „Diese Technologien müssen wesentlich sicherer werden und genauer überprüfen, wer da überhaupt spricht!“

Den Beweis der mangelnden Sicherheit von Sprachsteuerungs-Funktionen hat Ben-Itzhak gleich selbst erbracht. So hat er eigenen Angaben zufolge mit „minimalem Aufwand“ eine gefälschte, synthetische Stimme erstellt, die jener des ursprünglichen Handy-Besitzers nachempfunden war. Damit konnte er sich mühelos Zugang zu einem Smartphone und einem Smart-TV verschaffen und dort verschiedene Steuerbefehle geben. „Diese Attacken haben funktioniert, weil diese Technologien nichts unternehmen, um die Authentizität der Stimme zu überprüfen. Es ist, als ob man seinen Computer ohne Passwortschutz lässt: Jeder kann auf ihn zugreifen und tun, was immer er will“, kritisiert Ben-Itzhak. (pte)


Mehr Artikel

News

KI in der Softwareentwicklung

Der “KI Trend Report 2025” von Objectbay liefert Einblicke, wie generative KI entlang des Software Engineering Lifecycle eingesetzt wird. Dafür hat das Linzer Softwareentwicklungs-Unternehmen 9 KI-Experten zu ihrer Praxiserfahrung befragt und gibt Einblicke, wie der Einsatz von KI die IT-Branche verändert wird. […]

News

F5-Studie enthüllt Lücken im Schutz von APIs

APIs werden immer mehr zum Rückgrat der digitalen Transformation und verbinden wichtige Dienste und Anwendungen in Unternehmen. Gerade im Zusammenhang mit kommenden KI-basierten Bedrohungen zeigt sich jedoch, dass viele Programmierschnittstellen nur unzureichend geschützt sind. […]

News

VINCI Energies übernimmt Strong-IT

VINCI Energies übernimmt Strong-IT in Innsbruck und erweitert damit das Leistungsspektrum seiner ICT-Marke Axians. Strong-IT schützt seit mehr als zehn Jahren Unternehmen gegen digitale Bedrohungen, während Axians umfassende IT-Services einbringt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*