Google ist laut Experten bei Datenbrille unsicher

Google ist nach Einschätzung des Technologieexperten Robert Scoble aufgeschreckt durch die Debatte um Auswirkungen der Datenbrille Google Glass auf die Privatsphäre. [...]

„Man merkt, dass Google bei diesem Produkt mulmig ist“, sagte Scoble am Mittwoch auf der Next Konferenz in Berlin. „Sie haben versucht, es so zu gestalten, dass es die Leute nicht verschreckt.“ Scoble ist einer der ersten Testnutzer der Datenbrille. Er bemerke die Brille die meiste Zeit gar nicht, erzählte Scoble. „Das ist schon ein Teil meines Lebens. Ich bin mir ziemlich sicher, dass ich keinen Tag haben werde, an dem ich so etwas nicht trage.“ Scoble beobachtet für den Speicherplatzanbieter Rackspace Innovationen im Technologiebereich. Tausende Menschen verfolgen seine Berichte in Sozialen Netzwerken.
Google Glass wird ähnlich einer Brille getragen. Ein kleiner Bildschirm blendet Informationen vor das Auge des Trägers ein, mit einer Kamera können Fotos und Videos aufgenommen werden. Dann leuchtet ein kleines Lämpchen auf. Seine Brille sei nicht die ganze Zeit eingeschaltet, sagte Scoble. Stattdessen mache er den Minicomputer gezielt an, etwa wenn er ein Foto knipsen wolle. Er hoffe, dass bald weitere Funktionen hinzukommen. Derzeit zeige die Datenbrille vor allem Informationen zu eingehenden Anrufen und E-Mails an.
Scoble erwartet schon bald einen radikalen Preisverfall, was die futuristischen Minicomputer auch für Normalnutzer interessant machen würde. „Das wird in zwei, drei Jahren 200 Dollar kosten“, sagte Scoble über Google Glass. Die Brillen könnten zum Massenprodukt werden, wenn sie auch für reguläre Nutzer erschwinglich wären. „Sie werden es ziemlich schnell in Massenauflage produzieren können“, meinte Scoble über Google. Derzeit kosten Testgeräte für ausgewählte Nutzer 1.500 Dollar (1.155 Euro).


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*