Datenschutzbedenken bei Meta AI und Ray-Ban Meta Smart Glasses: Externe Prüfer sehen private Aufnahmen
Ein aktueller Bericht, veröffentlicht von zwei schwedischen Zeitungen (Svenska Dagbladet und Göteborgs-Posten), enthüllt gravierende Datenschutzprobleme im Zusammenhang mit der visuellen KI-Funktion der Ray-Ban Meta Smart Glasses. Demnach können externe Subunternehmer, die die Antworten der Meta AI überprüfen, unbeabsichtigt auf hochintime und private Bild- und Videodaten von Nutzern zugreifen.
Das Kernproblem liegt nicht in der regulären Foto- und Videoaufnahmefunktion der Brillen, deren Inhalte direkt mit dem Smartphone des Nutzers synchronisiert und nicht von Meta eingesehen werden. Vielmehr betrifft es die visuelle Abfragefunktion der Meta AI, die auf Zuruf des Nutzers ("Hey Meta, schau und erzähl mir…") einen Frame aufnimmt, um eine Antwort zu generieren.
Ein Teil dieser AI-Antworten wird zur Qualitätsbewertung an ausgelagerte Vertragspartner in Ländern mit geringeren Lohnkosten, wie Kenia, gesendet. Diese menschliche Überprüfung dient dazu, die Qualität der Meta AI-Antworten über die Zeit zu verbessern.
Eine entscheidende Änderung erfolgte Ende 2024: Die Meta AI wurde so aktualisiert, dass sie kontextabhängig Kamerabilder aufnehmen kann, ohne dass ein expliziter Befehl wie "schau und erzähl mir" notwendig ist (z.B. "Hey Meta, was für eine Pflanze ist das?"). Diese "natürlichere" Interaktion erhöhte jedoch auch die Wahrscheinlichkeit, dass die KI unbeabsichtigt Aufnahmen macht, wenn das Gerät fälschlicherweise "Hey Meta" hört oder den Kontext falsch interpretiert. Mit der "Live AI"-Funktion in den USA und Kanada sind sogar Videoclips betroffen.
Die von den schwedischen Zeitungen befragten kenianischen Datenprüfer berichteten, dass sie Bilder und Videoclips von nackten Personen bei privaten Aktivitäten (Toilettengang, Kleiderwechsel, sexuelle Handlungen) sowie pornografische Inhalte und Aufnahmen sensibler Dokumente oder Bankkarten gesehen haben. Obwohl die Einrichtungen strenge Sicherheitsmaßnahmen zur Verhinderung von Datenabflüssen haben, birgt ein potenzieller Datenbruch ein enormes Skandalrisiko.
Meta reagierte auf den Bericht mit einer Erklärung, dass visuelle Daten "zuerst gefiltert werden, um die Privatsphäre der Menschen zu schützen", inklusive des Verpixelns von Gesichtern und Nummernschildern. Die Prüfer bestätigen jedoch, dass dieser Filter nicht perfekt ist und andere intime Details oft weiterhin sichtbar sind.
Die Praxis der menschlichen Überprüfung von KI-Interaktionen ist in der Branche nicht neu (z.B. Amazon Alexa, Google Gemini, Apple Siri). Nach ähnlichen Berichten in der Vergangenheit passte Apple sein System an und machte die menschliche Überprüfung von Siri-Gesprächen zu einer Opt-in-Option. Google bietet eine Opt-out-Möglichkeit für Gemini an. Für Meta AI und Amazon Alexa gibt es jedoch keine Möglichkeit, der menschlichen Überprüfung zu widersprechen.
Der Formfaktor der Smart Glasses mit einer egocentrischen Kamera verschärft die Datenschutzbedenken erheblich. Die potenzielle Exposition privater Momente könnte Nutzer davon abhalten, Smart Glasses zu erwerben oder sie weiterhin zu nutzen.
Wird dieser Bericht Meta dazu veranlassen, seine Datenüberprüfungspraktiken zu ändern, so wie Apple es 2019 tat? Oder wird der Wunsch nach einer schnelleren Verbesserung der Meta AI Vorrang haben? Die Entwicklung dieses Themas bleibt abzuwarten und wird sicherlich auch Auswirkungen auf zukünftige Smart Glasses von Google und Amazon haben.
Welche Auswirkungen seht ihr für die Akzeptanz von Smart Glasses, wenn solche Datenschutzrisiken bestehen bleiben?
#Datenschutz #SmartGlasses #MetaAI #AR #Technologie #Privatsphäre #RayBanMeta #Datensicherheit #WearableTech #KI #explorewithquest #QuestCreatorPartner