Meta bringt das mit Spannung erwartete „Wearable Devices Access Toolkit“ heraus, das noch in diesem Jahr verfügbar sein soll. Dieses Software Development Kit (SDK) ist ein entscheidender Schritt, um Metas Smart Glasses – darunter Modelle wie die Ray-Ban Meta, Oakley Meta HSTN und Meta Ray-Ban Display – enger mit dem Ökosystem der Smartphone-Apps zu verbinden.
**Was bietet das Toolkit?**
Mit der ersten Version des SDK erhalten Entwickler die Möglichkeit, auf die Kamera, die Lautsprecher und das Mikrofonarray der Smart Glasses zuzugreifen. Dies eröffnet eine Vielzahl neuer Anwendungsmöglichkeiten. Wichtig dabei ist, dass Nutzer jeder App explizit die Berechtigung erteilen müssen, auf die Funktionen ihrer Brille zuzugreifen, was die Kontrolle über die eigenen Daten gewährleistet.
**Anwendungen in der Praxis**
Meta hat bereits mit einer Handvoll Entwicklern zusammengearbeitet, um frühe Experimente durchzuführen:
* **Livestreaming:** Plattformen wie Twitch und Logitech Streamlabs nutzen das SDK, um First-Person-Livestreaming direkt über die Smart Glasses zu ermöglichen. Ähnlich wie man es bereits von Instagram kennt, können Nutzer ihre Erlebnisse in Echtzeit teilen, ohne ein Smartphone in der Hand halten zu müssen.
* **KI-Unterstützung:** Microsoft integriert das Toolkit in seine „Seeing AI“-Plattform. Diese App hilft blinden Menschen, die Welt um sich herum zu navigieren und mit ihr zu interagieren, indem sie Kameraaufnahmen in Echtzeit analysiert.
* **Spezialisierte Helfer:** Ein besonders interessanter Anwendungsfall kommt von 18Birdies, einer Golf-App. Sie experimentiert mit der Nutzung des Toolkits, um Golfern Echtzeit-Informationen zu Entfernungen und Schlägerempfehlungen direkt über die Brille zu liefern, ohne dass diese ihr Telefon aus der Tasche nehmen müssen.
**Aktueller Stand und Zukunftsausblick**
Zum Start wird das „Wearable Devices Access Toolkit“ Metas eigene KI-Funktionen noch nicht direkt unterstützen. Entwickler können jedoch eigene KI-Modelle integrieren, indem sie kontinuierliche Kamera- und/oder Audio-Streams von der Brille zu ihrem Modell leiten. Dies könnte allerdings die Akkulaufzeit der Geräte erheblich beeinflussen. Meta hat jedoch bereits angekündigt, die Integration von Meta AI als „Schlüsselbereich“ für zukünftige Updates des Toolkits zu prüfen. Auch die Unterstützung für die Anzeige von Bildern auf dem HUD der Meta Ray-Ban Display Brille oder den Zugriff auf Gesten des Meta Neural Band wird derzeit noch nicht geboten, aber Meta denkt bereits über mögliche Implementierungen nach.
Insgesamt stellt dieses Toolkit einen wichtigen Schritt für die Entwicklung von Wearable Technology dar und zeigt Metas Engagement, ein offenes Ökosystem für seine Smart Glasses zu schaffen.