Meta Connect 2025: Die technischen Hintergründe der Live-Demo-Ausfälle erklärt

**Meta Connect 2025: Die technischen Hintergründe der Live-Demo-Ausfälle erklärt**

Bei der diesjährigen Meta Connect 2025-Keynote kam es bei den Live-Demos der neuen Ray-Ban Meta Smart Glasses zu auffälligen Fehlern, die bei vielen Zuschauern Fragen aufwarfen. Während Meta CEO Mark Zuckerberg zunächst die Konferenz-WLAN-Verbindung als Ursache nannte, lieferte Meta CTO Andrew Bosworth in einer Instagram-Fragerunde nun detailliertere technische Erklärungen für die Probleme.

**Der Ausfall der Live AI-Demo**

Die erste Demonstration betraf die Live AI-Funktion, die es Nutzern in den USA und Kanada ermöglicht, eine fortlaufende Konversation mit Meta AI zu führen, ohne ständig „Hey Meta“ sagen zu müssen, während die KI einen kontinuierlichen visuellen Stream des Gesehenen erhält. Im Vorfeld wurde diese Funktion von Testern als funktionsfähig beschrieben. Bei der Demo jedoch, als Influencer Jack Mancuso „Hey Meta, start Live AI“ sagte, reagierte die KI korrekt auf seine Umgebung, scheiterte aber daran, weitere Anweisungen für die Zubereitung einer koreanisch inspirierten Steak-Sauce zu geben, und wiederholte stattdessen immer wieder „Du hast die Basiszutaten bereits kombiniert“.

Bosworths Erklärung: Der Befehl „Hey Meta, start Live AI“ wurde über die Lautsprecher des Veranstaltungsortes übertragen. Dies führte dazu, dass jedes einzelne Ray-Ban Meta Gerät im gesamten Gebäude die Anweisung ausführte und gleichzeitig versuchte, eine Verbindung herzustellen. Da Meta den Live AI-Traffic für die Demo auf einen isolierten Entwicklungsserver umgeleitet hatte, um optimale Bedingungen zu gewährleisten, wurde dieser Server durch die schiere Menge der gleichzeitigen Anfragen überlastet. Obwohl Bosworth nicht explizit erklärte, warum dies zu den sich wiederholenden Antworten der KI führte, wird spekuliert, dass der überlastete Server möglicherweise auf zwischengespeicherte Antworten einer Generalprobe zurückgriff oder dass die Demo zumindest teilweise vorab inszeniert war. Ein weiterer Punkt ist das Fehlen einer Sprachauthentifizierung, wie sie bei Alexa, Google und Siri üblich ist, um Befehle nur von der registrierten Stimme auszuführen.

**Der Ausfall der Videoanruf-Demo**

Der zweite große Demo-Fehlschlag ereignete sich, als Mark Zuckerberg, ausgestattet mit den Meta Ray-Ban Display-Brillen und einem Meta Neural Band, versuchte, einen eingehenden WhatsApp-Videoanruf von Bosworth anzunehmen. Die erwartete Funktionalität wäre gewesen, den Anruf anzunehmen und den Kamerastream des Anrufers auf dem Head-up-Display zu sehen. Auch diese Funktion wurde von Tech-Journalisten im Vorfeld als funktionierend bestätigt. Im Rahmen der Live-Demo konnte Zuckerberg den Anruf jedoch viermal hintereinander nicht annehmen, trotz der Ankündigung durch Meta AI und des klingelnden WhatsApp-Anruf-Sounds, was zu sichtbarer Frustration des CEOs führte.

Laut Bosworth war die Ursache hier ein Race Condition Bug im System. Das Display wechselte genau in dem Moment in den Schlafmodus, als die Benachrichtigung über den eingehenden Anruf erschien. Dies führte zu einem Softwareproblem, das den aktuellen und alle folgenden Anrufe verhinderte. Bosworth betonte, dass dieser Fehler trotz „hundertfacher“ Tests für Videoanrufe noch nie aufgetreten sei und bezeichnete den Zeitpunkt des Auftretens als „einen schrecklichen, schrecklichen Ort“ für einen solchen Bug. Er versicherte, dass der Fehler inzwischen behoben wurde.

**Reaktionen und Bosworths Verteidigung von Live-Demos**

Die Reaktionen in den sozialen Medien waren gemischt. Viele zeigten Schadenfreude über Metas Schwierigkeiten, andere sahen in Metas Ansatz, unfiltrierte Live-Demos zu zeigen, einen erfrischenden Kontrast zu den oft hochproduzierten „Infomercial“-Stil-Events von Unternehmen wie Apple. In der Tech-Branche gab es viel Sympathie, da die Tücken von Pre-Launch-Tech-Demos bekannt sind und selten die finale Produktqualität widerspiegeln.

Bosworth wurde auch gefragt, ob Live-Demos weiterhin der richtige Ansatz seien. Er verteidigte diesen Ansatz entschieden. Er argumentierte, dass das Publikum sowohl vor Ort als auch in der Übertragung verstehe, dass Live-Demos keine realen Nutzungsszenarien darstellen. Ein Raum mit „2500 Radios, 3000 Radios“, die gleichzeitig auf verschiedenen Geräten senden, sei nicht vergleichbar mit alltäglichen Bedingungen. Er betonte, dass unabhängige Kritiker, die die Brillen testen konnten, deren Funktionalität bestätigen würden. Bosworth ist überzeugt, dass solche Demos letztendlich das Vertrauen in die Echtheit und Funktionalität des Produkts stärken, da die Leute wissen, dass man ein echtes Produkt sieht, das im Alltag funktioniert.

HINWEIS: Dieser Artikel enthält Affiliate-Links, mit denen ihr mich kostenlos unterstützen könnt! Ihr zahlt nichts extra, wenn ihr über den Link geht und ich erhalte eine kleine Provision. In vielen Fällen spart ihr sogar selber noch durch den Link!

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen