Meta Horizon Worlds hat eine bedeutende Neuerung für seine Creator eingeführt: die Integration von skriptbaren, konversationsfähigen KI-NPCs (Non-Player Characters). Diese Weiterentwicklung, die erstmals auf der Connect 2024 angeteasert wurde und dieses Jahr zunächst ausgewählten Partnern zur Verfügung stand, ist nun für alle Creator zugänglich. Dies eröffnet eine Vielzahl neuer Möglichkeiten für das Design und die Interaktivität virtueller Welten.
**Was sind die neuen KI-NPCs?**
Die neuen KI-NPCs werden von Metas Llama 4, einem großen Sprachmodell, angetrieben. Sie sind darauf ausgelegt, natürliche Gespräche mit erwachsenen Nutzern in den USA zu führen. Ihre primären Anwendungsbereiche umfassen das Erzählen von Geschichten, die Funktion als kontextbezogene Guides innerhalb der Welten oder die Steigerung der sozialen Immersion.
**Anpassung und Entwicklung**
Ein Kernstück dieser Neuerung ist das „Character Builder“-Tool. Es ermöglicht Creatorn, die Persönlichkeit und das Verhalten jedes KI-NPCs individuell zu gestalten. Dazu gehören Attribute wie Name, Hintergrundgeschichte, spezifische Anweisungen und sogenannte „Guardrails“, die das Verhalten des NPCs einschränken oder leiten. Zusätzlich können Creator aus Dutzenden von synthetischen Stimmen wählen und deren Geschwindigkeit sowie Tonhöhe anpassen, um jedem Charakter eine einzigartige auditive Präsenz zu verleihen.
Die Implementierung und Steuerung der KI-NPCs erfolgt über den Horizon Worlds Desktop Editor. Diese Windows PC-Anwendung, die im Februar im Early Access veröffentlicht wurde und die In-VR-Erstellungstools ersetzt, bietet umfangreiche Funktionen. Creator können 3D-Assets, Bilder und Sounddateien importieren, in einer 3D-Landschaft platzieren und Spiellogik sowie andere Funktionen mittels TypeScript implementieren. TypeScript spielt eine entscheidende Rolle bei der Versorgung der KI-NPCs mit Hintergrundkontext des Weltzustands und dynamischem Wissen über Ereignisse – beispielsweise wenn ein Spieler einen Gegenstand aufnimmt oder eine Tür geöffnet wird.
**Interaktionsmöglichkeiten und zukünftige Pläne**
Durch „Elicitations“ können NPCs dazu gebracht werden, natürlich zu sprechen, indem ihnen ihre Motivation mitgeteilt wird. Ein Beispiel hierfür könnte sein: „Der Laserstrahl hat deine Rüstung durchbohrt, und du hast schreckliche Schmerzen“, worauf der NPC je nach Kontext und dynamischem Wissen reagieren könnte.
Für Nutzer außerhalb der USA oder unter 18 Jahren kann eine TypeScript-API-Prüfung verwendet werden, um einen Fallback zu implementieren. Hierbei können Creator den NPC über Direct-Text-to-Speech genau vorgeben, was er als Reaktion auf einen Gameplay-Trigger sagen soll, wodurch die LLM-Ebene umgangen wird und die Funktion weltweit verfügbar ist.
Meta hat angekündigt, im Laufe des Jahres die Möglichkeit hinzuzufügen, dass KI-NPCs „In-World-Aktionen“ auslösen können, was sie zu aktiven Teilnehmern in der virtuellen Welt macht. Wann die Sprachinteraktion mit NPCs über die USA hinaus erweitert wird, ist noch nicht bekannt.
Diese Entwicklung markiert einen Schritt hin zu komplexeren und lebendigeren VR-Erfahrungen in Horizon Worlds, indem sie den Weltenbauern Werkzeuge an die Hand gibt, die Interaktionen auf ein neues Niveau heben können.