Meta gibt Entwicklern Zugriff auf die Ray‑Ban Display: Doom als erstes Demo, zwei Entwicklungswege und US‑zonenstart mit EU‑Verzögerung.
In Kürze
- Entwicklerzugang freigeschaltet; Doom‑Portierung als Machbarkeitsdemo
- SDK für iOS/Android und Web‑Apps (HTML/JS) als Wege
- Verfügbarkeit aktuell in den USA; EU‑Start verzögert, zweite Generation geplant
Meta hat seine Ray‑Ban Display — die smarten Brillen mit eingebautem Display — für Entwickler geöffnet. Sieben Monate nach dem Marktstart dürfen Programmierer jetzt experimentieren. Eines der ersten Demo‑Highlights: Entwickler Timur Abdrakhimov hat den Spieleklassiker Doom auf die Brille portiert.
Wie die Demo läuft
Doom wird auf dem Wellenleiter‑Display dargestellt, das ein diagonales Sichtfeld von rund 20° liefert. Steuerung und Eingaben erfolgen über Fingerbewegungen: Das Meta Neural Band übersetzt sie in Computerbefehle. Das Bild erscheint nur im rechten Auge, deshalb sind längere Spielesessions aus ergonomischen Gründen nur eingeschränkt praktikabel — als Machbarkeitsnachweis ist die Portierung dennoch aufschlussreich.
Verfügbarkeit und Zeitplan
Die Ray‑Ban Display sind aktuell wegen Lieferengpässen nur in den USA erhältlich. In der EU verzögern sich Starts wegen Regelungen zu Batterien und KI. Meta plant laut Bericht noch in diesem Jahr eine zweite Brillengeneration und könnte den weltweiten Launch dafür zurückhalten.
Zwei Wege für Entwickler
Meta bietet zwei Entwicklungsansätze an:
- Meta Wearables Device Access Toolkit: Ein SDK für iOS und Android, das jetzt Display‑Funktionen unterstützt. Smartphone‑Apps lassen sich damit erweitern, um etwa Text, Bilder oder Video auf der Brille darzustellen. Entwickelt wird mit Swift für iOS und Kotlin für Android.
- Web Apps: Eigenständige Anwendungen, gebaut mit HTML, CSS und JavaScript. Sie starten per URL auf der Brille und können auf Bewegungs‑ und Orientierungsdaten, GPS vom Smartphone, Eingaben des Meta Neural Band und lokalen Speicher zugreifen. Web Apps sind vor allem für schnelles Prototyping und schlanke Anwendungen gedacht — die Doom‑Portierung läuft über diesen Weg.
In einem Subreddit zeigen Entwickler:innen bereits weitere frühe Experimente. Beide Wege stehen derzeit als Developer Preview bereit: Du kannst bauen und testen, regulär an Endnutzer verteilen lassen sie sich bislang aber noch nicht. Detaillierte Infos liefert Metas Entwicklerseite für Wearables.
Neue Funktionen und KI‑Features
Meta weitet eine Reihe von Funktionen aus: Die zuvor nur für Tester verfügbare Fingerschrift‑Funktion ist jetzt für alle Nutzer verfügbar und funktioniert etwa in Instagram, WhatsApp, Messenger und nativen Nachrichten‑Apps. Ebenfalls breiter ausgerollt werden kombinierte Aufnahmen (Display‑ und Kamerabild), visuelle Fußgängernavigation in den gesamten USA und in Metropolen wie London, Paris und Rom sowie Live‑Untertitel in WhatsApp, Facebook Messenger und Instagram Direct. Metas neues KI‑Modell „Muse Spark“ soll diesen Sommer für die Ray‑Ban Display erscheinen.
Kontext und Kritik
Metas Entwickleroffensive kommt zeitlich vor erwarteten Hardware‑Ankündigungen der Konkurrenz — etwa Google I/O mit Android XR, Andeutungen zu WWDC von Apple und Snaps erwarteten AR‑Brillen. Parallel wachsen Datenschutz‑ und Überwachungsbedenken: Meta ist kritisiert worden wegen angeblicher Pläne für Gesichtserkennung und wegen Aufnahmen, die zur Datenannotation genutzt wurden und als intim wahrgenommen wurden. Generell sorgt die Möglichkeit heimlicher Aufnahmen in der Öffentlichkeit für Diskussionen.
Quellen
- Quelle: Meta
- Der ursprüngliche Artikel wurde hier veröffentlicht
- Dieser Artikel wurde im Podcast KI-Briefing-Daily behandelt. Die Folge kannst du hier anhören.




