Mein persönlicher Meta Glasses Test
- Manuela Machner

- 28. Okt.
- 5 Min. Lesezeit
Aktualisiert: 28. Okt.
Die smarte Brille, die alles anders macht mein Meta Glasses Test
Seit wenigen Wochen habe ich sie nun endlich, meine Meta Glasses mit meinen echten Brillengläsern. Das war gar nicht so einfach, denn ich wollte sie unbedingt von meinem Optiker und das hat gedauert bis er sie in sein Brillenauswahl aufgenommen hat.
Besonders gefreut hat mich, dass ich sie noch rechtzeitig vor meiner Fahrt zum "Tourism Innovation Summit" in Sevilla bekommen habe, somit konnte ich sie gleich so richtig im echten Leben, mit vielen spannenden Situationen testen, viel Spaß mit meinem Meta Glasses Test.

Da mein Bericht eigentlich viel länger wäre, könnt ihr euch auch einen "Podcast" von meiner Podcast-KI Notebooklm anhören: Meta Glasses Test
1. Keine Augmented Reality, sondern Klang + Kamera
Das Erste, was ihr wissen solltet: Diese Meta Glasses sind keine AR-Brillen. Sie sind vielmehr eine gelungene Kombi aus Bluetooth-Kopfhörern, Kamera und Mikrofon kombiniert mit KI in Form einer klassischen Ray-Ban-Fassung.
Ton-Weitergabe: Der Ton wird über kleine Lautsprecher in den Brillenbügeln übertragen (Open-Ear-Audio). Man selbst hört ihn gut, Umstehende allerdings auch – das solltet ihr wissen, wenn ihr in öffentlichen Räumen unterwegs seid.
Kamera: Rechts in der Fassung sitzt eine 12-Megapixel-Kamera, die Fotos und bis zu dreiminütige Videos aufnimmt. Die Perspektive liegt etwas außerhalb der Augenlinie daran muss man sich gewöhnen.
2. Das wahre Highlight: Momente erleben
Der magischste Moment? Ich war in Sevilla unterwegs, stand bei Straßenmusikern, konnte zuhören, klatschen und gleichzeitig Videos aufnehmen und Fotos schießen. Ohne Handy, ohne Blick aufs Display. Meine Hände waren frei, mein Blick auf das Geschehen gerichtet.
Das klingt simpel, war aber ein echtes Aha-Erlebnis. Die Brille filmt, während man selbst voll im Moment ist. Auch beim Ansehen der Videos spürt man: Ich war dabei. Nicht als Regisseurin mit Smartphone, sondern als Teil der Szene.
3. Sehenswürigkeiten erkennen
Noch nicht perfekt, aber wirklich schon sehr gut.
Ich habe gefragt: "Hey Meta ich bin in Sevilla, was siehst du?" und Meta hat mir erklärt, was sie zu sehen glaubt. Bei sehr bekannten oder eindeutigen Gebäuden war die Trefferquote schon sicher bei 70%. Doch oft versucht sie sich zu drücken und erklärt wirklich nur was sie sieht "Ich sehe ein barockes Haus", erst auf Nachfrage wird sie genauer.
Praxistipp: Sie fragt in diesen Situationen oft "Soll ich ein Foto machen?", anfangs dachte ich sie hat mich nicht verstanden, aber in Wirklichkeit braucht sie das Foto um das Bild vor sich zu "sehen", daher ja sagen!
4. Alltagstauglichkeit: Zwischen Ladecase und Lernkurve
Ganz ehrlich: Im Alltag stößt man schnell an Grenzen.
Akkulaufzeit: Selbst wenn man sie nur auf der Nase trägt hält der Akku nur ca. fünf Stunden, denn im Hintergrund ist sie ja dennoch auf Standby und das kostet Strom. Wer die Brille mit Sehstärke (so wie ich) den ganzen Tag trägt, muss irgendwann auf smarte Funktionen verzichten oder sie tauschen. Immerhin: Das Ladeetui lädt bis zu 8-mal nach (per USB-C, Ladekabel muss selbst organisiert werden).
Kamera-Winkel: Der Kameraausschnitt ist leicht versetzt, der Kopf muss bewusst ruhig bewegt werden, sonst wird das Video unruhig. Bei Aufnahmen erscheint ein weißes Licht für andere gut sichtbar, ein klarer Pluspunkt in Sachen Privatsphäre.
5. Sprachsteuerung mit Ecken und Kanten
"Hey Meta, mach ein Foto" – das klappt gut. Auch WhatsApp-Nachrichten per Sprache verschicken funktioniert erstaunlich präzise. Die Spracherkennung ist besser als beim iPhone, und selbst Namensdopplungen werden intelligent aufgelöst.
Doch die Meta-KI hat Schwächen:
Sie siezt mich (obwohl ich das nie verlangt habe).
Sie gibt meist nur eine knappe Antwort.
Und sie vergisst oft den Kontext etwa wenn ich nach einem Bild mehr Details wissen will.
Laut Meta werden Audio-Daten lokal verarbeitet, nicht in der Cloud. Das ist beruhigend – vorausgesetzt, man vertraut den Angaben.
Praxistipp: Ihr könnt sie eigentlich alles fragen, was das Meta-AI in WhatsApp etc. auch beantworten kann. Also testet ruhig mal das Gespräch mit ihr, aber sie ist keine Plaudertasche wie ChatGPT.
6. Live-Übersetzungen: Spannend, aber noch nicht alltagstauglich
Ein praktisches Beispiel: Bei einer Tagung in Sevilla sprach der Moderator Spanisch, übersetzt wurde ins Englische. Ich testete die Brille zusätzlich mit Live-Übersetzung und merkte schnell: Die KI übersetzt oft verkürzt oder ungenau und manchmal einfach nur Blödsinn.
Und beim Abendessen: Ich ließ mir eine spanische Speisekarte übersetzen allerdings schaffte sie immer nur abschnittsweise, dafür richtig. Die ganze Speisekarte analysiert die Brille nicht, da war ChatGPT mit dem Foto schneller.
Im Gespräch kommt die zeitliche Verzögerung noch dazu: Man hört sowohl das Original als auch die KI-Stimme leicht versetzt. Tipp: Die Person nicht direkt ansehen, nur zuhören, ist zwar unhöflich, aber man tut sich leichter.
7. Übertragung auf Facebook und Instagram direkt aus der Brille
Man kann die Brille direkt mit seinem Konto verbinden und so direkt posten oder auch live online gehen. Mein Praxibericht: habe ich einfach noch nicht gemacht.
Fazit: Für mich die richtige Arbeitsbrille:
Die Meta Glasses sind kein Sci-Fi-Gadget mit Augmented Reality. Aber sie sind ein vielseitiges, wenn auch spezialisiertes Tool, das seine Stärken genau dort ausspielt, wo ich freihändig dokumentiere, nachrichtlich arbeiten oder unterwegs Informationen einholen wollt. Mit offenen Schwächen in Sachen Akku und KI, aber auch mit einer Vision, die neugierig macht. Wäre es für euch den Kompromiss wert, um intensiver im Moment zu leben?
Häufige Fragen zu den Meta Glasses
Wie funktioniert der Ton bei den Meta Glasses?
Über kleine Lautsprecher in den Brillenbügeln wird der Ton direkt zum Ohr geleitet – Open-Ear-Audio, also ohne Stöpsel. Andere in der Nähe können ihn allerdings auch hören.
Welche Kamera ist in den Meta Glasses verbaut?
Die Brille verfügt über eine 12-Megapixel-Kamera im rechten Brillenrahmen, die Fotos und Videos aufnimmt, allerdings mit leicht versetzter Perspektive.
Können die Meta Glasses mit WhatsApp verbunden werden?
Ja, über die App lassen sich Nachrichten diktieren und verschicken. Die Spracherkennung ist sehr präzise und unterscheidet sogar gleichnamige Kontakte.
Wie funktioniert die Live-Übersetzung bei Gesprächen?
Nach dem Download eines Sprachpakets wird gesprochene Sprache simultan übersetzt, allerdings mit Verzögerung und teils ungenauer Übersetzung.
Was kostet die Meta Glasses?
Je nach Design und Ausstattung, meine lag aktuell bei rund 390 Euro ich finde ein fairer Preis für die gebotene Technik, wenn man die Limitierungen kennt. Zusätzlich kommen natürlich noch die echten Brillengläser, wie in meinem Fall mit Verdunkelung.
Wann kommen die Meta Glasses mit In-Lens-Display?
Voraussichtlich im Frühjahr wird es diese auch bei uns in Europa geben.
Wo hast du die Meta Glasses gekauft?
Ich habe sie bei Fielmann in Leoben (meiner Heimatstadt) bekommen, mussten aber extra in die Filiale bestellt werden. Da ich genau die gleichen Gläser, wie bei meiner vorigen Brille wollte, wollte ich auch unbedingt bei meinem Optiker bleiben. Aber eine Auswahl zum Probieren war nicht vorhanden. Ich konnte sie aber schon mal bei einer Freundin "Probetragen".
Über die Autorin: Dieser Beitrag wurde von Manuela Machner, Expertin für Künstliche Intelligenz im Tourismus, verfasst. Sie unterstützt Unternehmen dabei, KI-gestützte Tools effektiv einzusetzen und datengetriebene Entscheidungen zu treffen.
„Künstliche Intelligenz + Menschliche Intelligenz = Intelligenz²“ – Aber ohne menschliche Intelligenz ist künstliche auch nichts wert!



Kommentare