„Every once in a while a revolutionary product comes along that changes everything.“ – Steve Jobs (Quelle)
Selten wird eine neue, revolutionäre Produktkategorie vorgestellt, die unsere Interaktion mit Technologie grundlegend verändert. Im Juni letzten Jahres war es wieder soweit: der lange erwartete „One more thing“-Moment am Ende der Apple-Keynote, als Tim Cook die seit 2014 gerüchtete Apple Vision Pro präsentierte. Auch bei x-root verspürten wir endlich wieder das wohlige Gefühl der Vorfreude und sicherten uns pünktlich zum Deutschland-Release die Brille, um uns ein Urteil zu bilden.
Die neue Ära des räumlichen Computing ist angebrochen! Eine unendlich große Arbeitsfläche, mit nahtlos in die Umgebung eingebetteten Apps.
Sehen wir mit der Apple Vision Pro in die Zukunft oder doch nur in ein weiteres VR-Headset?
Kann das Produkt mit „Pro“ im Titel auch professionelle Workflows abbilden oder wird dieses Gerät ebenso in der Nische der glorifizierten Medienabspielgeräte verbleiben?
Bereits vor zehn Jahren ermöglichte Google Cardboard ein rudimentäres 360°-VR-Erlebnis mit einem einfachen Pappkarton und einem Smartphone.
Das Eintauchen in ein vollkommen immersives Erlebnis ist zwar Teil des Funktionsumfangs der Vision Pro, spielt aber nur eine untergeordnete Rolle. Der Hauptaugenmerk liegt statt dessen auf Augmented Reality, bei der Nutzer:innen nicht von der virtuellen Welt umschlossen werden, sondern auf der Erweiterung der Realität um virtuelle Aspekte. Bereits vor sieben Jahren erklärte Tim Cook in einem Interview dies zur besseren Lösung und setzte intern den strategischen Schwerpunkt.
Mehr zum Thema AR bei der x-root gibt es hier zu finden: Augmented Reality (AR) – Definition und der Einsatz in Apps
Hardware und Technik
Die Apple Vision Pro ist zwar nicht die leichteste, aber wohl die schickste Brille auf dem Markt. Durch die Verwendung von Materialien wie Aluminium, Edelstahl und Glas, anstelle von Plastik, macht sie einen äußerst wertigen Eindruck.
Dank der verdunkelten Glasfront werden glücklicherweise die fünf Sensoren, sechs Mikrofone und zwölf Kameras, die bei der Erfassung der Umgebung zum Einsatz kommen, verdeckt. Mit Apples Headset auf der Nase sieht man daher eher nach Ski- bzw. Tauchurlaub aus, als nach einer Cyberpunk-Dystopie.
Vergleich mit Meta Quest 3:
Der von den Außenkameras aufgezeichnete Videostream der Umgebung ist äußerst latenzarm. Freies Bewegen und die Interaktion mit physischen Objekten in der Umgebung sind problemlos möglich. Die Augen werden schnell genug mit den nötigen Informationen versorgt, die ein Auftreten von Motion Sickness bei der Anwendung verhindern.
Überraschenderweise ist die Pixeldichte des Videostreams noch etwas zu gering und fragment-behaftet, um die perfekte Illusion der Durchsicht glaubwürdig darzustellen. Neben einem permanenten Grundrauschen werden kleinere Details verschluckt. Das Ablesen von Uhren sowie kleineren Texten und Bildschirminhalten, beispielsweise die des Mobiltelefons, werden so quasi unmöglich.
Gestochen scharf und frei vom Fliegengittereffekt ist dagegen sämtliches User Interface, das das Betriebssystem auf den beiden ultrahochaufgelösten Bildschirmen vor den Augen darstellt.
Was die beeindruckenden PR-Screenshots leider verschweigen, sind die schwarzen Ränder rund um das Sichtfeld. Weniger Tunnelblick bietet Metas Quest 3, die mit einem FOV von 110° aktuell leicht vorne liegt.
Virtuelle Meetings profitieren von der riesigen verfügbaren Arbeitsfläche im Raum und machen Laune. Selbst in der Gallerie-Ansicht behält man die Kollegen und die geteilten Inhalte stets im Blick.
So praktisch die Erfahrung für den Rezipienten auch ist, die Kollegen sehen einen Gesprächspartner mit verdecktem Gesicht. Als Lösung hierfür kündigte Apple auf der WWDC-Entwicklerkonferenz 2023 das sogenannte Spatial Personas Feature an. Nach einem initialen Einrichtungsprozess, bei dem verschiedene Gesichtsausdrücke mit dem Headset aufgezeichnet werden, steht ein persönliches 3D-Modell zur Verfügung. Statt Kacheln oder comicartigen Figuren schweben geisterhafte Abbilder der Gesprächspartner:innen im Raum und grüßen aus dem uncanny valley.
In den Bügeln an der Geräteseite hat Apple das adaptives Spatial Audiosystem verbaut, welches einen glasklaren Surroundsound in die Ohrmuscheln transportiert. Kopfhörer werden nur zwingend benötigt, falls die Umgebung nicht mithören soll.
User Experience
Dass eine ausgezeichnete Hardware allein kein gutes Produkt ausmacht, erklärte Steve Jobs schon auf der WWDC-Entwicklerkonferenz im Jahre 1997:
„You’ve got to start with the customer experience and work backwards to the technology.“
Quelle: Steve Jobs – Start with the Customer Experience
Dank Eye Tracking kann sich Apple (vorerst) einen Vorsprung in Sachen Handhabung verschaffen. Während bei der Konkurrenz theatralische Handbewegungen aufgrund von Pointer-Peripherie nötig sind, bedient sich Vision OS durch bloßes Ansehen von Steuerelementen. Bestätigung erfolgt durch eine kleine Kneifgeste mit Daumen und Zeigefinger. Die Hände können dabei bequem im Schoß verweilen.
Neben Sprachkommandos existieren weitere Bedienungshilfen, um Personen mit Einschränkungen eine handfreie Bedienung zu ermöglichen. Hierzu folgender spannender externer Link: Apple Vision Pro Accessibility Features: Navigating Without Hands
Für mehr Produktivität können Vielschreibende jederzeit die Bluetooth-Peripherie verbinden.
Erfahrungsbericht
Haarbürste bereithalten! Zwar mag es ein persönliches Problem der Eitelkeit sein, jedoch muss man sich bei bzw. nach der Benutzung von der gestylten Frisur und dem Make-up verabschieden. Obendrein hinterlässt die Lichtdichtung – trotz Polster – bereits nach kurzer Zeit Abdrücke im Gesicht.
Apple positioniert die Vision Pro als alltäglichen Begleiter, der nahtlos im privaten Umfeld, bei der Hausarbeit und der beruflichen Tätigkeit eingesetzt werden kann. Doch lässt sich diese Vision in der Praxis umsetzen?
So sehr sich Apple auch bemüht, die Barriere zwischen Headset-Nutzenden und dem Umfeld mit Technologien wie Eye Sight, Personenwahrnehmung und Personas einzureißen, bleibt die Situation weiterhin schwierig. Unterwegs im Freien ist einem Spott sicher und auch die Anwendung innerhalb der eigenen vier Wände, speziell in Gesellschaft, ist nicht unproblematisch. Wenn man nicht gerade die neueste iPhone Generation besitzt, müssen beispielsweise die eigentlich tollen 3D-Videos bei Feierlichkeiten oder von den spielenden Kindern mit der Brille aufgenommen werden und das wirkt meist unpassend und teilweise gruselig.
Und ob sich das Headset in dieser Form im geselligen Büroalltag durchsetzt, muss und wird die Zeit zeigen. Meiner persönlichen Erfahrung nach ist die Vision Pro ein ideales Home-Office-Gerät: für Solisten – also ungestört und alleine. Bequemes Arbeiten auf der Veranda mit mobiler Multimonitor-Option haben mich schon deutlich mehr überzeugt.
Ist das Pro im Namen nun gerechtfertigt? Teilweise. Für das noch junge Betriebssystem lassen sich simplere Workflows, wie Recherche- und Schreibarbeiten, bereits gut abbilden.
Beim Bewältigen intensiverer und zeitkritischer Aufgaben fällt die Wahl eindeutig auf den Laptop. Kein Anbringen des Akkus, Justieren des Kopfbands, kein Augensetup beim Entsperren und auch kein Haare kämmen nach der Benutzung.
Nicht Pro genug.
Für Pro-Anwendungsfälle wie beispielsweise Programmierung reichen eine unendliche Arbeitsfläche und Hand-Off Features zwischen Computer und Headset allerdings nicht aus. Fundamentales Manko ist das Betriebssystem iOS im Unterbau mit all seinen Limitierungen. Kein ordentliches Dateisystem, kein freies Installieren von Software, keine Pro-Anwendungen und kein Terminal. Die Abhängigkeiten und Anforderungen an die Toolchain einer Entwicklungsumgebung sind komplex und ohne „vollwertiges Betriebssystem“ nicht abbildbar.
Ferner darf bei der App-Entwicklung die Interaktion mit den physischen Testgeräten nicht sperrig sein. Aktuell sind Mobiltelefone durch die eingangs erwähnten Auflösungsdefizite unbenutzbar. Immerhin wird mit der nächsten Betriebssystemversion Vision OS 2.0 ein AirPlay-Feature integriert, mit dessen Hilfe sich der Bildschirminhalt des iPhones kabellos übertragen lässt. Bleibt nur die Frage offen, wie sich das Telefon dann am sinnvollsten bedienen lässt, wenn man nicht zum Finger auf dem Display, sondern auf das AirPlay-Fenster im Raum guckt.
Programmierung für VisionOS
Als Entwickler:in ist man natürlich neugierig, welche Möglichkeiten die Werkzeuge der initialen Version des SDK (Software Development Kits) bieten. Apple liefert hierfür RealityKit, welches ARKit um API (Schnittstellen) für Physik und Rendering von virtuellen 3D-Objekten zur Platzierung im Raum erweitert. Fenster und Steuerelemente programmiert man analog der Entwicklung für iPhone, iPad und macOS in SwiftUI.
In einem kleinem Spike-Projekt wurde zunächst mittels Reality Composer diese aufblasbare Kinder-Überraschungsei-Figur gescannt und im Anschluss ein 3D-Modell erzeugt.
In das Spike-Projekt im kompatiblen Format importiert, lässt sich das Modell im Handumdrehen frei im Raum platzieren:
Einsatz in der Freizeit
Wer sich die lästigen Aufgaben im Haushalt unterhaltsamer gestalten möchte, der kann und sollte sich austoben. Denn wenn nicht produktives Arbeiten, sondern Unterhaltung im Vordergrund steht, macht das Headset einen super Job. Selten hat der Spülmaschinendienst, das Wäschefalten oder Rasenmähen so viel Spaß gemacht. Einmal platziert stehen die Fenster mit den Nachrichten und den jüngsten Sporthighlights bombenfest im Raum.
Film- und Serienfreunde sollten dringend das Gratisabo bei Apple TV+ testen. Denn die dort angeboten immersiven 360°-Filme, Tier- und Sportdokumentationen sind bombastisch. Bitte mehr davon!
Fazit
Die Vision Pro ist durch und durch ein typisches Apple-Produkt der ersten Generation, kompromissbehaftet, aber mit großem „Habenwill-Faktor“, denn sie liefert eine beeindruckende, frische und technisch solide Nutzererfahrung, wie man sie sonst nur aus Science Fiction-Filmen kennt.
Leider ist sie noch zu klobig und zu teuer, leidet unter den Limitierungen des mobilen Betriebssystems, fehlenden Features, fehlendem Feinschliff und das Softwareangebot ist mager. Für ein florierendes Ecosystem benötigt die Plattform aktive Nutzer. Solange der Preis des Geräts im absoluten Luxussegment angesiedelt ist, bleibt die Nutzerbasis klein; ohne Nutzer bleibt die Entwicklung von Apps für das Headset leider unattraktiv.
Für effizientes Arbeiten greift man lieber zum Laptop. Kollaboratives Arbeiten im Büro mit VR-Brille auf dem Kopf ist beschwerlich und unpraktikabel. Die Stärken entfalten sich aktuell eher beim alleinigen Bewältigen von simpleren Aufgaben im privaten Umfeld und natürlich beim Genuss der diversen Unterhaltungsmedienangebote.