Mein erster Eindruck von der Vision Pro

Inzwischen habe kann ich mit Xcode eine App bauen, die mir das Haus mit allen Funktionen auf die Wiese stellt und sich auch nicht mehr dreht, wenn man eine Tap-Geste macht. Macht jetzt richtig Laune. Aber die App hat statt 85 MB jetzt 640 MB.

Hatte das MacBook für Xcode und Reality Composer Pro wieder auf Sequoia upgegradet, nachdem ich es ja vor ein Wochen wegen Performance Probleme auf Sonoma downgegradet hatte. Der Reality Converter war extrem lahm. Ich hatte aber das Programm auf dem MacBook gar nicht mehr benutzt.
 
Und wieder gibt es Fortschritte. Die erzeugten Geräusche der Animationen kommen jetzt auch wirklich von der Position der Geräuscherzeuger. Bisher tönte es immer nur aus der 0/0/0 Position der Szene.
Vorab habe ich die ganze Szenerie noch auf Modellebene gedreht.
Zusammen mit den Erkenntnissen der Tonzuweisung muss ich die gesamte Szene jetzt mühsam wieder zusammen basteln.
Vorher war alles beim Import auf der korrekten Position.
Aber es lohnt sich.

Ich mache regelmäßig Tests, ob alles wie gewünscht funktioniert und an der richtigen Stelle ist.
Beim Reality Composer Pro kann ich die Szene auf die Brille Beamen.
In Xcode habe ich die Brille über den Developer Strip angeschlossen. Geht hier meist schneller, als über mein 5G WLAN.

Ordentliche Geräusche brauche ich noch für das Projekt. Ich fahre demnächst in mein Studio und nehme ein paar Foley-Sounds für die Schiebetüren und Schubladen auf. Eine knackende Glastür muss ich wohl irgendwo im Original abgreifen.
Den 40 Zoll Gong habe ich selbst 😃
Dieser lässt sich tatsächlich in der Simulation spielen. Die Audiodatei wird beim Tap mehrfach gestartet und überlagert sich. Wie im Original. Dazu braucht es aber AirPods. Die Lautsprecher der Brille schaffen das Spektrum nicht
 
Wer möchte, kann gerne mal meinen Gong ausprobieren. Geht auch auf einem iPhone.

IMG_2162.png


Hier der DropBox Link:

Gong.usdz

Hatte mir das Teil gerade an das Ufer eines schönen Bergsees gestellt und darauf gespielt. Den Ton dazu hatte ich heute von meinem genauso großen 40 Zoll Gong Sadja von Olli Hess aufgenommen. Auf jeden Fall mit AirPods hören. Das Frequenzspektrum kann nur ansatzweise von den Lautsprechern der Vision Pro oder noch weniger von einem iPhone übertragen werden. Die Tondatei ist original. Nur am Ende ausgeblendet und als mp3 mit 320 kbps gespeichert.

So sieht mein Original Gong aus:

IMG_2102.jpeg
 
@Stromsegler
Sehr geil, danke für die Datei – mit Quicklook und macOS funktionieren .usdz-Dateien doch auch.
Volle Möhre auf die Boxen bei Klick auf den Gong! :thumbsup:

Stromseglers Gong.png
 
@Stromsegler
Sehr geil, danke für die Datei – mit Quicklook und macOS funktionieren .usdz-Dateien doch auch.
Volle Möhre auf die Boxen bei Klick auf den Gong! :thumbsup:

Anhang anzeigen 461867
Gerne 😃

Kannst auch mehrfach drauf schnippen. Dann überlagern sich die Töne und es wird noch lauter, gelegentlich auch leiser, wenn es zu Auslöschungen durch die ein gegenphasiges Signal kommt. Ist beim richtigen Gong auch so.
 
Apple hat mit dem 26er OS ein neues Medienformat für immersives Video eingeführt: APMP
(Apple Projected Media Profile)

Mit Hilfe von MacOS 26 lassen sich 180 Grad, 360 Grad und extreme Weitwinkelaufnahmen in das neue platzsparende Format konvertieren.
Ich habe auch schon einige Sachen konvertiert. Das Ergebnis wird mit AirDrop auf die Vision Pro geladen und kann dort unter visionOS 26 aus der App Dateien aufgerufen werden.

 
Es gibt wieder etwas Neues für die Vision Pro. Ein Quintet von stilisierten Musikern sitzen bei Dir zu Hause und spielen Mozart. Du kannst dich frei um die Musiker herum bewegen. Der jeweilige Ton des Instruments bleibt beim Musiker. Ich habe EUR 7,99 für dieses Erlebnis bezahlt und finde es bemerkenswert:



Hier noch der Link auf die Website des Entwicklers:

Immersives Musikerlebnis
 
Danke für den Tipp. Was eine Länge in Min. hat das Mozart-Konzert ungefähr?
 
Hab mir heute die Wartezeit im Apple Store damit verbracht, die Sache mit dem Lightseal zu klären.
Ich hatte die Apple Vision Pro letztes Jahr online bestellt. Dafür musste ich mit meinem iPhone ein Gesichtsscan machen und die Sealgrösse wurde auf 23W festgelegt.
Später hatte ich mir eine 21W dazugekauft, um mehr FOV zu haben.
Ein halbes Jahr später musste ich in Spanien feststellen, dass seitlich Licht reinkam und für störende Lichteffekte in der Mitte des Bildes sorgte.
Da es in Spanien keine Apple Vision Pro gibt, ließ ich mir über Kleinanzeigen eine 24N Dichtung schicken, die ganz gut funktionierte.

Heute wollte ich im Apple Store herausfinden, welche Größe eigentlich die richtige ist.

Mein Gesicht wurde gescannt und als erste Näherung wurde 21W genannt.
Jetzt musste ich einen Fragebogen ausfüllen, wo ich ankreuzen musste, was mich alles mit der Größe 21W störte.

Am Ende kam als optimale Größe für mein Gesicht die Größe:

24N

heraus.

Das hat mich sehr gefreut.

Also wer mit seiner AVP Probleme mit der Dichtung hat, unbedingt zeitnah reklamieren. Innerhalb einer bestimmten Frist nach dem Kauf wird diese kostenlos getauscht.
 
Aktuell nutze ich die AVP recht wenig. Filme schaue ich entweder auf dem 65“ OLED oder mit dem JVC DLA NZ8 Beamer. Zwischendurch mal meine Quest Pro auf den neuesten Stand gebracht. Das Betriebssystem der Quest ist eine Frechheit. So ein Zusammengestöpsel. Die AVP hat mit visionOS 26 einen benutzerfreundlichen Stand erreicht. Jetzt müssen die Brillen nur noch deutlich leichter werden.
 
...und etwas *hüstel* biliger....!
 
...und etwas *hüstel* biliger....!
Das ist halt Ansichtssache bzw. auch, wie ich finde, der Sichtweise dann entsprechend.
Ich finde, sie ist teuer, ja, aber sie ist ihren Preis allemal wert. Die Komponenten sind qualitativ hochwertig (abgesehen davon, dass einige Brillen ständig die Haarrisse kriegen, wovon meine bislang allerdings nicht betroffen ist), die Displays sind Top, der Sound ist umwerfend, .... :)

Ich nutze meine weiterhin fast täglich, oft auch zum Arbeiten: Aufgesetzt, Mac-Screen drauf und los.
Abends schau ich nur zu gern Videos, besonders gern auch in 3D. Live umgerechnet auf der Brille aus einem 2D-Video.
 
Es gibt einen neuen Film (29 Min.) für die Apple Vision Pro, der mit den neuen Blackmagic Kameras gedreht wurde.

Tour de Force

Es geht um ein Motorradrennen in Le Mans. Keine bewegte Kamera, viel Hintergrundwissen, nie langweilig.

Sprache Englisch und Französisch mit englischen Untertiteln.
Zu finden in der Apple TV App.
Ich weiß nicht, ob man ein Abo dazu braucht. Meins läuft gerade noch.

An der Blackmagic Kamera kann leider nicht der Fokus eingestellt werden. Mir sind die Aufnahmen in der mittleren Entfernung um 6-12 m im Vergleich zu näheren Objekten oft ein wenig zu unscharf. Mir fällt das immer besonders auf, weil ich mal mit meiner R5C/Dual fisheye lens-Kombi Skateboard-Action in einem Keyhole Pool gefilmt habe.
Der Coping war scharf, die Skater etwa in der Mitte des Pools unscharf. Erst als ich eine Apple Vision Pro hatte, ist mir der Unterschied zu anderen Aufnahmen, wo der Coping leicht unscharf ist und die Skater in 3-5 m Entfernung „scharf“ sind, aufgefallen. Es war unmöglich die Schärfe vor Ort zu prüfen. Man muss es vorher testen und sich den manuellen Focus am Objektiv notieren. An der Blackmagic Kamera kann man gar nicht eingreifen. Bin gespannt, ob das mal korrigiert wird oder auf Grund der übertragenen Lensdata gar nicht möglich ist.
Die Lensdata wird zusammen mit den zirkularen Kamarabildern gespeichert und erst in der Apple Vision Pro „entzerrt“. Dadurch spart man sich den Zwischenschritt, erst in eine rechteckige Darstellung zu konvertieren und später wieder in eine räumliche Darstellung zu konvertieren.
 
Für wen lohnt es sich aktuell noch die AVP zu holen wenn man bereits einen Beamer besitzt mit 120” Diagonale?
Gib es eine spezifische Anwendung welche man sagen kann das ist die vielen Euro wert?

Irgendwie scheint mir den Hype zur AVP gestorben zu sein und auch Apple redet nicht mehr gross darüben.
Es schient das es sich nicht sonderlich zu dem entwickelt zu haben was erhofft wurde.
 
Zurück
Oben Unten