Mixed Reality ist wohl die beste Form um Virtual Reality Inhalte zu präsentieren. Anstatt einer wackligen First-Person Ansicht zu folgen, kann der Zuschauer dem Spieler über die Schulter schauen. Außerdem können Zuschauer so wesentlich besser wahrnehmen, wie sich der Spieler in der Welt fühlt. Hier seht ihr ein Beispiel von unserer App, die wir in Zusammenarbeit mit Beiersdorf entwickelt haben:
Neue Mixed Reality Methode
Die aktuelle Methode benötigt die Ausgabe von mindestens zwei verschiedenen Bildern. Ihr benötigt einen Alpha Channel und die normale Ansicht der Third-Person Kamera. Unity Spiele können mit dem aktuellen SteamVR Plugin schnell diese Ausgabe liefern. Dabei wird das Bild in vier Zonen aufgeteilt und somit ist eine 4K Ausgabe notwendig. Dies wirkt sich natürlich auch deutlich auf die Performance aus und bei einem Livestream lässt sich somit nicht unbedingt eine optimale Erfahrung gewährleisten.
Mit der neuen Mixed Reality Methode von OwlchemyVR soll alles einfacher werden. Die Verarbeitung der Daten erfolgt komplett in Unity und es ist keine zusätzliche Software nötig. Realisiert wird dies über eine 3D Kamera und spezielle Plugins in Unity.
Der größte Vorteil ist, dass der Spieler genauer im Raum verortet werden kann. Es sind nicht zwei Layer notwendig und somit gibt es keine ungewollte Verdeckung von Objekten durch den eigenen Körper. Alles was im Vordergrund sein soll, ist auch im Vordergrund zu finden. Außerdem kann das Licht innerhalb der Unity Szene auch auf den Akteur angewendet werden. Somit können überzeugende Ergebnisse ohne große Nachbearbeitung verwirklicht werden.
Aktuell ist diese Methode aber noch in der Entwicklung und das Team hat die entsprechenden Plugins noch nicht veröffentlicht. Es ist aber davon auszugehen, dass OwlchemyVR diese Methode bald für Entwickler freigeben wird und anschließend Videoproduzenten damit arbeiten können.
[Quelle: OwlchemyVR]