Website-Icon Aspekteins

König der Löwen – Ein Hollywood-Blockbuster entsteht in VR

König der Löwen - Ein Hollywood-Blockbuster entsteht in VR

Bildrechte Titelbild: © Raul - Adobe Stock

Regisseur Jon Favreau, der sich mit Virtual Reality schon in Gnomes und Goblins auseinandersetzte und, im Rahmen seines Dschungelbuch-Remakes, virtuelle 360-Grad-Produktionen wie Kaa’s Jungle mitverantwortete, wagte sich zuletzt an ein Remake von einem der größten Disney-Klassiker schlechthin: König der Löwen.

Erzählt wird die Geschichte von Simba (im Erwachsenenalter von Donald Glover gesprochen), der schon als Jungtier von seinem Vater Mufasa (James Earl Jones) auf seine zukünftige Rolle als König vorbereitet wird. Als Mufasa von dessen bösartigem Bruder Scar getötet wird, gibt Simba sich die Schuld am Tod seines Vaters. Um den Frieden im Königreich wiederherzustellen und seinen Platz als König einnehmen zu können, muss Simba die innere Kraft finden, dem gemeinen Kontrahenten samt Verbündeten ordentlich Paroli zu bieten.

Fünfundzwanzig Jahre nach dem im Zeichentrick-Stil animierten Original, feierte die Geschichte um den Circle of Life am 19.7. dieses Jahres seine zweite Premiere. Das Remake besticht durch fotorealistisch anmutende Bilder, wie man sie in dieser Qualität in kaum einem Animationsfilm zuvor gesehen hat. Um einen derartigen technischen Durchbruch erzielen zu können, entwickelte das Team rund um Favreau einen völlig neuen Workflow, der es erlaubt, Animationsfilme nicht mehr nur am Reißbrett zu planen, sondern ganz ähnlich zu einer traditionellen Filmproduktion mit einem echten Filmteam zu drehen. Möglich wird dies nur mit dem intelligenten Einsatz von VR-Technologien.

Das Set als virtuelle Umgebung: Old Story, New Tools

Der Film ist kein direktes Live-Action-Remake, wie sich vielleicht auf den ersten Blick vermuten lässt. Es wurden keine realen Löwen, Gnus oder Paviane mit Tracking-Markern für die Verlebendigung etwaiger CG-animierter Kollegen beklebt. Das bedeutet aber nicht, dass der Film komplett am Computer entstand: Eine karge Fabrikhalle in L.A. wurde durch VR-Technologie zu einem immersiven Filmset.

Produktionsteam unter VR-Ausstattung am Set. Bildquelle: ascmag.com


Einmal VR und zurück: Kamermann Deschanel bei der Arbeit – virtuelle Bilder werden auf ihre Stichhaltigkeit überprüft. Bildquelle: techcrunch.com

Es gibt zahlreiche Beispiele davon, wie VR-Anwendungen wichtige Bestandteile eines Marketingkonzeptes für Spielfilme werden. Man mag dabei vergessen, dass die virtuelle Welt nicht nur Möglichkeiten bietet, Endnutzer mit dem Setting eines Films vertraut zu machen, sondern auch schon in der Produktion maßgebliche Vorteile bringen kann. Der Faktor Echtzeit spielt dabei eine wichtige Rolle: Crewmitglieder konnten sich am Set von „Der König der Löwen“ mittels VR-Headset innerhalb der generierten VR-Umgebung frei bewegen, teils unwirkliche Perspektiven einnehmen und im Avatar-Modus mit anderen Teilnehmern interagieren. Mit VR-Bildschirmen verbundene reale Kameras generierten eine virtuelle Kamera. Damit ließen sich die auf der Bühne aufgenommenen Szenen gleich mühelos in VR betrachten. Der große Vorteil: Imperfektionen, die durch die physikalische Bewegung der virtuellen Kamera zwangsweise entstehen, lassen Kamerafahrten und Schwenks dynamischer wirken – ganz wie in klassischen Spielfilmen. Genau diese Makel und Fehler sind es, die ein virtuelles Bild glaubhaft machen. Von einem Computer wären solche Makel nur schwer zu simulieren. Durch die VR-Simulation auf Basis der Unity Engine mit Bewegungserfassung via Naturalpoint Opti-Track-Systeme & OptiTrack Active kann dies jedoch schnell und einfach digitalisiert werden.

Mit der HTC Vive ließ sich so das Virtuelle Prideland hautnah erleben. Anders als bei herkömmlichen Animationsfilmen konnte das Filmteam genauso arbeiten, wie sie es bei einer Filmproduktion mit realen Kulissen und Darstellern getan hätten: Die Location konnte zusammen virtuell begangen und passende Einstellungen gescoutet werden. Beleuchter konnten direkt in der virtuellen Realität Lichter setzen und das Ergebnis ohne Blick auf einen zusätzlichen Bildschirm überprüfen. Es ergab sich eine ungemeine Mobilität innerhalb eines künstlichen Settings. Tiere und andere Elemente der Szenerie konnten unkompliziert hinzugefügt und ungewöhnliche Kameraperspektiven eingenommen werden.

Sogar virtuelle Dolly-Tracks konnten zum Einsatz kommen, denn auch diese waren digital mit dem echten Rig vor Ort verbunden. Die physischen Korrekturen, die die Crew an Kamerakran und Dolly vornahmen, wurden 1:1 in die virtuelle Umgebung übertragen.

Kurzum: der Film wurde komplett in VR gedreht.

Replikation der Afrikanischen Savanne

Um eine Realität zu replizieren, müssen überzeugende Bilder her. Dafür ließ sich die Kulisse Afrikas nicht übergehen und es wurden vorab 12 TB Foto-und Videomaterial aufgenommen. Man studierte dabei nicht nur die Tiere in ihrem Verhalten (etwa beim Fressen, Schlafen oder Faulenzen) – es wurde natürlich auch deren gesamte Umgebung genauer unter die Linse genommen.

Die Pride Lands, Territorium des Königreichs mit dem zentralen Bestandteil Pride Rock, wurden in Anlehnung an Kenias Masai Mara entwickelt, einem Naturschutzgebiet an der Grenze zu Tansania, das hauptsächlich aus Grassavanne besteht. Die direkte Umgebung des Königsfelsens ist den Weiten der Chyulu Hills nachempfunden, 500 Jahre alten Vulkanbergen im Südosten Kenias. Auch der Sesriem-Canyon Namibias, eine mehrere Millionen Jahre alte, 3 Kilometer lange, sehr tiefe und nur wenige Meter breite Schlucht, spielte eine maßgebliche Rolle für die Szene der Gnus, bei der Simba schließlich gefangen wird. Als Referenzpunkte dienten auch die charakteristischen Kalktuff-Sedimente im Gebiet des Lake Mono und der Yellowstone-Park mit seinen geothermalen Quellen. Sie fungierten als Vorlage für den Elephant Graveyard, einem ausgedörrten, unwirtlichen Gebiet, in denen die Hyänen ihr Unwesen treiben.

Lion King / Elephant Graveyard. Bildquelle: buzzfeed.com


Kalktuff-Formationen am Lake Mono. Bildquelle: americansouthwest.net

Kameramann Caleb Deschanel bezeichnete die realen Eindrücke als wesentliche Grundlage für das Remake; eine Art Memory Bible, wie er sagte, die als Basis für die VR-Welt unentbehrlich schien.

Das hieß u.a. auch: Unmengen an Panoramen, HDRI-Standbildern (d. h. Aufnahmen mit detaillreicher Wiedergabe von Helligkeitsunterschieden), oder Photogrammetrien (durch Scans präferierter Felsformationen & Bäume, aus denen sich entsprechend 3D-Modelle errechnen lassen) und Texturshootings von Blättern und Baumrinden.

Szenische Abläufe wurden in einfachen Sketches vorbereitet, Thumbnails entsprechender (Tier-) Handlungen für die Szenen vermerkt, spezifische Bewegungsabläufe anhand realer Videoausschnitte gesetzt. Anhand des Referenzmaterials erfolgte schließlich die fotorealistische Bearbeitung skizzierter Abläufe. Modelle und Animationsobjekte wurden mit Hilfe der 3D-Animationssoftware Maya erstellt.

Für Änderungen im VR-Set gingen die Daten zurück nach London, um bei MPC in Maya oder anderen Programmen wie Houdini (Pelzdynamik), Katana (Beleuchtung) und dem firmeninternen Werkzeug Furtility (Texture Engine für Feder und Fell) modifiziert zu werden.

Grob animierte Version von Simba und Gefährtin Nala. Bildquelle: gizmodo.com

Den Daten Leben einhauchen

Die Designer von MPC (die beim Dschungelbuch-Remake einen Oscar für die VFX erhielten) hatten einiges zu tun: Textur und Farbgebung des Fells mussten schließlich v.a. in Nuancierung und Lichteinfall stimmig sein, eine authentische Tiefenwirkung der materiellen Elemente im Bild gewährleistet und organische Bewegungen der Tier-Charaktere zum Leben erweckt werden.

Die Schauspieler selbst agierten in einer Black-Box, einem abgedunkelten Raum, der mit Kameras zum Erfassen von Bewegungen ausgestattet wurde, die später als Referenz für die Animationen der tierischen Charaktere dienen sollten. Hier sprachen sie ihre Dialoge bzw. sangen ihren Part ein, wobei Mikrophone direkt am Körper angebracht wurden. Maßgeblich wurde mit einem Tele-Objektiv gefilmt, was Akteuren wie Donald Glover (Simba), Seth Rogen (Pumbaa) oder James Earl Jones (der erneut die Stimme des Mufasa spricht) mehr Bewegungsfreiheit gaben. Die Technik rückte so für die Darsteller in den Hintergrund und sie konnten sich ganz auf ihr Spiel konzentrieren.

Die Körpersprache der Schauspieler wurde auf die digitalen Akteure übertragen. Bildquelle: techcrunch.coom

Die meisten Szenen des Film entstammen dem Original-Drehbuch. Allerdings gab es auch ein paar Änderungen zugunsten der Logik. Etwa in der Szene, in der Scar Simba die Klippen hinunter stürzen lassen will: Entgegen dem Original, beißt hier der junge König ordentlich zu und befreit sich damit erfolgreich aus den Klauen des Widersachers.

„We´re at a time with so much change and disruption and i think the effort here was to keep the tradition, not just the tradition of the film and stage production that came before us, but the filmmaking tradition. Oftentimes when new technology comes online, it disrupts an industry, but with just a little bit effort we were able to build around the way filmmakers and film crews work.“

Jon Favreau

Unterwegs im Uncanny Valley?

Das Circle-of-Life-Original war nicht nur an Kinos ein Kassenschlager, sondern auch als Broadway-Musical mit über 9000 Shows ein absoluter Renner. Da erhebt sich Disneys neuer Tech-Ansatz konkurrenzfrei zu neuen Dimensionen, mag man meinen. Während viele Viewer vom technischen Ergebnis begeistert sind und gar das Wort „Wunder“ gebrauchen, überschlagen sich allerdings auch nicht wenig kritische Stimmen, bei denen es, eher verwundert, heißt: Ist es das erklärte Ziel des Filmes, einfach nur realistisch zu sein? Emotionalität würde bei der Adaption nur unzureichend übertragen, Herzwärme so mancher Schlüsselszene zu stark entgleiten – ganz im Gegensatz zum technisch rückständigeren Original…

Authentische, emotionale Darbietung der virtuellen Tier-Charaktere? Für die Anhänger dieser Meinung ganz klar Fehlanzeige. Lässt sich dieser Vorwurf durch das Uncanny-Valley-Syndrom begründen?

Nach Masahiro Mori vermag ein menschenähnlicher Charakter Gemüter weniger zu affizieren, als ein Charakter, der nur bis zu einem gewissen Grad menschenähnlich ist. Kurzum kann ein Charakter visuell hoch realistisch anmuten, dabei aber derart „unstimmig“ aussehen, dass der Zuschauer um die Erfahrung gebracht wird, sich in diesen auch hineinzufühlen.

Möglicherweise besteht ein Problem darin, dass Simba, Warzenschwein Pumbaa und Co. einfach derart hyperreal anmuten, dass man ihnen eine Stimme und menschliches Agieren nicht abnehmen kann. Die Technik hinter der König der Löwen ist dennoch ohne jeden Zweifel zukunftsweisend für Animationsfilme mit Realitätsanspruch. Es bleibt nur zu hoffen, dass zukünftige Filmprojekte die neuen Möglichkeiten reflektierter einsetzen.

Mit VR lassen sich alteingesessene Arbeitsabläufe neu gestalten, optimieren und verbessern. Auch Narrative können in Form einer persönlichen Experience erlebbar gemacht werden. Besonders authentisch wird eine Anwendung dann, wenn sie automatisch und intuitiv auf den Nutzer reagiert: Unsere Experten der Aspekteins GmbH stehen Ihnen bei jeder Frage in Sachen VR & Hyperresponsive Storytelling zur Seite. Wir freuen uns, von Ihnen zu hören!

HIER KLICKEN FÜR IHR VR-PROJEKT

Bildrechte Titelbild: © Raul – Adobe Stock

Die mobile Version verlassen