Quill 2.0: Das VR-Animations- und Storytelling-Tool geht in die nächste Runde

1. November 2019 Katrin Pape

Quill 2.0: Das VR-Animations- und Storytelling-Tool geht in die nächste Runde

2016 stellte Oculus Story Studio sein VR-Illustrations-Tool Quill als Gegenspieler zu Googles Zeichenwerkzeug Tiltbrush vor und ergänzte die hauseigene Marke Medium, bei dem Objekte in 3D modelliert und gestaltet werden können.

Unter dem Motto „designed to be expressive and precise“ und den stark beeindruckenden Visuals im Rahmen des VR-Kurzfilmes „Dear Angelica“ (von Künstlerin Wesley Allsbrook), bot die App Usern schon in ihren originären Zügen eine spannende Form kreativer Selbstverwirklichung – quasi ein interaktives Seh-Erlebnis, bei dem die grafische Strichführung faszinierende Echtzeit-Visuals generierte.

Narrative im animierten VR-Storytelling ausweiten

Nach Shutdown des Story Studios tüftelten Inigo Quilez und Goro Fujita, seinerzeit VFX-Supervisorin bzw. Art Director bei Oculus´ VR-Storytelling-Abteilung, an einer modifizierten Version von Quill, in der sämtliche Features eine umfassende Überarbeitung finden. Quill 2.0 wurde somit zu einem vollumfassenden Storytelling-Tool ausgebaut.

Introducing Quill 2.0 | Oculus Rift Platform

Narrative noch freier und einfacher sowie ohne zeitliche Einschränkungen erstellbar zu machen – das war erklärter Fokus bei der Entwicklung.

Action, Immersion, Emotion

https://www.facebook.com/goro.fujita/videos/382933242363165/

Grundlegend bietet Quill Oculus Rift-Besitzern die Möglichkeit, vollständige Kontrolle über ihre 3D-Animationen zu behalten: Durch die Verwendung der Touch-Controller können Formen und Figuren in sechs Freiheitsgraden (6-DoF) buchstäblich in den Raum gezeichnet und anschließend aus jeder Perspektive betrachtet werden.

Das Update bietet mit der animierten Timeline-Funktion den Vorteil, dass angelegte Storyboards nun nahtlos in VR-Animationen übertragen werden können, ohne die Plattform zu wechseln – gewissermaßen ein All-in-One-Tool: Storyboards, Modelling, Beleuchtung, Rigging (das Erstellen eines Skeletts, das zur Animation von Charakteren benötigt wird) und andere Aspekte der Animationen können übersichtlich bearbeitet werden, ohne dass der Anwender über Vorerfahrungen in 3D-Software verfügen muss. Durch den Rückgriff auf Keyframes können Einzelbild-Animationen meist vermieden werden.

„The vision of Quill is to enable VR native entertainment – not just a movie that you see in two dimensions – but an actual immersive film experience. So like films, but using all the power of VR.

Lilli Thompson, Product Manager Quill

Kurze Loops, lange Loops, noch längere Loops

Eine weitere Neuerung der Version 2.0 umfasst den Import von 360-Grad-Bildern.

Ein Colorizer verspricht außerdem Transparenzanpassungen und sorgt damit für noch mehr Präszisionsreichtum bei umfangreichen Zeichnungen. Auch dieser Wert kann durch Keyframes animiert werden.

Gleichermaßen lässt sich mit Quill 2.0 auch komplexere Akustik visuell zum Ausdruck bringen: Der Sound kann räumlich abgemischt, die Lautstärke animiert und mit Animationen synchronisiert werden. Direktionales Audio kann lokal eingesetzt werden, ohne andere Bereiche der Animation zu beeinflussen. Wave-Dateien werden in jeder Ebene der Animations-Timeline angezeigt und erleichtern so die Steuerung von z.B. Lippensynchronisation. Schallemitter in kegel- bzw. pyramidaler Form dienen schließlich der verbesserten Positionierung des Audios.

Mit dem eigenen Tempo erkunden

Für ein noch intensiveres und vor allen Dingen immersiveres Storytelling-Erlebnis sorgen zudem sog. Stops. Der User bzw. Viewer der VR-App kann, indem die Hauptstory temporär angehalten wird, hintergründige Handlungsstränge genauer sondieren und en détail fokussieren.

Zum Schleifen mehrerer gleich geordneter Ebenen werden sog. Sequence Layer verwendet, die als eine Art Gruppenebene verschachtelte Zeitebenen repräsentieren. Sie besitzen z.B. das Privileg, von den o.g. Stops unberührt zu bleiben und andere Handlungsabläufe weiterlaufen zu lassen.

Die neue Version von Quill zeigt, wie groß das Potential für immersives Geschichtenerzählen ist. Auch wir von Aspekteins beschäftigen uns maßgeblich mit diesem Gebiet. Unser Fokus ist dabei die Steigerung der Immersion durch intuitive Interaktionen. Durch intelligente Verknüpfung von 360°-Videomaterial in Abhängigkeit einer Echtzeit-Auswertung verschiedener Sensoriken entsteht ein nahtloses Erlebnis, das perfekt auf den Nutzer zugeschnitten ist. Wir nennen dieses Format Hyperresponsive Storytelling.

Wir haben Ihr Interesse geweckt? Dann kontaktieren Sie uns. Gerne unterstützen wir Sie bei Ihrem Projekt.

HIER KLICKEN FÜR IHR 360°- / HRVR-PROJEKT

Bildrechte Titelbild: © puhhha – Adobe Stock

, , , ,
Standort Berlin:
+49 301 2053 294
berlin@aspekteins.com
Standort Saarbrücken:
+49 681 6880 1113
saarbruecken@aspekteins.com
Standort Berlin:
+49 301 2053 294
berlin@aspekteins.com
Standort Saarbrücken:
+49 681 6880 1113
saarbruecken@aspekteins.com