Was ist virtuelle Produktion?

Mit freundlicher Genehmigung von Framestore
In den letzten Jahren hat eine Vielzahl neuer Werkzeuge und Arbeitsabläufe die Art, wie Geschichten in der Medien- und Unterhaltungsbranche erzählt werden, immer weiter verändert. Angefangen bei Realfilmen und Serien über animierte Inhalte bis hin zu Fernsehsendungen und Live-Events.

Die Kombination von traditionellen Techniken mit digitalen Innovationen, die Echtzeit-Spiel-Engines nutzen, wird "virtuelle Produktion" genannt. Sie hat Auswirkungen auf alle Beteiligten einer Produktion, vom Produzenten über den Regisseur bis hin zum Stunt-Koordinator und Grip. 

Aber was genau ist virtuelle Produktion? Ist es das Gleiche wie In-Kamera-VFX? Und was ist mit Previs, Pitchvis, Stuntvis, Techvis und Postvis? Machen wir uns mit dem Jargon vertraut!

In dieser Echtzeit-Erklärung wollen wir diese Bezeichnungen und ein paar weitere Begriffe erläutern und die Rolle der Unreal Engine in einer sich stetig verändernden Welt der virtuellen Produktion beleuchten. Wir schauen uns die Vorteile dieser neuen Art des Filmemachens an.
 

Was ist virtuelle Produktion?

Virtuelle Produktion nutzt Technologie, um die digitale Welt in Echtzeit mit der realen Welt zu verbinden. Sie vermischt traditionelle Techniken des Filmemachens mit moderner Technologie, um kreative Visionen umzusetzen. 

Virtuelle Produktion wird seit Jahren in der Fernsehbranche eingesetzt, um live Echtzeitgrafiken zu produzieren, z. B. bei Sportübertragungen und Wahlberichterstattungen, bei denen sich Daten ständig verändern und Grafiken schnell aktualisiert werden müssen. 

Heutzutage sorgen technologische Fortschritte durch Echtzeit-Spiel-Engines wie die Unreal Engine dafür, dass hochwertige fotorealistische oder stilisierte Echtzeitgrafiken nicht nur für endgültige Pixel von Grafiken für Live-Übertragungen und Events, sondern auch bei der Erstellung von animierten Inhalten und in allen Bereichen der Produktion von Live-Action-Filmen vor, während und nach den Dreharbeiten eine wichtige Rolle spielen.
 

Die verschiedenen Arten der virtuellen Produktion

Zur virtuellen Produktion gehören Previs, Pitchvis, Techvis, Stuntvis (auch Action-Design genannt), Postvis und Live-Compositing (auch Simulcam genannt) sowie virtuelles Scouting, Standort-Scouting in VR und In-Kamera-VFX (auch OSVP genannt). Wir schauen uns jedes Schlagwort später in diesem Artikel an.
 

Wie unterscheidet sich virtuelle Produktion von traditioneller Filmproduktion?

Traditionelle Filmproduktionen laufen linear ab, angefangen bei der Vorproduktion (Konzeption und Planung) über die Produktion (Dreharbeiten) bis hin zur Nachbearbeitung (Schnitt, Farbkorrektur und visuelle Effekte). Da das Endergebnis erst am Ende des Prozesses zu sehen ist, sind Änderungen sehr zeitaufwendig und teuer. In einigen Fällen muss sogar ganz von vorne begonnen werden. Filmemacher haben so deutlich weniger Möglichkeiten, spontan kreative Entscheidungen zu treffen. 
Die virtuelle Produktion bricht die Grenzen zwischen Vorproduktion und Endergebnis auf und erlaubt es Regisseuren, Kameraleuten und Produzenten, schon viel früher im Produktionsprozess eine Repräsentation des Endprodukts zu sehen. Sie können daher schneller und günstiger Änderungen vornehmen. Sie können die Erzählung entsprechend ihren kreativen Wünschen verbessern, damit letztendlich bessere Geschichten erzählen und gleichzeitig Zeit und Geld sparen.

Nutzung von virtueller Produktion für die Visualisierung

Durch virtuelle Produktion können Filmemacher verschiedene Aspekte ihres Films vor, während und nach der Produktion visualisieren – sowohl Live-Action-Elemente, als auch visuelle Effekte oder animierte Inhalte. Zu diesen Visualisierungsprozessen gehören:
  • Previs
  • Pitchvis
  • Techvis
  • Stuntvis (auch Action-Design genannt)
  • Postvis
  • Live-Compositing (auch Simulcam genannt)
 

Previs

Die Previs, also die Vorvisualisierung, existiert in der einen oder anderen Form schon länger als die moderne virtuelle Produktion. Nach handgezeichneten Storyboards sind Vorvisualisierungen in 3D der nächste Schritt. 

Vereinfacht ausgedrückt werden hier mit computergenerierten Bildern (CGI) die wichtigsten visuellen Elemente und Handlungen vor Beginn der Dreharbeiten skizziert, um die visuelle Umsetzung des Drehbuchs zu planen und verschiedene Möglichkeiten auszuprobieren. In einer Actionszene mit wenig Dialog liefert die Previs auch Details für die Storyelemente, die die Handlung vorantreiben.

Die Previs liefert Anhaltspunkte für das, was gedreht werden muss. Sie ist außerdem die Grundlage für die Ausschreibung von VFX-Aufträgen an Studios, die miteinander konkurrieren, um einige oder alle Aufnahmen fertig umzusetzen.
Mit freundlicher Genehmigung von The Third Floor
Früher wurden Charaktere und Assets mit niedriger Auflösung schnell in Offline-Softwarelösungen gerendert und dann zusammengefügt. Spiel-Engines wie die Unreal Engine sind mittlerweile in der Lage, fotorealistische Assets in voller Auflösung in Echtzeit zu rendern, wodurch die Filmemacher ihre Vision noch lebensechter vor sich sehen, spontan Änderungen vornehmen und so bessere Entscheidungen treffen können.

Unten erfahren Sie, wie Zoic Studios die actiongeladenen visuellen Effektsequenzen für die Fernsehserie Superman & Lois von Warner Bros. mit Hilfe von Previs in der Unreal Engine in Filmqualität aber auf einer episodischen TV-Timeline erstellt hat.
  

Die Rolle von virtuellen Kameras in der Visualisierung

In der Previs können virtuelle Kameras oder VCams eingesetzt werden, genau wie in vielen anderen Phasen der virtuellen Produktion. Durch sie können Filmemacher eine Kamera in der Unreal Engine über ein externes Gerät steuern (oft ein iPad) und diese Bewegung aufzeichnen. Die aufgezeichneten Kamerabewegungen können für das Blocking benutzt werden, um als Startpunkte für manuelle Anpassungen zu dienen. Sie können auch eine Vorschau der Schärfentiefe geben oder sogar als finale Kameraeinstellungen bis zur Nachbearbeitung verwendet werden.

Viele Filmemacher bevorzugen die Arbeit mit einem greifbaren, echten Gerät, das ihnen vertrauter ist, als die Bedienung über eine Software-Benutzeroberfläche. Auf diese Weise lassen sich realistischere Kamerabewegungen in der digitalen Welt erzeugen. 
 

Pitchvis

Pitchvis ist eine Form der Previs, die normalerweise stattfindet, bevor ein Projekt grünes Licht bekommt. Sie dient dazu, alle Beteiligten zu überzeugen, indem das beabsichtigte Erscheinungsbild eines Projekts präsentiert wird, bevor man eine größere Investition tätigt.

Die Unreal Engine wurde bereits erfolgreich für die Pitches von Projekten wie Ruf der Wildnis (2020) von Christopher Sanders eingesetzt, wo sie entscheidend dazu beitrug, die Produktion des Projekts fortzusetzen, oder die animierte Serie Battlesuit des Indie-Filmemachers HaZ Dulull. Erfahren Sie unten, was HaZ dazu zu sagen hat.

Techvis

Techvis wird benutzt, um die genauen technischen Anforderungen der echten und digitalen Einstellungen zu ermitteln, bevor überhaupt Personal und Ausrüstung (d. h. auch Kameras, Kräne und Motion-Control-Rigs) für die Produktion benötigt werden. Mit Techvis kann die Machbarkeit von Einstellungen innerhalb der räumlichen Grenzen eines bestimmten Ortes geprüft werden – z. B. wo ein Kran aufgestellt wird, oder ob er überhaupt ans Set passt – und auch das Blocking mit virtuellen Elementen. Außerdem lässt sich mit ihr ermitteln, wie groß das physische Set im Vergleich zu den digitalen Erweiterungen sein muss. 

In der Techvis werden oft deutlich simplere Assets verwendet als in der Previs, da mit ihr keine kreativen Entscheidungen getroffen werden – im Idealfall wurden diese zu diesem Zeitpunkt schon getroffen. Der eigentliche Wert liegt darin, dem Team praktische, verlässliche Informationen an die Hand zu geben, um die Dreharbeiten effizienter zu gestalten. 
 
Mit freundlicher Genehmigung von PROXi Virtual Production

Stuntvis/Action-Design

Stuntvis bzw. Action-Design ist eine Kombination aus Previs und Techvis für echte Stunts und Actionsequenzen. Sie erfordert einen hohen Grad an Genauigkeit, damit für Actionsequenzen genaue Choreografien erstellt sowie kreative Entscheidungen umgesetzt werden können und ein hohes Maß an Sicherheit für die Stuntleute und die Darsteller gewährleistet ist.

Die Unreal Engine simuliert die physikalische Welt, wodurch die Stuntleute simulierte Aufnahmen proben und durchführen können, die der Realität so nah wie möglich kommen. Das erhöht die Effizienz der Produktion, sodass eventuell weniger Drehtage anfallen.

Schauen Sie sich diese Präsentation von Guy und Harrison Norris an, den Gründern von PROXi Virtual Production, und erfahren Sie, wie sie die neuesten Möglichkeiten der Unreal Engine für Action-Design und Techvis in Filmen wie The Suicide Squad einsetzen.

Postvis

Die Postvis erfolgt, nachdem der eigentliche Dreh beendet ist. Sie wird eingesetzt, um visuelle Effekte hinzuzufügen, die noch nicht fertiggestellt sind (oder mit deren Arbeit noch nicht einmal begonnen wurde). In diesen Szenen befinden sich in der Regel Greenscreen-Elemente, die im fertigen Produkt durch CGI ersetzt werden. Die Postvis nutzt oft die ursprüngliche Previs der VFX-Elemente und kombiniert sie mit den echten Aufnahmen. 

In der Postvis kann dem VFX-Team die Vorstellung des Filmemachers deutlich gemacht werden. Außerdem kann hier eine genauere Version unfertiger Szenen mit vielen visuellen Effekten für den Schnitt bereitgestellt werden. Sie erlaubt es Filmemachern, eine Version des Films mit visuellen Effekten zu bewerten – auch wenn die Effekte noch nicht fertiggestellt sind – und die Zustimmung aller Beteiligten sicherzustellen. Sie kann sogar benutzt werden, damit frühe Testscreenings dem geplanten Endprodukt eher entsprechen.
 
L: Postvis, R: Endprodukt Mit freundlicher Genehmigung von SOKRISPYMEDIA.

Live-Compositing/Simulcam

Es gibt eine weitere Art der Visualisierung, die wir besprechen müssen. Im Grunde ist das Live-Compositing der Postvis insofern ähnlich, dass Live-Action-Bildmaterial mit einer Repräsentation der CGI kombiniert wird. Hier passiert das Ganze jedoch direkt während der Dreharbeiten. 

Eines der frühesten Beispiele für den Einsatz von Live-Compositing waren die Dreharbeiten zu Avatar von James Cameron, der dafür den Begriff "Simulcam" prägte. Mit dieser Technik kann der Filmemacher eine Repräsentation der CG-Elemente sehen, die während des Drehs über die echten Szenen gelegt werden, um ein besseres Gefühl dafür zu bekommen, wie die Aufnahmen aussehen werden. 

Typischerweise wird es benutzt, um CG-Charaktere, die durch Performance Capture dargestellt werden (live oder voraufgezeichnet), zu visualisieren. Performance Capture ist eine Art des Motion Captures, bei dem die Bewegungen eines Darsteller bis hin zu Mimik und Gestik von einem speziellen System aufgenommen werden, um schließlich auf CG-Charaktere übertragen zu werden. Viele virtuelle Produktionen nutzen Performance Capture, aber ein Beispiel für den Einsatz von Live-Compositing ist die Netflix-Show Dance Monsters. Es wurde auch gekonnt in Willkommen in Marwen von Robert Zemeckis eingesetzt.

Virtuelles Scouting

Eine weitere Facette der virtuellen Produktion ist das virtuelle Scouting. Mit diesem Werkzeug können Kreative wie Regisseure, Kameraleute oder Produktionsdesigner einen virtuellen Drehort in VR besichtigen, um in das Set einzutauchen und ein besseres Gefühl für seine Größe zu bekommen. 

Das kann dem Team beim Design besonders herausfordernder Sets und der Choreografie komplexer Szenen helfen, wie zum Beispiel bei John Wick: Kapitel 3, wie Sie unten sehen können.
Darüber hinaus wird das virtuelle Scouting häufig für das Einrichten von Sets verwendet: Ein Team kann digitale Assets bewegen und dabei die Umgebung in menschlichem Maßstab betrachten.

Virtuelles Scouting geschieht oft in Zusammenarbeit mit mehreren Beteiligten, die gleichzeitig an der Beurteilung teilnehmen. Sie können das Set gemeinsam erkunden und Bereiche, die für den Dreh bestimmter Szenen besonders interessant sind, festlegen und teilweise markieren. Sie können auch festlegen, welche Props tatsächlich gebaut werden sollen und welche virtuell bleiben.

Standort-Scouting in VR

Standort-Scouting in VR ist eine Erweiterung des virtuellen Scoutings. In diesem Fall ist das Set ein echter Ort. Ein Teammitglied kann die Szene mit Fotogrammetrie-Werkzeugen wie RealityCapture aufnehmen, während die anderen Teammitglieder die Szene virtuell in der Unreal Engine erkunden können. Dieser Prozess kann viel Zeit und Reisekosten sparen, vor allem wenn mehrere Orte zur Auswahl stehen.

Was ist In-Kamera-VFX (ICVFX)?

In-Kamera-VFX, manchmal auch "on-set virtual production" (OSVP, virtuelle Produktion am Set) genannt, ist eine Form der virtuellen Produktion, die in letzter Zeit hoch im Kurs steht, und aus hochwertigen Serien wie The Mandalorian bekannt ist. Hier finden die Dreharbeiten auf großen Bühnen oder Volumes mit LEDs an Wänden und der Decke statt, auf denen mit einer Echtzeit-Engine generierte Umgebungen dargestellt werden. Die fortschrittlichsten LED-Volumes sind halbkreisförmige Kuppeln, die die Bühne vollständig umschließen. Einfachere Bühnen sind z. B. halbe Würfel oder einzelne Wände. 

Hier wird weit mehr als nur der Hintergrund ersetzt. Die Echtzeit-Szene ist live, interaktiv und bewegt sich im Verhältnis zur Kamera, um einen realistischen Parallaxeffekt zu erzeugen, damit die Perspektive für alle Darsteller und alle Objekte stimmt. Die LED-Bildschirme sorgen außerdem für realistische Beleuchtung und Reflexionen auf den Schauspielern, die dadurch noch mehr so wirken, als würden sie sich in der Szenerie befinden.
Mit freundlicher Genehmigung von Alter Ego, Pixomondo, William F. White, Virtual Production Academy und Caledon FC

Was sind die Vorteile von In-Kamera-VFX?

Bei traditionellen Produktionen, in denen Live-Action-Aufnahmen später mit computergenerierten Bildern (CGI) kombiniert werden, stehen die Schauspieler vor einem Greenscreen-Hintergrund. Dieser Hintergrund kann in der Nachbearbeitung durch digitale Elemente ersetzt werden. Schauspieler und Regisseure müssen sich die finale Umgebung vorstellen. Bei der virtuellen Produktion am Set arbeiten die Darsteller und das Team hingegen in einer Szene, wodurch es einfacher ist, überzeugende Darstellungen zu liefern und bessere kreative Entscheidungen zu treffen.

Bei einfachen VFX-Aufnahmen können die endgültigen Pixel durch In-Kamera-VFX in einigen Fällen sofort und ohne Nachbearbeitung erzeugt werden, was Zeit und Geld spart. Die Live-Action-Szenen werden vor dem CGI gedreht und so werden bereits fertige Bilder produziert. Diese nennt man "In-Kamera-Finals". 

In anderen Fällen können In-Kamera-VFX dazu führen, dass durchschnittlich herausfordernde Aufnahmen nur wenig nachbearbeitet werden müssen und sehr aufwendige Aufnahmen viel weniger Zeit für die Nachbearbeitung benötigen.

Ein weiterer großer Vorteil an der Arbeit auf LED-Bühnen ist, dass Beleuchtung und Tageszeit problemlos verändert werden können. Es muss nicht mehr auf ideale Licht- oder Wetterbedingungen gewartet werden. So ist es auch einfacher, die Kontinuität zu wahren, da Szenen genau in dem Zustand fortgesetzt werden können, in dem sie waren, und das innerhalb von Minuten und nicht Stunden.

Die Unreal Engine bietet einen kompletten Werkzeugsatz, der ICVFX unterstützt. Schauen Sie sich an, wie es von einigen führenden Filmemachern ausprobiert wird.

Ressourcen für die virtuelle Produktion

Wir hoffen, dass Ihnen diese Einblicke in die spannende Welt der virtuellen Produktion und ICVFX gefallen haben und Ihnen das Thema etwas näherbringen konnten. Sie möchten mehr über virtuelle Produktion erfahren? Schauen Sie sich unten ein paar nützliche Ressourcen an.

Der Field Guide für virtuelle Produktion

Der Field Guide für die virtuelle Produktion wird Ihnen in zwei Teilen kostenlos zur Verfügung gestellt und bietet umfassende Einblicke in die Art und Weise, wie Technologie die Kunst und das Handwerk des Filmemachens transformiert. Außerdem finden Sie darin praktische Ratschläge zur Anwendung der Techniken bei Ihrer eigenen Produktion. 

Die Epic Entwickler-Community

Die Epic Entwickler-Community ist Ihre Adresse, um Fragen zu stellen und zu beantworten; Ihre Arbeit zu zeigen und sich von anderen inspirieren zu lassen; und um von Hunderten Stunden kostenloser Lerninhalte zu profitieren. Hier finden Sie einige Ressourcen, die besonders für Creators nützlich sind, die an virtueller Produktion interessiert sind:  
 

Hub für virtuelle Produktion

In unserem Hub für virtuelle Produktion finden Sie Neuigkeiten und Fallstudien aus aller Welt. Besuchen Sie ihn, um die neuesten Informationen, Insights und Inspirationen für die virtuelle Produktion zu erhalten. 

Das Glossar für virtuelle Produktion

Das Glossar für virtuelle Produktion ist durch Input der Visual Effects Society, der American Society of Cinematographers, Epic Games und Netflix entstanden, und ist eine gute Quelle, um die Terminologie, auf die Sie in diesem Feld eventuell treffen, besser zu verstehen.

Weitere Echtzeit-Erklärungen


Echtzeit-Erklärungen

Was sind Broadcast Cinematics?

Echtzeit-Erklärungen

Was ist Echtzeit-Raytracing?

Echtzeit-Erklärungen

Was ist Erweiterte Realität?

Verwandte Artikel


Virtuelle Produktion

Virtuelle Produktion erreicht neue Höhen in der M&E-Branche