バーチャル プロダクションとは

Courtesy of Framestore
ここ数年間にわたって、プロダクション ツールやワークフローの新しい波により、メディア & エンターテインメント業界では、ストーリーメイキングの手法はライブアクション映画やテレビから、アニメーション コンテンツを経て、ブロードキャスト イベントとライブイベントで一変しつつあります。

この現象は、リアルタイム ゲーム エンジンを利用するデジタル イノベーションと従来の技術を融合したもので、バーチャル プロダクションと呼ばれ、プロデューサーやディレクターからスタント コーディネーターやグリップまでのすべての人に影響を与えます。 

バーチャル プロダクションとは実際のところ、どのようなものでしょうか?インカメラ VFX と同じでしょうか?また、プリビズ、ピッチビズ、スタントビズ、テックビズ、そしてポストビズとは何でしょうか?学ぶべきことはたくさんあります!

今回の「リアルタイムの基礎知識」では、これらの用語など、すべてをわかりやすく説明し、進化するバーチャル プロダクションの世界で Unreal Engine が果たす役割についても解説しています。新しい映像制作技術に関連する利点についても探っていこうと思います。
 

バーチャル プロダクションとは

バーチャル プロダクションではテクノロジーを使用して、デジタルな世界と物理的な世界をリアルタイムに結び付けます。これは従来の映像制作技術と最新の技術を組み合わせて、クリエイティブがビジョンを表現することを支援します。 

バーチャル プロダクションは、リアルタイムのグラフィックをライブ放映する放送業界で何年も使用されてきました。例えば、入力データが常に変化し、グラフィックをすぐに更新する必要があるスポーツ番組や選挙報道などです。 

現在、Unreal Engine のようなリアルタイムのゲーム エンジンを中心とした技術的進歩によって、忠実度の高いフォトリアルでスタイル化されたリアルタイムのグラフィックが、ライブ放送やライブ イベントの最終ピクセルだけでなく、アニメーション コンテンツの作成や主要撮影前後や途中のライブアクションによる映像制作プロセスのあらゆる部分においても、重要なものになりつつあります。
 

さまざまなバーチャル プロダクション

バーチャル プロダクションには、プリビズ、ピッチビズ、テックビズ、スタントビズ (アクション デザイン)、ポストビズ、ライブ合成 (サイマルカム)、バーチャル スカウティング、VR ロケーション スカウティング、インカメラ VFX (オンセットのバーチャル プロダクション) が含まれています。これらについては この記事の後半で説明します。
 

従来の映像制作とバーチャル プロダクションの相違点とは

従来の映像制作は直線的なプロセスであり、プリプロダクション (コンセプト作成と計画) からプロダクション (撮影) を経て、最終的にポストプロダクション (編集、カラー グレーディング、視覚効果) に移ります。プロセスの最後になるまでどのようなものになるのかわからないため、変更は非常に時間とコストがかかり、最初からやり直さなければならないこともあります。その結果、映像制作者の臨機応変にクリエイティブな決定を下す能力は、大きな制約を受けます。 
対照的に、バーチャル プロダクションでは、プリプロダクションと最終結果間の壁がなくなるので、ディレクター、シネマトグラファーおよびプロデューサーがプロダクション プロセスで完成したものをより早く確認でき、すばやくかつ低コストで繰り返すことができます。従って、クリエイティブの意図を反映するように物語を調整し、同時に時間と費用を節約しながら、最終的によりよいストーリーを作ることができるのです。

ビジュアライゼーションにバーチャル プロダクションを使用する

バーチャル プロダクションを使用すると、映像制作者は、ライブアクション要素と視覚効果やアニメーション コンテンツの両方に対して、プロダクションの前後や途中で映像のさまざまな側面を視覚化できます。これらのビジュアライゼーション プロセスには、次のものがあります。
  • プリビズ
  • ピッチビズ
  • テックビズ
  • スタントビズ (アクション デザイン)
  • ポストビズ
  • ライブ合成 (サイマルカム)
 

プリビズ

プリビジュアライゼーションの短縮形であるプリビズは、現在のバーチャル プロダクションよりも前に何らかの形式で行われていました。3D プリビジュアライゼーションは、手描きのストーリーボードからレベルアップされたものです。 

簡単に説明すると、これは、撮影を開始する前に、スクリプトがどのように視覚的に表現されるかを定義したり、別のシナリオを試したりするために、コンピュータで生成されたイメージ (CGI) を使用してメインとなるビジュアルとアクションを大まかに作成することです。最小限のセリフのアクション シーンで、プリビズは物語を進めるストーリー要素も詳細に明らかにします。

プリビズでは、ショットをライブにする必要があるものを示します。また、これによって VFX 入札の判断基準となるものが提供され、ここでスタジオは、ショットの一部またはすべてを完成させるための契約について他社と競います。
Courtesy of The Third Floor
もともと、低解像度のキャラクターやアセットは、編集する前にオフライン ソフトウェア パッケージですばやくレンダリングされていました。完全な解像度のフォトリアルなアセットをリアルタイムでレンダリングする Unreal Engine のようなゲーム エンジンの機能を使用すると、映像制作者はビジョンをさらに色鮮やかに実現し、状況に応じて繰り返し、結果としてよりよい決断を下すことができます。

Zoic Studios が Unreal Engine のプリビズを用いて、Warner Bros のテレビシリーズ『スーパーマン & ロイス』のアクション満載の視覚効果シーケンスを、どのように映画品質で制作したかについて確認していきます。
  

ビジュアライゼーションにおけるバーチャル カメラの役割

プリビズとバーチャル プロダクションの他の多くの段階では、バーチャル カメラ (VCam) を使用することがあります。これを使用すると、映像制作者は Unreal Engine でカメラを iPad などの外部デバイスからパイロットして、動きを記録できるようになります。その結果、カメラの動きをブロッキングに使用できるようになります。ここで、これが手動での調整の開始点になり、被写界深度を提供して、ライブアクションのカメラ設定を決定できます。ポストプロダクションまで使用する最終的なカメラとして決定することもできます。

多くの映像制作者は、ソフトウェアのユーザー インターフェースによる操作よりも、物理的な触覚デバイスによる操作の方が魅力的でやりやすいと感じます。その結果、デジタル ワールドにおいて、よりリアルなカメラの動きがもたらされます。 
 

ピッチビズ

ピッチビズはプリビズの形式の一種で、通常はプロジェクトのゴーサインが出る前に行われます。これは、主要投資がコミットされる前に、プロジェクトで意図しているルックアンドフィールの実例を示すことによって、利害関係者の同意を得られるように設計されています。

Unreal Engine は、Christopher Sanders 氏の 2020 年の『野生の呼び声』 (中止されたプロジェクトの再開に貢献) やインディーズ映像制作者 HaZ Dulull 氏のアニメート シリーズBattlesuitのようにさまざまなプロジェクトの売り込みの成功に役立ちました。Dulull 氏がどのように語っているか確認しましょう。

テックビズ

テックビズは、プロダクションでのクルーや設備 (カメラ、クレーン、モーション コントロール リグなど) にコミットする前に、実物のショットとデジタル ショットの正確な技術的要件を練り上げるために使用されます。テックビズを使用して、特定のロケーションの範囲 (クレーンが移動する場合やセットに合っている場合でも) 内やバーチャル要素の関与のブロッキングの範囲内でショット デザインの実現可能性を探ることができます。デジタル セット エクステンションと対比して物理セットがどの程度必要であるかを判断するためにも使用できます。 

クリエイティブな決定を行うために使用されないので (理想的には、この時点ではすでに決定済み)、テックビズではプリビズよりも多くの基本的なアセットを使用します。クルーがより効率的に撮影を行えるように使用できる実際的な情報を提供することに、本当の価値があります。 
 
Courtesy of PROXi Virtual Production

スタントビズ / アクション デザイン

スタントビズはアクション デザインとも呼ばれ、物理的なスタント ワークやアクション デザイン向けにプリビズとテックビズを組み合わせたものです。アクション デザイナーが正確にショットの振り付けをし、クリエイティブの同意を得て、スタント パフォーマーの高い安全レベルを維持できるように、高い正確性が必要になります。

Unreal Engine で現実世界の物理的なシミュレーションを取り込むことよって、スタント クルーはシミュレートされたショットの予行練習をして遂行し、可能な限り完全な現実を反映できるようになります。これにより、プロダクション時の効率がはるかに向上し、撮影日数を短縮できます。

PROXi Virtual Production の設立者である Guy Norris 氏と Harrison Norris 氏のプレゼンテーションをチェックして、映画『 スーサイド・スクワッド』ではどのように Unreal Engine の最先端の技術をアクション デザインやテックビズに使用しているか、探りましょう。

ポストビズ

ポストビズは、物理的な撮影が終了した後に行われます。これは、ライブアクション映像に追加された視覚効果がショットにあるが、まだ完全ではない (開始されていない場合もあります) 場合に使用されます。これらのショットには、通常、最終的な製品で CGI と置き換えられるグリーンスクリーンの要素があります。ポストビズは VFX 要素の元のプリビズを再利用し、これを実世界の映像と組み合わせます。 

ポストビズでは、映像制作者のビジョンがビジュアル エフェクト チームに提供され、アセンブル編集時に未完成の VFX を多用するショットのより正確なバージョンが編集者に提供されます。これによって、映像制作者は、最終的な VFX がまだ完了していなくても参照用ビジュアルでカットを評価し、すべての利害関係者から同意を得られるようになります。これを使用すると、早期のテスト上映で最終的な製品により近づけることができます。
 
左:ポストビズ、右:最終 Courtesy of SOKRISPYMEDIA

ライブ合成 / サイマルカム

説明したいビジュアライゼーションがもう一つあります。基本的に、ライブ合成は、参照としてライブアクション映像を CGI 表現と組み合わせるという点でポストビズと似ていますが、撮影中に行われます。しかしながら、これは「duringvis (撮影中のビズ)」とは呼ばれていません。 

映画セットでのライブ合成の初期の使用例が、「サイマルカム」という言葉を作った James Cameron 氏による『アバター』のメイキング にあります。この技術を使用すると、映像制作者は、撮影時にライブ アクションに対して合成された CG 要素の表現を確認し、何がキャプチャされているかを認識できます。

通常、これは、パフォーマンス キャプチャ データ (ライブまたは事前に記録されたデータか、あるいはその両方) によって駆動される CG キャラクターを視覚化するために使用されます。パフォーマンス キャプチャはモーション キャプチャの一種であり、顔や指の微妙な動きなど、役者のパフォーマンスを専用のシステムでキャプチャし、CG キャラクターに転送できます。多くのバーチャル プロダクション プロセスには、パフォーマンス キャプチャが使用されていますが、ライブ合成での使用例として、Netflix の番組『ダンス・モンスターズ』があります。これを使用することで、Robert Zemeckis 氏の『マーウェン』でも大きな効果がもたらされました。

バーチャル スカウティング

バーチャル プロダクションの別の側面として、バーチャル スカウティングがあります。この強力なツールを使用すると、ディレクター、シネマトグラファー、プロダクション デザイナーなどの主要なクリエイティブはバーチャル リアリティ (VR) でバーチャル ロケーションをレビューでき、セット内に没入してリアルなスケールを感じることができます。 

これは、以下の『ジョン・ウィック:パラベラム』でも、非常に難しいセットをデザインして複雑なシーンの振り付けをするのに役立っています。
バーチャル スカウティングによく使われるもう一つの例として、セット装飾があります。ヒューマン スケールで環境の体験中に、デジタル アセットを動かせるというものです。

バーチャル スカウティングは連携しやすく、複数の利害関係者が同時にレビューに参加できるようになります。セットを一緒に確認したり、あるシーンを撮影する際に興味のある部分を特定してブックマークしたりすることができます。バーチャルになるものに対して物理的に作成できる小道具を示すこともできます。

VR ロケーション スカウティング

バーチャル スカウティングの拡張機能として、VR ロケーション スカウティングがあります。この場合のセットは実際の場所にあります。あるチームメンバーが RealityCapture などのフォトグラメトリ ツールを使用して、シーンをキャプチャするために先乗りし、その後、他のチームメンバーが Unreal Engine でバーチャル スカウティングを使用して、これをリモートでレビューできます。特に選択する場所が複数ある場合に、時間と旅費を大幅に節約できます。

インカメラ VFX (ICVFX) とは

インカメラ VFX はオンセットのバーチャル プロダクション (OSVP) と呼ばれることもあり、最近、盛んに取り上げられているバーチャル プロダクションです。『マンダロリアン』でこれが利用され、注目を集めています。この技術を使用して、ライブアクションによる撮影が大規模な LED ステージまたは LED ボリュームで行われ、壁や天井にリアルタイム エンジンで生成された環境が映し出されます。より単純なステージは半分の立方体や一枚の壁ですが、最も洗練された LED ボリュームは半球状のドームで、完全にステージを囲みます。 

これは、背景が変わるだけでなく、リアルタイムのシーンがライブかつインタラクティブになり、カメラに合わせて動き、真に迫った視差効果を作り出すので、すべてが正しい視点で見えるようになります。LED ディスプレイでは、役者にリアルなライティングやリフレクションをキャストするため、役者がシーンに完全に没入しているように見えます。
Courtesy of Alter Ego, Pixomondo, William F. White, Virtual Production Academy, and Caledon FC

インカメラ VFX の利点とは

従来のプロダクションでは、ライブ アクション映像をコンピュータで生成したイメージ (CGI) と最終的に組み合わせるので、俳優はグリーン スクリーンを背景にして撮影されます。その後、この背景をポストプロダクションでデジタル要素に置き換えます。俳優やディレクターは、最終的な環境を想像しなければなりません。対照的に、オンセットのバーチャル プロダクションを使用すると、キャストとクルーがコンテキスト内にいるので、説得力のあるパフォーマンスを表現し、よりクリエイティブな決定を下しやすくなります。

簡単な VFX ショットの場合、インカメラ VFX はポストプロダクションを行うことなく最終ピクセルを作成し、時間と費用の両方を節約できることがあります。つまり、ライブアクション映像と CGI を組み合わせてカメラで撮影し、最終的なフレームを作成するのです。これらはインカメラのファイナル映像と呼ばれています。 

また、インカメラ VFX を使用すると、やや難しいショットで若干のポストプロダクション作業を行うだけで済み、難しいショットで以前よりもポストプロダクション作業で完成させるための時間を削減できるようになります。

LED ステージでの作業のもう一つの大きなメリットは、ライティングと時間帯のコントロールが容易になったことです。ゴールデン アワーや理想的な天気を待たなくてもよくなったのです。続行も容易になりました。シーンをまったく同じ状態で、何時間もかけることなく、数分のうちに再度呼び出せます。

Unreal Engine では、ICVFX をサポートするための完全なツールセットを用意しています。以下で、最先端の映像制作者による試行の内容を確認できます。

バーチャル プロダクションのリソース

バーチャル プロダクションと ICVFX のエキサイティングな世界の短時間のツアーを体験し、これによって、あらゆることがより理解しやすくなったと思います。バーチャル プロダクションの詳細を確認する場合は、以下のリソースをチェックしてください。

バーチャル プロダクション フィールド ガイド

「バーチャル プロダクション フィールド ガイド」は、技術を使って映像制作の芸術を変化させる方法について、深い洞察と、ユーザーのプロダクションでそのテクニックを使用するための実践的なアドバイスを提供する 2 巻からなる無料リソースです。 

Epic Developer Community

Epic Developer Community は、質問したり質問に答えたり、自分の作業を紹介したり、他のユーザーからインスピレーションを得たり、多数の無料のラーニング コンテンツにアクセスしたりする際に頼りになる場所です。バーチャル プロダクションに興味のあるクリエイターに特に役立つリソースを以下に示します。  
 

バーチャル プロダクション ハブ

バーチャル プロダクション ハブは、世界中のニュースとケース スタディを紹介します。最新のバーチャル プロダクション情報、インサイトおよびヒントをチェックしましょう。 

バーチャル プロダクション用語集

バーチャル プロダクション用語集は、Visual Effects Society (視覚効果協会)、American Society of Cinematographers (全米撮影監督協会)、Epic Games、Netflix からの情報で作成され、この分野で遭遇する可能性のある用語の理解に役立つ便利なリソースです (英語のみの提供)。

さらに多くの「リアルタイムの基礎知識」


リアルタイムの基礎知識

拡張現実 (AR) とは?