¿Qué es la producción virtual?

Cortesía de Framestore
En los últimos años, han ido apareciendo nuevas herramientas y procesos de producción que han cambiado gradualmente la forma de crear historias en el sector de la comunicación y el entretenimiento, desde el contenido con actores reales para cine y televisión o el contenido animado, hasta las transmisiones y los eventos en directo.

Este fenómeno, que combina técnicas tradicionales con innovaciones digitales sacadas de los motores de juego de tiempo real, se llama producción virtual y de él se están haciendo eco especialistas de todo el mundo, desde productores y directores hasta técnicos y coordinadores de escenas de riesgo. 

¿Qué es exactamente la producción virtual? ¿Es lo mismo que los efectos visuales en cámara? ¿Qué significan los términos «previs», «pitchvis», «stuntvis», «techvis» y «postvis»? Son muchos conceptos nuevos que aprender.

En esta explicación sobre la tecnología de tiempo real trataremos de explicar todos estos términos y algunos más, así como el papel que desempeña Unreal Engine en el cambiante mundo de la producción virtual. También exploraremos los beneficios asociados a este nuevo conjunto de técnicas cinematográficas.
 

¿Qué es la producción virtual?

La producción virtual utiliza la tecnología para unir el mundo digital con el mundo físico en tiempo real. Combina técnicas cinematográficas tradicionales con tecnología moderna para ayudar a los creativos a hacer realidad su visión. 

La producción virtual lleva muchos años utilizándose en el sector de las transmisiones en directo para generar gráficos en tiempo real y emitirlos en directo, por ejemplo, en programas deportivos o electorales, donde los datos cambian constantemente y los gráficos deben actualizarse sobre la marcha. 

Hoy en día, los avances tecnológicos en motores de juego de tiempo real, como Unreal Engine, hacen que los gráficos fotorrealistas o estilizados en tiempo real se estén convirtiendo en una parte fundamental no solo de las imágenes que vemos en transmisiones y eventos en directo, sino también de la creación de contenidos animados y de todas las partes del proceso de producción de películas con actores reales (es decir, antes, durante y después de que se realice la filmación principal en el plató).
 

Los distintos tipos de producción virtual

La producción virtual se compone de distintas fases o usos: previs, pitchvis, techvis, stuntvis (o diseño de acción), postvis y composición en directo (o simulcam), además de la exploración virtual, la búsqueda de ubicaciones mediante realidad virtual y los efectos visuales en cámara (o producción virtual en el plató). Analizaremos cada uno de ellos más adelante en este artículo.
 

¿En qué se diferencia la producción virtual de la tradicional?

La producción cinematográfica tradicional es un proceso lineal que va desde la preproducción (concepción y planificación), pasa por la propia producción (rodaje), y termina con la posproducción (montaje, etalonaje y efectos visuales). Puesto que no se ve cómo quedará todo hasta finalizar el proceso, hacer cambios requiere mucho tiempo y dinero. A veces, incluso requiere volver a empezar desde cero. A consecuencia de ello, la capacidad de los directores para tomar decisiones creativas sobre la marcha está muy limitada. 
En contraposición, la producción virtual desdibuja los límites entre la preproducción y el resultado final, permitiendo a directores, cinematógrafos y productores ver una representación del aspecto final mucho antes de que finalice el proceso de producción y, con ello, poder iterar de forma rápida y económica. A consecuencia de ello, pueden perfilar la narrativa para reflejar su intención creativa y, en última instancia, contar mejores historias al tiempo que ahorran costes y tiempo.

Uso de la producción virtual para la visualización

La producción virtual permite a los directores visualizar diversos aspectos de su película antes, durante y después de la producción, tanto para elementos de acción real como para efectos visuales o contenidos animados. Entre los procesos de visualización se incluyen:
  • Previs
  • Pitchvis
  • Techvis
  • Stuntvis (o diseño de acción)
  • Postvis
  • Composición en directo (o simulcam)
 

Previs

La fase de previs o previsualización existe desde antes que la producción virtual en sentido moderno. La previsualización en 3D es el paso siguiente a los guiones gráficos dibujados a mano. 

En pocas palabras, esta fase implica utilizar imágenes generadas por ordenador (CGI) para esbozar los principales elementos visuales y la acción antes de iniciar el rodaje. De este modo, se pueden definir cómo se presentará visualmente la secuencia y se pueden probar diferentes escenarios. En una escena de acción con muy poco diálogo, la previs también detalla los elementos de la historia que hacen avanzar la narración.

La fase de previs ofrece una referencia de lo que se deberá rodar en directo. También sirve de base para el proceso de puja por los efectos visuales, en el que los estudios especializados compiten por conseguir el contrato para poder completar algunas o todas las escenas.
Cortesía de The Third Floor
Al principio, los personajes y recursos de baja resolución se renderizaban rápidamente en paquetes de software offline antes de integrarlos todos. Gracias a que, en la actualidad, motores de juego como Unreal Engine son capaces de renderizar recursos fotorrealistas de máxima resolución en tiempo real, los directores pueden ver cómo cobra vida su visión del proyecto, iterar sobre la marcha y así tomar mejores decisiones al respecto.

A continuación, puedes ver cómo Zoic Studios creó las secuencias de efectos visuales llenas de acción para la serie de televisión Superman & Lois, de Warner Bros, y, con ayuda de la fase de previs en Unreal Engine, pudo dotarla de una calidad cinematográfica ciñéndose a los tiempos del formato televisivo.
  

El papel de las cámaras virtuales en la visualización

Al igual que en otras etapas de la producción virtual, durante la fase de previs o previsualización pueden hacer falta cámaras virtuales o VCams. Las VCams permiten a los directores controlar una cámara en Unreal Engine desde un dispositivo externo (a menudo, un iPad) y grabar ese movimiento. Los movimientos de cámara resultantes pueden utilizarse para el bloqueo (como puntos de partida para el ajuste manual), para obtener una vista previa de la profundidad de campo y, así, decidir la configuración de la cámara para la acción en directo, e incluso como cámaras finales hasta la fase de postproducción.

A muchos directores les resulta mucho más atractivo y familiar trabajar con un dispositivo táctil y físico que hacerlo a través de una interfaz de usuario de software. Además, así se obtienen movimientos de cámara más realistas en el mundo digital. 
 

Pitchvis

La pitchvis es una forma de previsualizar contenido para conseguir la aprobación del proyecto. Su objetivo es convencer a las partes interesadas de que el proyecto siga adelante, mostrándoles el aspecto que se le pretende dar antes de que se acuerde una gran inversión.

Unreal Engine se ha utilizado con éxito para lanzar proyectos tan variados como la versión de 2020 de La llamada de lo salvaje, de Christopher Sanders, que gracias a estos avances pasó de estar paralizada a volver a producción, o la serie de animación Battlesuit, del director independiente HaZ Dulull. A continuación, puedes ver los comentarios de HaZ al respecto.

Techvis

La techvis se utiliza para determinar los requisitos técnicos exactos tanto de las tomas prácticas como de las digitales antes de comprometer el equipo y el material necesario (cámaras, grúas y rigs de control de movimiento) el día de la producción. Esta fase puede utilizarse para explorar la viabilidad del diseño de los planos dentro de una localización específica (por ejemplo, dónde irá la grúa, o incluso si cabrá en el decorado), así como los bloqueos que impliquen elementos virtuales. También se puede usar para determinar la cantidad de decorado físico que se necesita en vez de extensiones del decorado digital. 

La fase de techvis suele utilizar recursos mucho más básicos que la de previs, ya que la techvis no se usa para tomar decisiones creativas. Lo ideal es que tales decisiones ya estén tomadas a estas alturas de la producción. Lo más importante de esta fase es que proporciona información práctica que el equipo usará para que el proceso de rodaje sea más eficaz. 
 
Cortesía de PROXi Virtual Production

Diseño de acción o stuntvis

La fase de stuntvis, también conocida como diseño de acción, combina las fases de previs y techvis para las secuencias de acción y las acrobacias físicas. Se necesita un alto grado de precisión para que los diseñadores de acción puedan coreografiar las tomas con exactitud, puedan disfrutar de participación creativa y garanticen un nivel de seguridad elevado para los dobles y los especialistas de escenas de riesgo.

Unreal Engine incorpora una simulación física del mundo real en la que los equipos de especialistas podrán ensayar y ejecutar escenas simuladas que mimetizan la realidad al máximo. A consecuencia de ello, se obtiene una eficiencia mucho mayor durante la fase de producción, lo que puede derivar en menos días de rodaje.

Echa un vistazo a esta presentación de Guy y Harrison Norris, los fundadores de PROXi Virtual Production, y averigua cómo usan estas técnicas vanguardistas en Unreal Engine para las fases de techvis y stuntvis en películas como El Escuadrón Suicida.

Postvis

La fase de postvis tiene lugar después del rodaje físico. Se utiliza cuando a una toma se le van a añadir efectos visuales, pero estos aún no están acabados (o, en algunos casos, ni siquiera se han empezado a crear). En estas tomas suele haber un elemento de croma verde que se sustituirá por CGI en el producto final. La fase de postvis suele reutilizar la previsualización original de elementos de efectos visuales, combinándola con el metraje real. 

La postvisualización o postvis puede trasladar la visión de los directores al equipo de efectos visuales, así como ofrecer una versión más precisa de cualquier plano de efectos visuales sin finalizar para que el editor pueda realizar el montaje. De este modo, los directores pueden evaluar este último con referencias visuales, incluso si los efectos visuales finales están lejos de acabarse, y garantizar que todos los interesados están contentos con el resultado. Esta fase también puede utilizarse para que las primeras pruebas de proyección sean más representativas de lo que será el producto final.
 
Izq.: postvis. Dcha.: producto final. Cortesía de SOKRISPYMEDIA.

Composición en directo o simulcam

Ahora toca hablar de otro tipo de visualización. La composición en directo es, en esencia, una fase similar a la de postvis, en el sentido de que combina el material de acción real con una representación del CGI para tenerlo como referencia. Sin embargo, en este caso, la simulcam tiene lugar durante el rodaje. Y no, desgraciadamente no se llama fase «duringvis». 

Una de las primeras veces en que se usó la composición en directo en un plató de cine fue en el rodaje de Avatar, de James Cameron, quien acuñó el término «simulcam» para ello. Gracias a esta técnica, los directores pueden ver durante el rodaje los elementos gráficos por ordenador compuestos sobre la acción real, lo que les permite hacerse una mejor idea de qué tipo de contenido se está capturando. 

Por lo general, esta técnica se utiliza para visualizar personajes animados por ordenador a través de la captura de movimiento, y puede ser en directo, con material pregrabado o con una mezcla de ambas cosas. La actuación mediante captura de movimiento es una forma de captura de movimiento en la que se captura la totalidad de la actuación de los actores (incluidos los movimientos faciales y de las manos) mediante sistemas especializados que, luego, pueden transferirse a personajes animados por ordenador. Muchos procesos de producción virtual implican el uso de captura de movimiento, pero un ejemplo de su uso combinado con la composición en directo es el programa de Netflix «Dance Monsters». También se utilizó con grandes resultados en la película Bienvenidos a Marwen, de Robert Zemeckis.

Exploración virtual

Otra faceta de la producción virtual es la exploración virtual. Esta potente herramienta permite a los principales miembros del equipo creativo (como el director del proyecto, el cinematógrafo o el diseñador de producción) revisar una localización virtual dentro de la realidad virtual (RV), gracias a la posibilidad de sumergirse en el decorado y hacerse una idea real de la escala. 

Este proceso puede ayudar a los equipos a diseñar decorados especialmente difíciles y a coreografiar escenas complejas. Es el caso de John Wick: Capítulo 3 - Parabellum, como se puede ver a continuación.
Otro uso habitual de la exploración virtual es la escenografía. Los equipos pueden mover recursos digitales mientras se relacionan con el entorno a escala humana.

Las sesiones de exploración virtual suelen ser colaborativas y requieren la participación simultánea de varias de las partes interesadas. Pueden explorar el plató de manera conjunta, además de identificar y, a veces, marcar zonas de especial interés para rodar determinadas escenas. También se puede establecer qué elementos de atrezo pueden construirse físicamente y cuáles serán virtuales.

Búsqueda de ubicaciones mediante realidad virtual

Una extensión de la exploración virtual es la búsqueda de ubicaciones mediante realidad virtual. En este caso, el decorado es un sitio real. Se puede enviar a un miembro del equipo por adelantado y capturar la escena utilizando herramientas de fotogrametría como RealityCapture para que, luego, el resto del equipo la revise a distancia en Unreal Engine por medio de la exploración virtual. Este proceso puede ahorrar mucho tiempo y dinero en desplazamientos, sobre todo si hay que decidir entre varios lugares.

¿Qué son los efectos visuales en cámara (ICVFX)?

Los efectos visuales en cámara, también conocidos como producción virtual en el plató (OSVP), son una forma de producción virtual que ha llamado mucho la atención últimamente gracias a series con gran repercusión como «The Mandalorian». Con esta técnica, el rodaje en directo se hace en un enorme escenario o volumen LED que permite mostrar en sus paredes y techo un entorno generado por el motor en tiempo real. Los volúmenes LED más sofisticados son cúpulas semiesféricas que rodean por completo el plató, mientras que los escenarios más sencillos pueden tener forma de cubo o constar de una sola pared. 

Va mucho más allá que un simple cambio de fondo. Las escenas en tiempo real son interactivas y en directo, y se mueven en relación con la cámara para crear un efecto de paralaje realista para que todo aparezca con la perspectiva correcta. Las pantallas LED también proyectan una iluminación y unos reflejos realistas sobre los actores, lo que ayuda a que queden perfectamente integrados en la escena.
Cortesía de Alter Ego, Pixomondo, William F. White, Virtual Production Academy y Caledon FC

¿Cuáles son las ventajas de los efectos visuales en cámara?

En la producción tradicional, cuando las secuencias de acción real se combinan con imágenes generadas por ordenador, las escenas de actores se ruedan con un fondo verde detrás. Este fondo podrá sustituirse luego por los elementos digitales pertinentes durante la posproducción. En este caso, los actores y el director tendrán que imaginar el entorno final. En cambio, con la producción virtual en el plató, tanto el reparto como el equipo trabajan inmersos en el contexto, lo que favorece unas interpretaciones más convincentes y una toma de decisiones más creativa.

En algunos casos, para las tomas de efectos visuales fáciles, los efectos visuales en cámara pueden generar los píxeles finales sin necesidad de pasar por posproducción, lo que ahorra tiempo y dinero, dado que las secuencias de acción real y los efectos visuales generados se combinan y se ruedan a través de la cámara para producir los fotogramas ya acabados, lo que se denomina como «finales en cámara». 

En otros casos, los efectos visuales en cámara pueden hacer que tomas de dificultad media requieran poco trabajo de postproducción y que las más difíciles requieran mucho menos tiempo de posproducción de lo que llevarían en una producción tradicional.

Otra gran ventaja de trabajar en escenarios LED es que la iluminación y la hora del día pueden manipularse fácilmente. Ya no hay que esperar a la hora de más luz ni depender del clima. También resulta mucho más fácil tener continuidad, puesto que las escenas se pueden retomar exactamente en el mismo estado en que se dejaron y en cuestión de minutos, no de horas.

Unreal Engine ofrece un conjunto de herramientas completo que permite trabajar con efectos especiales en cámara. A continuación, puedes ver qué pruebas hacen con ellas algunos de los directores más vanguardistas.

Recursos de producción virtual

Esperamos que hayas disfrutado de esta guía rápida al apasionante mundo de la producción virtual y los ICVFX, y que estas explicaciones te hayan ayudado a entender estas cosas un poco mejor. ¿Aún quieres saber más sobre la producción virtual? Echa un vistazo a estos útiles recursos.

The Virtual Production Field Guide

«The Virtual Production Field Guide» es un recurso gratuito de dos volúmenes con información sobre cómo la tecnología está transformando el arte y el oficio cinematográfico, con consejos prácticos para que apliques esas técnicas a tus producciones. 

La comunidad de desarrolladores de Epic

La comunidad de desarrolladores de Epic es un buen lugar al que acudir para intercambiar preguntas y respuestas, exponer tu trabajo, inspirarte con el trabajo de otros compañeros del sector y acceder a cientos de horas de contenidos de aprendizaje gratuitos. He aquí algunos recursos especialmente útiles para los creadores interesados en la producción virtual:  
 

Centro de producción virtual

Nuestro centro de producción virtual presenta noticias e historias de éxito de todo el mundo. Entra para obtener las últimas novedades en materia de producción virtual, así como ideas e inspiración. 

El glosario de producción virtual

El glosario de producción virtual es un recurso fantástico elaborado con la colaboración de la Sociedad de Efectos Visuales, la Sociedad Americana de Cinematógrafos, Epic Games y Netflix. Este recurso te ayudará a entender la terminología que puedes ir encontrándote al adentrarte en este campo.

Más lecciones sobre la tecnología de tiempo real


lecciones sobre el tiempo real

¿Qué son las cinemáticas de emisiones?

lecciones sobre el tiempo real

¿Qué es el trazado de rayos en tiempo real?

lecciones sobre el tiempo real

¿Qué es la realidad aumentada?

Artículos relacionados


Producción virtual

La producción virtual alcanza nuevos niveles en todo el sector de CyE