Nota: Este post contiene información exclusiva para los miembros de elephant vfx pro.

A raíz de las imágenes Legos que estoy haciendo de vez en cuando, me preguntan sobre como me planteo este tipo de imágenes. Como ya comenté en su día, la idea es muy sencilla, al igual que su ejecución. Lo importante, realizarlas en unas pocas horas.
Me llegan dudas sobre modelado, lighting, look-dev, etc. Una de las preguntas, era sin embargo sobre cual es mi proceso para recrear la cámara virtual, para matchear la cámara real. Como se tratan de stills, o imágenes fijas, es muy sencillo, aunque los principios de tracking y matchmoving son exactamente los mismos que con secuencias de imágenes. La ventaja, no necesitamos ningún software de matchmoving o tracking, lo podemos hacer fácilmente con cualquier software 3D.

  • Voy a ilustrar este ejemplo con esta imagen. A modo de "helper" he colocado en el suelo unos libros, podría haber sido una caja o cualquier otro objeto que nos indique dos lineas de fuga, para poder asi matchear la perspectiva.
  • Como con cualquier otra tarea de matchmoving y tracking, conviene conocer algunos datos de la cámara. Como por ejemplo, el focal lenght, la altura del tripode, el tilt (orientación) tamaño del sensor, etc.
  • Podemos comprobar toda esta información gracias a los meta datos, tanto en Nuke como en Photoshop (ojo, que todavía hay gente que utiliza Photoshop).
  • El siguiente paso es crear una cámara en Maya e introducir los valores de focal length.
  • También conviene ajustar el clipping plane, para poder ubicar nuestra escena. Se puede cambiar a posteriori.
  • En las opciones de film back de la cámara, vamos a poner el film gate como horizontal, ya que esa ha sido la posición de la cámara real.
  • Añadimos como image plane la fotografía.
  • Incrementamos el valor depth ya que no sabemos Lo grande que sera el entorno. De esta forma seremos capaz de ver toda la geometría, de lo contrario, se cortaría por la imagen utilizada en el imagen plane.
  • Como se puede observar en la imagen anterior, el aspect ratio de la cámara no coincide con el sensor de la fotografía. Hay que escalarlo en consonancia.
  • Con la información de altura del trípode y tilt, podemos orientar la cámara.
  • En este momento voy a crear un proxy para el suelo, y girar la cámara que aparezca en el plano.
  • Ayudándome de un "helper" en este caso el felpudo, voy a posicionar el suelo en una esquina.
  • Ahora podemos orientar toda la escena en base a esa esquina.
  • Creamos un grupo con la cámara y movemos su pivot point a la esquina.
  • Basta con rotar el grupo hasta alinear las dos lineas de fuga.
  • Una vez orientado el suelo, podemos moverlo o escalarlo para ocupar todo el espacio que se presupone.
  • Realizamos el set fitting con el resto de elementos.

Los suscriptores de elephant vfx pro podéis acceder a un video explicativo de 37 minutos.

Sigo con mi transición a Modo. Ya asumidos los conceptos básicos del software, y ya asimiladas las técnicas más básicas que utilizo en Softimage o Maya, era hora de realizar una pequeña imagen para poner todo eso en práctica.

Elegí un tema sencillo, que me permitiese acabar la imagen en una tarde. Después de ver The Lego Movie, donde trabajaron unos cuantos ex-compañeros de mi etapa en Happy Feet, decidí realizar la imagen basada en las premisas de la película.

El modelo es muy sencillo, perfecto para probar las herramientas de modelado poligonal de Modo.
Solo he utilizado extrusiones, bevel y poco más. Trabajar con el work plane de Modo es muy cómodo.

Model checker.

Las herramientas de Modo para UV Mapping son muy buenas y rápidas. La atlas projection y unwrap son probablemente las que más voy a utilizar. En este caso, como el modelo es muy sencillo, solo he utilizado unwrap.
Debido a la sencillez del modelo, con un UDIM tengo más que suficiente.

UV Mapping.

Para texturizar el personaje utilicé Mari. Podría haber utilizado el modulo de pintura de Modo, ya que tanto el modelo como las texturas son muy sencillos. Pero lo cierto es que siempre utilizo Mari, así que no había razón de peso para hacer lo contrario.

Tres texture channels son suficientes para este personaje. Un mapa de color, un mapa de specular y dos mapas de bump, uno con ruido para el plástico y otro con pequeñas imperfecciones. Todos los mapas son de resolucion 8k 16bits formato .tiff sRGB y scalar respectivamente.

Mari screenshot.

Para trabajar el look del personaje simplemente utilicé un light-rig basado en Image Based Lighting, con un HDRI neutro, sin mucha luz directa, solo la suficiente para crear contraste y sombras. Trabajando siempre mediante Linear Workflow.

En cuanto al look en si mismo, solo utilicé un shader, sin capas ni nada. Con un poco de reflexión derivada del mapa specular, y aunque este tipo de personaje hubiese requerido sub surface scattering, no lo utilicé. Seguramente en la imagen final que tenía en mente no se hubiese apreciado y los tiempos de render hubiesen sido mas lentos.

Look-development.

Look-development close up.

Para el suelo, utilicé un simple plano esculpido en Zbrush creando la sensación de desierto. Con algunas dunas y ruido procedural para simular la arena.

Screenshot en Zbrush.

Mapa de desplazamiento.

Hice unas cuantas pruebas en Modo para ajustar el mapa de Zbrush. Finalmente creo que ya he dado con la tecla para hacer funcionar este tipo de mapas a la perfección. En cuanto tenga tiempo publicare un post con el proceso.

Render test del mapa de desplazamiento en Modo.

Para crear el tiro de cámara, utilicé un focal de 50mm y proxys de personajes y suelo para hacer un blocking de lensing y lighting.

BLocking de lensing y lighting.

Finalmente sustituí los proxys por los assets finales.
Para iluminar, utilice un HDRI fotografiado por mi mismo, el cual me generaba la iluminación atmosférica y reflexiones que necesitaba, pero no conseguía la sombra que buscaba.
Buscaba una sombra dura, muy marcada, ya que quería simular una luz directa de una lampara de mesa. (a fin de cuentas, estoy iluminando una maqueta).

Así que borré el sol del HDRI y situé una luz 3D justo detrás de los personajes.

En cuanto a render passes o aov's, no los utilicé. Debido a la simpleza de la imagen no me hacía falta. Solo rendericé un matte id para poder controlar a los personajes y al suelo por separado.

Matte id.

Render final.

Finalmente, procesé la imagen para presentarla en blanco y negro, que es como la concebí desde un principio.

Imagen final.

Posted
AuthorXuan Prada
Categoriesreel