Nota: Este post contiene información exclusiva para los miembros de elephant vfx pro.

La ingestión y el output de footage es una labor que ha de realizarse de forma correcta para no perder ningún tipo de información de color e iluminación. Es muy importante que el footage que llega de editorial salga exactamente con las mismas características de latitud hacia la sala de DI (digital intermediate). En los grandes facilities de VFX y grandes producciones, esta tarea puede ser bastante compleja en ciertas ocasiones, debido a los complicados sistemas de gestión de color que podemos llegar a utilizar.

Paso a explicar como podemos realizar esta labor de forma adecuada en lo que llamaríamos un pipeline de color simple, o independiente. Es decir, la forma más común con la que generalmente trabajan boutiques de VFX, freelancers o simplemente, pipelines de color no demasiado complejos.

En la imagen de arriba, utilizada durante la explicación del vídeo, explico de forma rápida como funcionan los distintos modelos de cámaras RED. El footage generalmente oscila entre diferentes resoluciones, desde 4k hasta 8k.
Los sensores, CMOS que siempre trabajan de forma linear, si, como cualquier motor de render. Y del mismo modo, necesitamos una transformacion de color y su correspondiente gamma para visualizar el footage de forma adecuada en la mayoria de monitores y dispositivos.

Las camaras RED tienen su propio color management llamado RED color y su propia gamma llamada RED gamma. Tambien puedes optar por espacios de color comunes como sRGB o rec709 con sus gammas correspondientes a 2.2 o 1.8

  • Lo primero es converir el footage a un formato estandard. Generalmente vamos a trabajar con .dpx comun en cualquier facility y cualquier software.
  • REDCineXpro es el software (gratuito) con el que puedes realizar todo tipo de conversiones. Tambien puedes realizar trabajos de edicion, color grading, etc. Generalmente vamos a utilizarlo solo para epxortar el footage a .dpx
  • En las opciones de color, podras ver el espacio de color y gamma con el que ha sido rodado el footage. Conviene cambiar el gamma a redLogFilm, siendo log un estandard neutro, perfecto para color grading. Seria lo mismo que utilizar el nodo log2lin en Nuke.
  • Exporta como .dpx
  • La forma correcta de importar el footage en Nuke es como log, es decir, color space cineon en el nodo read.
  • Para visualizarlo correctamente, utilizamos un transformacion de color sRGB o rec709. O por supuesto, un LUT enviado desde la sala de DI (lo mas comun).
  • En Nuke realizamos el trabajo de VFX que necesitemos, bien sea composicion 3D, clean up, etc.
  • En este caso, he hecho un clean up de nieve de forma muy rapida.
  • Una vez terminado el trabajo, basta con escribir lin sRGB-log (cineon) como .dpx utilizando la misma profundidad que el footage original.
  • En este punto deberiamos de ser capaces de enviar el restultado de nuestro trabao de vuelta a editorial o DI, donde podran aplicar cualquier color grading en el que hayan estado trabajando, puesto que nuestro footage tendra exactamente las mismas cualidades que antes de salir de DI, excepto los aniadidos VFX claro.
  • Para ilustrar esto, voy a importar el nuevo footage en Adobe SpeedGrade, que bien no es una sala de DI con Baselight o Resolve. Donde el input sera Cineon/Log y la transformacion de color sRBG para ver el footage igual que en Nuke, que en este punto, todavia es neutro.
  • A partir de ahora podemos tomar cualquier decisión creativa en cuanto a color se refiere. En este ejemplo simplemente estoy aplicando un LUT previamente creado.
  • En cualquier momento podemos desactivar el color grading y enviar un nuevo edit al facility de VFX, y siempre estaremos trabajando de forma neutra. Tambien podemos enviarles nuestro color grading en forma de LUT para que ellos puedan aplicarlo en los respectivos software de 3D y 2D, siempre de forma no destructiva, claro.

Es importante tener en cuenta, que para generar un LUT de forma apropiada, desde VFX necesitamos enviar un CMS pattern a DI para que nos generar el archivo LUT.

  • En Nuke, basta con crear un nodo CMS pattern, que tiene unos valores conocidos. Ellos aplicarán su color grading a este pattern, y la diferencia en valores sera el LUT, que posteriormente podemos aplicar a nuestro footage.
  • Del mismo modo nosotros mismo podemos generar nuestros propios LUTs en Nuke, concatenando cuantos color gradings o color corrections necesitemos, y escribiendo el resultado en un nodo write generate LUT. Podemos expandir esto en un futuro.

Los miembros de elephant vfx pro podéis acceder a un vídeo de mas de 30 minutos donde explico todo esto de forma detallada.

Tenemos un nuevo neutral light rig para look-dev, especialmente diseñado para personajes, aunque puede ser utilizado para todo tipo de assets. También hemos actualizado nuestro neutral light rig original para que funcione "out of the box" con las últimas versiones de Maya y Arnold.

Si ya habías comprado el light rig original, ponte en contacto con nosotros y te haremos llegar de forma gratuita la nueva actualización. Los suscriptores de elephant vfx pro, podéis acceder gratuitamente a uno de los dos neutral light rigs. Escribidnos si estáis interesados y os lo enviaremos.

Podéis acceder a ellos desde la página de assets.

IBL neutral light rig 01

IBL neutral light rig 02

En este video os explico como utilizar los rigs.

Nota: Este post contiene información exclusiva para los miembros de elephant vfx pro.

A raíz de las imágenes Legos que estoy haciendo de vez en cuando, me preguntan sobre como me planteo este tipo de imágenes. Como ya comenté en su día, la idea es muy sencilla, al igual que su ejecución. Lo importante, realizarlas en unas pocas horas.
Me llegan dudas sobre modelado, lighting, look-dev, etc. Una de las preguntas, era sin embargo sobre cual es mi proceso para recrear la cámara virtual, para matchear la cámara real. Como se tratan de stills, o imágenes fijas, es muy sencillo, aunque los principios de tracking y matchmoving son exactamente los mismos que con secuencias de imágenes. La ventaja, no necesitamos ningún software de matchmoving o tracking, lo podemos hacer fácilmente con cualquier software 3D.

  • Voy a ilustrar este ejemplo con esta imagen. A modo de "helper" he colocado en el suelo unos libros, podría haber sido una caja o cualquier otro objeto que nos indique dos lineas de fuga, para poder asi matchear la perspectiva.
  • Como con cualquier otra tarea de matchmoving y tracking, conviene conocer algunos datos de la cámara. Como por ejemplo, el focal lenght, la altura del tripode, el tilt (orientación) tamaño del sensor, etc.
  • Podemos comprobar toda esta información gracias a los meta datos, tanto en Nuke como en Photoshop (ojo, que todavía hay gente que utiliza Photoshop).
  • El siguiente paso es crear una cámara en Maya e introducir los valores de focal length.
  • También conviene ajustar el clipping plane, para poder ubicar nuestra escena. Se puede cambiar a posteriori.
  • En las opciones de film back de la cámara, vamos a poner el film gate como horizontal, ya que esa ha sido la posición de la cámara real.
  • Añadimos como image plane la fotografía.
  • Incrementamos el valor depth ya que no sabemos Lo grande que sera el entorno. De esta forma seremos capaz de ver toda la geometría, de lo contrario, se cortaría por la imagen utilizada en el imagen plane.
  • Como se puede observar en la imagen anterior, el aspect ratio de la cámara no coincide con el sensor de la fotografía. Hay que escalarlo en consonancia.
  • Con la información de altura del trípode y tilt, podemos orientar la cámara.
  • En este momento voy a crear un proxy para el suelo, y girar la cámara que aparezca en el plano.
  • Ayudándome de un "helper" en este caso el felpudo, voy a posicionar el suelo en una esquina.
  • Ahora podemos orientar toda la escena en base a esa esquina.
  • Creamos un grupo con la cámara y movemos su pivot point a la esquina.
  • Basta con rotar el grupo hasta alinear las dos lineas de fuga.
  • Una vez orientado el suelo, podemos moverlo o escalarlo para ocupar todo el espacio que se presupone.
  • Realizamos el set fitting con el resto de elementos.

Los suscriptores de elephant vfx pro podéis acceder a un video explicativo de 37 minutos.

Nota: Este post incluye contenido exclusivo para los suscriptores de elephant vfx pro. (enlaces al final del post).

Hoy en dia tenemos la suerte de poder aplicar los mismos principios fotográficos y cinematográficos a nuestro trabajo como iluminadores en VFX/CG/. Por ello, constantemente hablamos sobre cinematografía, lenguaje cinematográfico y comunicación audiovisual. Hoy, vamos a hablar de algunos tópicos comunes en iluminación cinematográfica: hard light, soft light, specular light y diffuse light.

La diferencia entre hard light (luz dura) y soft light (luz suave) no radica en la luz, si no en la sombra. Cuando la sombra está perfectamente definida y opaca, hablamos de hard light. Cuando por el contrario, la sombra está difuminada, nos referimos al tipo de luz soft light. Cuanta más suavidad en la luz, más difuminadas y consecuentemente menos opacas serán las sombras.

¿Hay algún tipo de luz concreta que proporcione hard light o soft light? No. Cualquier luz puede ser hard o soft en función de dos factores.

  1. Tamaño: No sólo hay que tener en cuenta el tamaño de la fuente lumínica en si, si no la relación de tamaño entre la fuente lumínica y el sujeto a iluminar.
  2. Distancia: En relación a la posición de la fuente lumínica y el sujeto a ser iluminado.

Las ondas electromagnéticas (como la luz) se curvan con respecto a los objetos donde impactan. En el ejemplo de abajo, cuando la luz impacta en la pared, refleja y pasa recto, después se curva hacia el interior (esto es lo que se denomina difraction).

Cuando un beam (rayo) de luz impacta en un objeto, si el tamaño de la fuente lumínica es muy similar al tamaño del sujeto iluminado, los rayos pasan de forma paralela y se curvan ligeramente hacia el interior.

Si el tamaño de la fuente lumínica es más pequeño que el sujeto iluminado o está alejado del mismo, los rayos de luz apenas se curvarán, creando sombras duras y bien definidas.

Si la fuente lumínica es más grande que el sujeto iluminado y está situado cerca del mismo, los rayos de luz se curvan considerablemente, produciendo sombras suaves y poco definidas.

Si la fuente lumínica es mucho más grande que el sujeto iluminado y cercana al mismo, los rayos de luz se curvan tanto que llegan a juntarse y prácticamente las sombras no dibujarán la silueta del sujeto iluminado, siendo incapaces de identificar su forma o silueta.

  • Si una fuente de luz muy grande se posiciona a mucha distancia del sujeto iluminado, su tamaño se verá alterado de forma relativa con respecto al sujeto, convirtiéndola consecuentemente en una fuente de luz pequeña, perdiendo asi su capacidad de generar sombras suaves. El ejemplo más claro es el sol. Es mucho más grande que la tierra, pero al estar a millones de kilómetros, se convierte en una fuente de luz muy pequeña, creando sombras duras. Cuando está nublado, la luz se filtra entre las nubes convirtiéndola otra vez en una fuente de luz grande, y por ello, generadora de sombras suaves.


Para resumir en dos lineas:

  • Soft light = fuentes lumínicas grandes y/o cercanas al sujeto
  • Hard light = fuentes lumínicas pequeñas y/o alejadas del sujeto

Specular light: Fuente lumínica con mucha potencia en el centro que poco a poco se degrada hacia el exterior. Como una linterna tradicional. Genera zonas muy expuestas y brillantes en el sujeto iluminado. Por ejemplo la típica luz de entrevista en un estadio de futbol o en un photocall.

Diffuse light: Fuente lumínica con la misma potencia distribuida sobre todo el área, tiende a iluminar al sujeto de forma compensada.

No confundir diffuse light con soft light. Siempre que hablamos de soft light nos referimos a sombras desenfocadas y suaves. Siempre que hablamos de diffuse light nos referimos a la distribución de la propia luz, en este caso, distribuida con equidad a lo largo de la superficie.

A continuación algunos ejemplos en 3D.

  • En este ejemplo tenemos un personaje iluminado con una fuente lumínica pequeña, más pequeña que el propio sujeto, y situada de forma alejada con respecto al mismo. Resultado, hard light, sombras duras.
  • En este ejemplo tenemos una fuente lumínica de tamaño considerable, similar al sujeto iluminado y colocada cerca del mismo. Como resultado, obtenemos soft light, sombras suaves.
  • En este ejemplo tenemos una fuente luminica muy grande y colocada cerca del sujeto, como resultado produce extra soft light, y las sombras pierden completamente su dibujo, siendo extremadamente suaves.
  • En la siguiente imagen, el sujeto está iluminado por el sol, que pese a ser una fuente lumínica gigantesca, su posición relativa con el sujeto la convierte en diminuta, produciendo asi hard light, sombras duras.
  • Finalmente tenemos otro ejemplo de hard light, en este caso creado por un flash que no deja de ser otro tipo de luz muy potente y concentrada, cercana al sujeto fotografiado. Este efecto puede conseguirse en 3D reduciendo considerablemente el valor spread de las luces.
  • A continuación ejemplos de specular light y diffuse light. (respectivamente).

Los suscriptores de elephant vfx pro podéis desde aquí acceder a un video donde expandimos estos tópicos.

Este es un post que no tenía pensado escribir, ni grabar, entre otras cosas, porque este es un tema que he cubierto de una forma u otra en anteriores posts, y sobretodo, porque lo he explicado de forma exhaustiva en algunos de nuestros cursos online. Especialmente, en el curso de Photogrammetry en VFX.

Aun así, he decidido grabar el proceso completo de generar un asset de producción partiendo de un scan o un modelo de photogrammetry. Me encontraba preparando este scan (lidar) de un casco del siglo 17 que utilizaré para uno de los ejercicios del workshop de materiales del curso online "Arnold Fastrack" que estoy preparando, así que ya que tenia que hacerlo, he grabado un vídeo para los suscriptores de elephant vfx pro. Ya que es navidad, he decidido colgar aquí el vídeo para todos los lectores de elephant vfx y que veáis como son los vídeos que normalmente están disponibles para los suscriptores pro, a ver si os animáis para el nuevo año.

Posted
AuthorXuan Prada

Otro consejo muy útil a la hora de capturar assets on-set. La importancia del high frequency detail (o el micro detalle). Cuando tenemos superficies con micro detalle resulta muy beneficioso a la hora de reconstruir el point cloud del que partirá la generación de geometría. ¿Porqué? Básicamente porque añadimos muchos puntos de control comunes entre diferentes fotografías, de esta forma, resulta mucho más sencillo (que no rápido) los cálculos que el software ha de realizar para generar dicho point cloud.

En este ejemplo, las condiciones de captura no eran demasiado buenas. Poca luz, cámara en mano sin trípode, viento y lluvia, etc. Con apenas 50 fotografías he obtenido un resultado muy bueno, perfecto para el remodelado de esta roca.

En cuanto a settings de cámara se refiere, fijaos que estoy utilizando un ISO poco recomendable 640 y una apertura no especialmente baja F8.
El shooting pattern no podría ser más sencillo. Casi todas las fotos realizadas desde la misma altura, como digo, solamente unas 50.

El tiempo para alinear el material apenas fue de 24 minutos. Sin embargo, la generación del point cloud llevó alrededor de 11 horas en mi iMac con calidad alta. Resultó en unos 9 millones de polígonos. Podría haber optimizado la escena eliminando gran parte del terreno (que no me interesa) pero quería la menor participación humana posible.

Teniendo en cuenta las condiciones, el output es bastante bueno. Gracias al high frequency detail.

Este es un asset que no necesita de topología cuidada, con una retopología automática en Zbrush tengo mas que suficiente.

El siguiente paso lógico es crear un buen UV mapping para poder utilizar posteriormente en Zbrush para re-proyectar todo el detalle de la roca original y extraerlo como displacement map. Tengo algunas distorsiones que afortunadamente no afectan en absoluto al comportamiento de la roca.

Algunos render test.

Los suscriptores de elephant vfx pro pueden descargar todo este material para su exploración detallada.