cursos Xuan Prada cursos Xuan Prada

Texturizado y look-dev avanzado (borrador)

Este es el primer borrador del curso Texturizado y Look-dev avanzado. Se incluirán más temas a tratar a medida que vayamos produciendo el curso. Como primer borrador, debería ser suficiente para hacerte una idea de los tópicos a tratar. El curso aún se encuentra en desarrollo, y faltan varias semanas para que vea la luz. Como de costumbre, siéntete libre para contactarnos y sugerir ideas, o temas a tratar que te gustaría ver en este curso.

  • Gestión de color en efectos visuales.
    Un tema muy importante que todos parecen obviar. Mantener la consistencia de color en un entorno de efectos visuales es fundamental. Veremos como los facilities de VFX organizan sus pipelines de color en función del show.
     
  • UDIM, Ptex.
    Analizaremos los diferentes sistemas de aplicado de texturas disponibles para ser capaces de juzgar cual es el mas adecuado en función de la tarea.
     
  • Herramientas validas para texturizado en VFX.
    Mari, Nuke, Photoshop, Substance, etc. Hablaremos de las alternativas existentes en el mercado y descartaremos la mayoría, para centrarnos en Mari. Te explicaremos cuales son las carencias de la mayoría de programas que hacen que sean prácticamente inservibles en VFX. Aprenderemos a "hackear" algunas de estas herramientas para en ciertas ocasiones, poder utilizarlas aunque no sean herramientas propias de VFX.
     
  • Mari 3.x en profundidad.
    Recorreremos Mari 3.x de arriba a abajo, explicándote todas las herramientas y sus aplicaciones practicas en el día a día de un texture artists en el mundo del cine.
     
  • 3D vs 2D look-development.
    Generalmente combinamos técnicas de look-development 3D y 2D para ahorrar tiempo y poder presentar nuevas versiones cada día a un supuesto supervisor de efectos visuales. Veremos cuales son las técnicas mas efectivas para ello.
     
  • Shading explicado.
    Explicaremos cuales son los shaders más comunes y como utilizarlos para nuestras tareas de look-dev. Texture layers, shading stacks, componentes individuales, etc.
     
  • Texture channels.
    Analizaremos los texture channels mas comunes utilizados en cine, con ejemplos variopintos y explicaciones detalladas de su utilización.
     
  • Texture color spaces.
    Cuándo una textura es linear?, cuándo es sRGB?, cuándo necesita tener 8bits de información?, cuándo 16bits? o 32bits? etc.
     
  • AOV's para look-dev.
    Cuales, porqué, como nos van a ayudar, etc.
     
  • Combinar displacement maps.
    Explicaremos como jugamos con mapas de desplazamiento generados en diferentes software y de diferente manera.
     
  • Ejercicio práctico.
    Texturizaremos un hero character para VFX, el Hulkbuster. Os explicaré mi metodología para texturizar desde cero un personaje de ficción, del que no tenemos material fotográfico para texturizar. Desde el análisis de referencias, pasando por el texture breakdown y todos los pasos necesarios para realizar texturas de calidad propias de un proyecto de cine. Posteriormente realizaremos el look-dev del personaje en base a todo lo explicado durante el curso.
Leer más
texturing Xuan Prada texturing Xuan Prada

Importar UDIMs en Zbrush

Una de las tareas más comunes cuando texturizamos un asset, es replicar los detalles de los mapas de color como displacement. Muchos de estos detalle puden fácilmente realizarse en Mari, especialmente detalles finos, o micro-displacement. En otras ocasiones, cuando necesitemos realizas detalles low-frequency, es posible que necesitemos importar nuestros assets en Zbrush o Mudbox para esculpir. Lo ideal es importar tanto el asset como las texturas de color pintadas en Mari, de esta forma tendremos una muy buena guía para saber que y donde esculpir.

Por supuesto, no queda ninguna persona sobre la faz de la tierra que texturice sin UDIMs y en Photoshop, ¿verdad? Importar UDIMs en Zbrush no es tan sencillo, requiere de un par de pasos extra. En Mudbox no hay ningún problema, basta con importar las texturas en una capa de pintura y automáticamente se importarán todos los UDIMs. Así que veamos como hacerlo en Zbrush.

  • Una vez tus texturas hayan sido exportadas desde Mari, importa tu geometría en Zbrush.
  • En el panel Polygroups haz click en UV Groups.
  • Un polygroup será creado por cada UDIM.
  • Con ctrl+shift puedes seleccionar fácilmente los diferentes polygrous y aislarlos del resto.
  • En el panel Texture, puedes importar el UDIM correspondiente al polygroup aislado.
  • Recuerda que has de invertir en "v" la textura, Zbrush atrabaja así.
  • Si activas la textura en el panel Texture Map verás tu textura en el viewport.
  • De momento todo bien, pero simplemente estás visualizando tu textura, no aplicándola al modelo 3D. Si cargas otra textura, esta sustituirá a la que estás viendo en estos momentos.
  • Necesitamos aplicar la textura, para ello, en el panel Polypaint, con la opción Colorize activada, haz click en Polypaint from texture.
  • Ten en cuenta que la calidad del resultado dependerá de las subdivisiones de tu modelo 3D.
  • Repite el proceso con todos los UDIMs y listo para esculpir. 
Leer más

Mi primer render para VR

Llego tarde, pero más vale tarde que nunca. Aunque ya hace tiempo que estoy interesado en VR (realidad virtual) y AR (realidad aumentada) apenas he tenido tiempo de estudiar al respecto y realizar pruebas. Hasta el momento he estado más interesado en capturar live action para VR que en generar contenido 3D, aunque ahora también estoy empezando a estudiar al respecto.

Hace un par de días tuve la oportunidad de probar el HTC Vive durante unas cuantas horas y definitivamente, poco a poco iré realizando más pruebas relacionadas con realidad virtual, al tiempo que voy estudiando la materia. Me interesa especialmente la evolución que sufrirá la narrativa, y los cambios que veremos en el lenguaje cinematográfico tal cual lo conocemos hoy.

Probando el HTC Vive.

Probando el HTC Vive.

Como primer ejercicio tanto de captura como de generación de contenido 3D, he realizado una prueba muy sencilla, pero que me sirve como primer contacto para renderizar imágenes estereoscópicas mediante estereográfica y probarlas utilizando el headset más simple y barato del mercado, Google Cardboard y UMI 3D. (más info abajo).

Antes de explicar la sencillísima forma de renderizar este tipo de imágenes, vamos a explicar un poco del contexto necesario para entender de forma muy básica algunos principio de VR.

Existen dos tipo de sistemas de realidad virtual. Aquellos en los que podemos rotar la cabeza alrededor de un mundo virtual, y aquellos en los que además de rotar, también podemos trasladarnos por el espacio, incluso interactuar con el. En el caso de las Google Cardboard y otros headsets para smartphones, solo podemos rotar la cabeza para inspeccionar alrededor del entorno. Para ello, nos servimos del giroscopio y del acelerómetro que incorporan los teléfonos hoy en día.

Hoy por hoy utilizamos dos tipos de formatos de imagen. Cuando hablamos de contenido pre-renderizado. Por un lado tenemos las imágenes lat-long, o también llamadas equirectangular, y por otro lado las imágenes cúbicas. Las dos se mapean de forma esférica para crear un mundo virtual. Básicamente necesitaremos generar dos imágenes esféricas, una para cada ojo.

Las imágenes lat-long son geniales, porque podemos ver todo el mundo en un solo golpe de vista. El problema que acarrean, es que el 66% de la imagen corresponde a los polos de la esfera virtual donde se mapean, y en esos polos hay demasiada distorsión.

Proyeccion lat-long.

Las imágenes cúbicas para este tipo de contenido son quizás más efectivas que las lat-long, ya que las imágenes se mapean virtualmente en el interior de un cubo, de tal forma que los polos estarán proyectados en dos caras del cubo, lo que corresponde a un 33% del total de la imagen. Esto significa menos distorsión cuando se convierte a espacio esférico.

Proyección cúbica.

Estereografía. Es el acto de proporcionar dos imágenes desde dos cámaras distintas. Entre cada una de las dos cámaras existe un desfase que representa la distancia entre un ojo y el otro. En el caso de cine stereo, esto se realiza renderizando una imagen para el ojo izquierdo y otra para el derecho, y ambas se proyectan en una pantalla plana. 
En el caso de VR, necesitamos renderizar no solo izquierda y derecha, si no también frontal y trasera, siempre manteniendo el mismo desfase entre cámaras, para así poder rotar en todas direcciones.

Por supuesto, hay mucha teoría y conceptos básicos que necesitamos conocer a la hora de trabajar con VR, pero para este simple ejercicio, creo que este es contexto suficiente.

Trabajando en software 3D

  • En esta ocasión, voy a combinar material rodado con material generado mediante VFX.
  • Ya tendremos tiempo en otra ocasión para hablar sobre sistemas y metodologías de captura de fotografía y video. Hoy nos basta con saber que he capturado una imagen panorámica utilizando un rig Nodal Ninja y un fisheye lens, montado sobre una Canon 5 Mark III. La resolución capturada es de alrededor de 12k
  • Con esa imagen puedo fácilmente crearme un mundo virtual fotorrealista, ya que está basado en fotografías. Como este es un ejemplo sencillo, no quiero perder tiempo en crearme un mundo virtual por completo empezando desde cero. Además, lo que más me interesa en VR es precisamente combinar elementos reales con elementos virtuales.

Tate Modern, Londres.

  • Esta imagen de arriba es el panorama que he creado a partir de varias fotografías realizadas en Tate Modern, aquí en Londres. Puedes descargarte este panorama y otros completamente gratuitos aquí. Además, son imágenes HDRI, con lo que podré utilizar el mismo mapa para iluminar mi escena, al menos en parte.
  • Como el mapa panorámico es 360 x 180 puedo cubrir todo el campo de visión para posteriormente rotar mi cabeza con el headset de VR y mirar en cualquier dirección.
  • El siguiente paso es crear los elementos virtuales de mi escena. En este ejercicio simplemente voy a posicionar un robot en el centro de la escena y un par de esferas.
  • Lo ideal es colocar la cámara virtual en aquella posición del entorno donde quieres que los espectadores estén colocados posteriormente en la experiencia de realidad virtual. Recuerda que en este ejemplo utilizamos un headset de smartphone, con lo que el espectador no podrá caminar alrededor del entorno, solo mirar en todas direcciones.
  • Como podéis ver más abajo, la escena es muy simple. Utilizo el propio HDRI panorámico para iluminar. También estoy utilizando un par de softboxes como key lights.
  • Vray no renderiza el fondo en sus environment lights (how clever...). Así que como quiero ver el entorno en el render tengo que crear un environment override con la misma imagen panorámica que utilizo para iluminar, asegurándome que está en la misma orientación.
  • Tambien utilizo un shadow catcher para proyectar las sombras de mis assets 3D en el entorno live action.
  • En este punto, si realizo un render, deberia de obtener el resultado esperado. Simplemente trabajo mi escena como lo haria en cualquier otra ocasion. En este caso con una camara rectilinear y con resolucion HD.
  • El siguiente paso es añadir un Vray extra attribute para convertir nuestra cámara en una cámara estereoscópica. Por defecto dejamos la distancia entre ojos A 6.5cm que es más o menos lo normal en el ser humano. También dejamos desactivada la opción de especificar un punto de enfoque concreto, a menos que creativamente queramos dirigir la mirada del espectador a un lugar concreto del entorno.
  • Si volvemos a renderizar, obtendremos un render para cada ojo. Ya tenemos estereoscopía.
  • Ahora que ya tenemos un render para cada ojo, lo siguiente que tenemos que hacer es renderizarlo de forma esférica para poder mapearlo en un mundo virtual. En este caso vamos a utilizar una proyección cúbica, que como vimos anteriormente tiene menos distorsión.
  • Para ello basta con crear un override de camara tipo cube 6x1
  • Finalmente tenemos que indicar la resolución del render. Esto depende del dispositivo VR que vayas a utilizar, aplicación, soporte, etc. Los desarrolladores de hardware tienen documentación al respecto, recurre a ella. En este caso, para Google Cardboard y similares utilizamos una resolución de 9216x1536. 
  • Como buena práctica es recomendable desactivar el filtrado, para así no acentuar los posibles errores de stitching.
  • Si chequeamos el render en Nuke obtendremos algo similar a esta imagen.
  • Perfecto, ya solo nos queda publicar nuestra imagen para visualizarla en un dispositivo VR.
  • Estoy utilizando irisVR que permite subir las imágenes a través de una aplicación web, para posteriormente visualizarlas a través de su propia app (apple y android) utilizando tu VR headset.
  • Simplemente tienes que crearte una cuenta gratuita y subir las imágenes.
  • Una vez subidas las imagenes, apareceran en tu libreria.
  • Ya utilizando tu smartphone, ejecuta la app de irisVR llamada Scope y en tu libreria podras ver todas tus imagenes subidas a traves de la web.
  • Selecciona cualquier de ellas y la propia app te indicara que coloques tu movil en el VR headset.
  • En este caso estoy utilizando dos diferentes, Google Cardboard y UMI Box 3.
  • Y con esto ya tenemos nuestros renders 3D y fotografias listas para ver en un VR headset.
  • Asi es como se ven el el movil cuando no tenemos el headset puesto.
  • Obviamente esta experiencia dista mucho de interactuar con contenido digital o fotogrametría dentro de un headset como el HTC Vive, pero como primer ejercicio no estaámal. Seguiremos hablando de VR en el futuro a medida que aprendamos mas al respecto.
Leer más
reviwes Xuan Prada reviwes Xuan Prada

Manfrotto Befree

Otra aporte que nos gustaría realizar a este blog / repositorio de formación, son reviews y análisis de hardware y software que nos parecen interesantes y recomendables.
Procuraremos recomendar sólo aquellos productos que utilicemos o que al menos, hayamos visto utilizar de cerca. No tenemos previsto hablar de productos promocionados, es decir, aquellos que paguen para que hablemos de ellos. Lo que si puede ocurrir, es que hablemos de productos que hayan sido donados al blog para poder utilizarlos y beneficiarnos de sus características.

En esta ocasión quiero hablaros de una de las herramientas que más utilizamos on-set, los trípodes de la familia Befree de Manfrotto. Son probablemente los trípodes más compactos que se pueden encontrar en el mercado en este momento. Disponibles tanto en aluminio como en fibra de carbono. No voy a hablar mucho más de sus características técnicas, para ello basta con que accedáis a la web oficial del producto. En estas reviews más que centrarme en el producto en si pretendo hablar del uso que le damos en elephant vfx.

Como decía, la principal característica de estos trípodes es que son muy pequeños cuando están plegados y de tamaño medio cuando están completamente extendidos. Además, incluyen una ball head y un quick release plate, todo por un precio muy asequible.

¿Para qué los utilizamos en elephant vfx?

Los utilizamos en muchas tareas on-set relacionadas con efectos visuales, principalmente como trípodes secundarios. Se pueden utilizar perfectamente como trípodes principales, pero tienen un punto flaco importante; no son demasiado estables cuando han de soportar mucho peso. Esto quiere decir que una reflex digital de gama alta con un multi zoom puede ser una combinación poco recomendable. No hay problema en utilizar este equipo fotográfico con estos trípodes, pero siempre disparando con un remote trigger para evitar tocar la cámara. Bracketing queda prácticamente descartado utilizando multi zooms, ya que la vibración de la cámara entre cada uno de los brackets hará que se mueva ligeramente el trípode, descuadrando la alineación de los brackets. Bracketing con prime lenses como 28mm o 50mm se puede realizar a la perfección.

Dicho esto, una de las tareas que realizamos con estos trípodes es fotogrametría on-set para entornos o props medianos-grandes que necesiten mover el trípode alrededor del sujeto. Especialmente realizamos esta tarea con cámaras compactas mirrorles y prime lenses, como Sony A7 o Sony a6000. Esta combinación de equipo fotográfico y trípode resulta en una solución móvil perfecta para moverse alrededor del set.

Además de tareas de fotogrametría, también utilizamos Manfrotto Befree como soporte para lighting checkers, tanto Mono como Twins. De nuevo, debido a su reducido tamaño, su ligereza y su capacidad de extensión, podemos colocar los lighting checkers en cualquier posición deseada. Incluso cuando sólo disponemos de un par de mochilas o maletas para transportar todo el equipo fotográfico necesario, podemos fácilmente llevar dos o tres de estos trípodes para las diferentes tareas.

También los utilizamos como soporte para turntables de fotogrametría. Aquí dejo una foto de un Befree con un turntable Akromatic. Gracias a las diferentes opciones de expansión, podemos colocar el trípode en el suelo, en una mesa o donde necesitemos en el set, adecuando el trípode a la iluminación presente, en el caso de no poder modificar la misma.

Otro uso que le damos a estos trípodes, es el de soporte para panoramic heads para realizar HDRIs panorámicos. Si bien como dije antes, no son el tipo de trípodes más estables, con programar la cámara para esperar dos o tres segundos entre cada uno de los brackets, no tendremos mayores problemas. Utilizar panoramic heads más compactas que Nodal Ninja también ayuda. Generalmente las DSLR profesionales son pesadas, pero los fisheye lenses suelen ser compactos. Así que no es una combinación demasiado peligrosa.

También utilizamos estos trípodes como soporte para plataformas adicionales, bien sean para ordenadores portátil o para tomar notas.

Finalmente, utilizamos Befree para cualquier cometido de fotografía principal de referencias, simplemente para tener una cámara montada en el set y estar listo para tomar referencias en cualquier momento.

Dato importante a tener en cuenta, Hay una versión más pequeña que otra. Ambos vienen con ball heads y quick release plates, pero, en la versión mas pequeña no se puede intercambiar la cabeza, está fija y no se puede quitar. Esto reduce mucho las posibilidades de utilización del trípode, ya que sólo podrás utilizarlo con cámaras y accesorios donde puedas colocar un quick release plate. Este trípode en particular, yo sólamente lo utilizo para tareas de fotogrametría con cámaras mirrorless. Ambos trípodes vienen con sus respectivas fundas (que no utilizarás nunca).

Leer más