Un pequeño video donde muestro el potencial del nuevo frame buffer de Arnold Render, algunas de las opciones, muy importantes especialmente para look-dev y lighting.
Como seguramente sepas, Arnold gestiona la subdivisión de geometría de forma individual. Si tienes una escena con cientos de objetos resulta un tanto incómodo ir uno a uno añadiendo propiedades de subdivisión de Arnold. Esta es la forma más rápida y sencilla que he encontrado para solventar esta situación. No tengo ni pajolera idea de scripting, así que si tienes una solución más rápida y eficaz, por favor, házmelo saber.
- En este particular ejemplo quiero subdividir en render este personaje compuesto de decenas y decenas de piezas. Quiero seguir manteniéndolas todas de forma individual pero poder subdividirlas al mismo tiempo.
- Lo primero que necesitas hacer es seleccionar todos los shapes de cada objeto. Para ello selecciona todos tus objetos de geometría en el outliner y pega esta linea de código en el script editor. Esto hará que se seleccionen todos los shapes de los objetos previamente seleccionados.
/* you have to select all the objects you want to subdivide, it doesn’t work with groups or locators.
once the shapes are selected just change aiSubdivType and aiSubdivIterations on the attribute spread sheet.
*/
pickWalk -d down;
string $shapesSelected[] = `ls -sl`;
- Una vez todos los shapes han sido seleccionados, abre el attribute spread sheet.
- Filtra por ai subdiv.
- Elige tu método de subdivisión e iteracciones.
- Y ya está, personaje subdividido.
Este post está enfocado especialmente para texture artists, aunque no viene mal para todos aquellos que trabajen con referencias fotográficas en un pipeline de efectos visuales. Como texture artist trabajando en VFX lo más normal es que desde hace años no trabajes con Photoshop. Aparte de las limitaciones de no poder pintar en 3D, de no poder trabajar con UDIMs y de lo engorroso y lento que es gestionar toda la información que vas generando día a día, el mayor problema de Photoshop es la gestión de color (LUTs, ACES, OIIO, etc) y del rango dinámico. Por eso y por la estandarización de software de texturizado como Mari (que no tiene las limitaciones mencionadas), Photoshop ha pasado a ser una herramienta obsoleta para los que nos dedicamos a pintar texturas en proyectos de efectos visuales.
Aún así, sigo utilizando Photoshop para una sola tarea, eliminar sombras y reflejos de mis referencias utilizando la herramienta Shadows&Highlights. Sólo para eso.
Generalmente, en los VFX facilities solemos disponer de cross polarized references, carentes de información no deseable como sombras y reflejos, pero no en el 100% de los casos, y cuando te topas con referencias que han sido fotografiadas utilizando técnicas más comunes, no queda otras que intentar eliminar esta información no deseada como buenamente puedas. La herramienta Shadows&Highlights es muy buena para este propósito.
Pero comentaba, uno de los mayores defectos de Photoshop es como trata el rango dinámico. Trabajar con imágenes .exr de 16 o 32 bits es simplemente infernal. Muchas de las operaciones disponibles en Photoshop están desactivadas o requieren que hagas un merge del layer stack. Esto significa, en muchas ocasiones perder rango dinámico, tener que convertir imágenes de 32 bits a 16 bits, incluso a 8 bits. Es decir, descartado, lo ultimo que quiero es perder rango dinámico en mis referencias, que generalmente serán fotografías RAW compuestas de al menos 3 exposiciones, es decir, imágenes HDRI con alto rango dinámico.
Otro de los grandes defectos de Photoshop es la gestión de color. Si en el proyecto en el que estoy trabajando utiliza un determinado LUT (para resumir, un color grading bestial que simula por ejemplo, una determinada emulsión de película) y altera la apariencia visual de mis referencias, necesito visualizar mis imágenes bajo las mismas circunstancias en Photosop. Imposible debido a la carencia de gestión de color en Photoshop.
Afortunadamente en la última versión de Photoshop (CS6 y CC) han incorporado una capa de ajuste llamada Color Lookup que permite cargar algunos formatos comunes de archivos LUT. Esto entre otras cosas me permite poder utilizar Photoshop de vez en cuando si lo necesitase para alguna tarea extraordinaria de texturizado, como por ejemplo, la mencionada herramienta Shadows&Highlights. Veamos como.
Si trabajamos en un espacio de color sRGB
- En Nuke tengo mis referencias en formato .exr 16 bits linear.
- Para poder abrirlas en Photoshop sin ningún tipo de limitación, necesitamos guardarlas en formato .tif 16 bits linear.
- Si las abrimos en Photoshop, se verán de forma incorrecta. Para visualizarlas correctamente basta con añadir un gamma correction 2.2 (solución cercana al espacio de color sRGB).
- Tras hacer los cambios oportunos en las referencias, desactivar el gamma correction y volver a guardar la imagen como .tif 16 bits.
- Leer en Nuke como linear.
- Para seguir trabajando en el pipeline VFX, es decir, para importar en Mari o para llevársela a Maya para render, conviene convertir en .exr linear.
Si trabajamos en un espacio de color LUT
- Visualizar las imágenes en Nuke 16 bits .exr linear a través del LUT.
- Escribirlas como 16 bits .tif linear para poder abrirlas en Photoshop sin limitaciones.
- En Photoshop abrir las imágenes y utilizar un Color Lookup con el LUT. Guardar la imagen como 16 bits .tif con el Color Lookup desactivado.
- Leer en Nuke como linear.
- Para seguir en el pipeline de VFX de nuevo conviene escribirla como 16 bits .exr linear.
- Si las importamos en Mari con el LUT activado deberían de verse exactamente igual.
- Del mismo modo debería de ocurrir a la hora de renderizar en Maya y Arnold (o cualquier otro software).
A estas alturas no vamos a explicar nada relacionado con Linear Workflow, Gamma Correction, Color Spaces, etc. Seguramente ya todos llevamos años trabajando así y de lo contrario, existen muchos recursos en internet con información al respecto. En este mismo blog podéis encontrar información relacionada con este tópico en esta entrada del blog, o en esta o quizás en esta. También si buscáis el término Linear Workflow en la sección tutoriales.
El caso es que Autodesk Maya 2016 viene con una serie de novedades, entre ellas la gestión de color, lo que hace que por ejemplo, el Gamma Correction en Arnold Render se vea ligeramente alterado con respecto a versiones anteriores de Maya. Parece que esto está causando algunas confusiones entre algunos usuarios de Arnold, así que vamos a explicar de forma sencilla como configurar Maya 2016 y Arnold para trabajar de forma correcta. Nótese que esta no es la única forma de configurar LWF correctamente, pero es la que más me gusta a mi.
En las preferencias de Maya tenemos que activar el Color Managment. Lo ideal es renderizar siempre de forma linear y que el view transformation sea siempre sRGB (o LUT en el caso de estar utilizando uno). El input color space vamos a dejarlo como sRGB aunque después será Arnold el encargado de dictaminar el color space de nuestras texturas.
Como prueba para chequear que todo funciona correctamente, vamos a utilizar dos texturas de Macbeth Chart. La primera es una textura linear en formato .exr y la segunda una textura sRGB en formato .jpg Estos son generalmente los dos tipos de inputs que vamos a encontrar en una producción, linear y sRGB.
Si leemos ambas como linear, que es lo que ocurre a la hora de renderizar (hay que linearizar las texturas siempre) comprobaremos que la textura sRGB no se ve de forma correcta. Bien, lo mismo debería ocurrir en Maya y Arnold.
En las opciones de render de Arnold, en el apartado Gamma Correction, tenemos que poner todos los parámetros a 1.0
Esto quiere decir que Arnold espera que todos los inputs estén linearizados. Como ya dije anteriormente, hay que linearizar las texturas siempre.
El Macbeth Chart de arriba es el que tiene aplicado la textura linear .exr y el Macbeth Chart de abajo tiene aplicada la textura sRGB .jpg
La esfera diffuse tiene aplicado un color neutral grey 50%
Cuando lanzamos un render, ya que Arnold espera que todos los inputs estén linearizados, el Macbeth Chart de abajo y la esfera gris se van a ver de forma incorrecta. La solución es linearizarlos antes del render.
Existen dos formas de linearizar los inputs. La primera pasa por colocar invert gamma correction en todas las texturas que no estén linearizadas. Es decir, cualquier textura en espacio de color sRGB sea cual sea su formato. En este ejemplo solo tendremos que corregir la textura del Macbeth Chart de abajo.
Si renderizamos de nuevo, los dos Macbeth Charts deberían de verse de forma correcta.
La esfera diffuse sigue sin verse correctamente. Esto ocurre porque Maya está tratando al color plano 50% grey como si estuviese en el espacio de renderizado (linear). Así que tenemos que decirle que lo trate como si estuviese en el espacio de visionado (sRGB).
Ahora si renderizamos de nuevo, todo se verá de forma correcta.
Antes comentaba que existen dos formas de linearizar las texturas. La primera es la que hemos visto, la segunda, es la recomendada, ya que obviamos gamma correction nodes y ahorramos tiempo de computación al render.
Consiste en convertir las texturas al formato .tx que por otro lado me imagino que ya estás acostumbrado a convertir tus texturas a este formato ya que las texturas han de ser convertidas a MIP-mapped textures sobre todo, para ahorrarte infinidad de tiempo en el renderizado.
En el caso de texturas en espacio de color sRGB no olvides utilizar la opción "--colorconvert sRGB to linear"
Si ahora eliminamos todos los nodos gamma correction y sustituimos las texturas por su equivalente .tx obtendremos el resultado esperado.
No está de más mencionar que en la última versión de Arnold, SolidAngle proporciona su propio Frame Buffer. Puedes encontrarlo en el menú Arnold -> Experimental -> MtoA RenderView
Donde entre otras opciones, puedes cargar directamente un LUT.
Huelga decir que nuestros renders siempre van a ser lineares, así que se verán correctamente en Nuke. Basta con leerlos como linear y visionarlos como sRGB (o LUT) al igual que en Maya.
Cualquier duda, pásate por el foro o deja un comentario en el blog.
Isotropix Clarisse es capaz de renderizar volumes manteniendo la flexibilidad que caracteriza a este software. OpenVDB es perfectamente compatible con Clarisse, y resulta muy sencillo renderizar todo tipo de volume effects. En este particular ejemplo vamos a renderizar una simple simulación de humo.
Lo primero que voy a hacer es crear un setup IBL y elegir uno de los HDRI que almaceno en mi libreria.
Con dos esferas, una gris y una cromada puedo posicionar fácilmente el HDRI hasta obtener la iluminación deseada.
Para importar el archivo .vdb basta con seleccionar import -> volume.
Una representación básica del volume se verá en el viewport, siempre en tiempo real.
Para mejorar la apariencia visual del volume y que este se vea afectado por la iluminación (en viewport) basta con cambiar el tipo visualizacion a progressive rendering.
Si asignamos un standard material al volume, podemos renderizarlo como si se tratase de una geometría más.
Por supuesto, la solución ideal es crear un material volume y aplicarlo a la simulación.
En el material editor podemos utilizar un nodo utility -> extract property y leer cualquier propiedad embebida en la simulación. En este caso, la temperatura.
Podemos derivar la apariencia del shader como queramos. En este ejemplo estoy utilizando un simple gradient.
Si aparece demasiado ruido en el render, no olvides que las luces tienen su propio parámetro de sampling para los volumes.
Render final.
¿Qué ocurre si estás trabajando con Ptex pero necesitas hacer algún tipo de detalle de desplazamiento en Zbrush? ¿Cómo se puede renderizar eso?
Como seguramente sepas, en este momento Zbrush no soporta Ptex. Como ya comentaba en el post anterior, no soy un gran fan de Ptex, pero eso va a cambiar en el futuro, probablemente. La mayor ventaja (para mi) de utilizar Ptex, es como comentaba, la posibilidad de no tener que realizar UV mapping. Pero entonces, si Zbrush no soporta Ptex, y no tengo tiempo/ganas de realizar UV mapping, ¿cómo puedo esculpir en Zbrush y exportar mis mapas de desplazamiento para ser renderizados en Ptex?
- En la imagen de abajo, tengo un scan 3D el cual he procesado en Meshlab para reducir la cantidad de poligonos a un numero aceptable para poder trabajar en otros software.
- El siguiente paso, es importar el modelo en Zbrush. 500.000 polígonos son suficientes para poder trabajar de forma fluida y mantener los detalles que me interesan en este particular modelo.
- Voy a utilizar Zbrush para generar una retopología rápida, automática. Puedes por supuesto utilizar Maya o Modo para generara un modelo consistente de quads, listo para producción. Para el propósito de esta demo, una retopología automática es suficiente.
- Utilizando la herramienta Zremesher podemos crear una topología más que digna para este propósito en diez segundos.
- El siguiente paso consiste en exportar tanto el modelo original de alta resolución, como el modelo de baja resolución. Puedes utilizar el formato .obj
- Vamos a importar los dos en Mudbox para extraer el mapa de desplazamiento utilizando Ptex. Mudbox si soporta Ptex.
- Una vez importados los dos modelos, mantén los dos visibles.
- Exporta los displacement maps de forma normal.
- Lo más importante de las opciones que has de tocar está señalado en la imagen de abajo.
- Para renderizar los archivos Ptex en Vray, puedes seguir exactamente las mismas reglas que para renderizar cualquier displacement de 32 bits.
- Y ya está, todo debería de renderizarse correctamente.