Hola a todos,
Acabo de publicar un nuevo video en mi Patreon sobre window box.
En este video os muestro como utilizar el nuevo sistema de window box en Houdini. Esta es una de esas herramientas indispensables que llevo utilizando durante mucho años en diferentes estudios de VFX, pero ahora funciona "out of the box" en Houdini y Karma. Espero que os sea útil y podáis empezar a utilizarlo en vuestros proyectos.
Toda la info en mi Patreon.
Hola patrons,
Acabo de terminar un nuevo video sobre las nuevas herramientas de Mari 4.6 el cual ha salido al mercado hace apenas unas semanas. También hablaré sobre extension pack 5 y sus novedades, o herramientas que más utilizo. Finalmente, crearemos un template de producción para texturizado y look-development que he utilizado para texturizar decenas de assets durante mis últimas producciones para cine y tv.
A grandes rasgos estos son los tópicos que cubriremos durante alrededor de 2.5 horas. El video se publicará en mi Patreon.
- Mari 4.6 new features
- New material system explained in depth
- Material ingestion tool
- Optimization settings
- How and where to use geo channels
- New camera projection tools
- Extension pack 5 new features (or my most used tools)
- Production template for texturing and pre-lookDev
Toda la información y acceso al video en mi Patreon.
Muchas gracias por tu apoyo!
Xuan.
En este video de 30 minutos explico algunos conceptos básicos de displacement maps en Clarisse. Los suscriptores de elephant vfx pro podéis descargaros el asset utilizado durante la explicación.
En este post vamos a ver como crear variaciones de color y texturas de diferentes formas utilizando Arnold render. La idea principal, es dotar a varios assets, ya bien sean geometría, aiStandins, partículas, scatterers o cualquier otro tipo de multitudes, de variaciones de look, utilizando solamente un shader.
Vamos a mostrar cuatro formas diferentes de realizar esta tarea, cada una de ellas puede aplicarse en función de las necesidades particulares que cada uno pueda tener en su pipeline de producción.
Diferentes colores definidos para diferentes objetos
- Esta es la escena que vamos a utilizar para todos los ejercicios. Ocho cabezas de una figura de Lego. El objetivo, es utilizar un solo shader y que cada cabeza tenga un color o una textura diferente.
- Si lanzamos un render, este es el aspecto actual. Un shader sencillo con un color amarillo en el base color y en el sss color.
- Crea un aiUserDataColor y conectalo tanto al base color como al sss color.
- En sus parámetros escribe color en el campo attribute.
- Selecciona el shape de cada objeto, y añade un attribute.
- nombre: mota_constant_color
- data type: vector
- Si ahora vas a los extra attributes, puedes utilizar el color que quieras mediante valores RGB.
- En este render sólamente he definido un color rojo para uno de los objetos.
- En este render he definido colores RGB para cada uno de los objetos de la escena.
Colores completamente aleatorios y/o texturas definidas de forma aleatoria
- Al igual que en el ejemplo anterior, tengo el mismo shader, con sss. Además, tengo un mapa de displacement conectado.
- Lo que pretendemos es utilizar un color aleatorio para cada uno de los objetos, o en lugar de un color, una serie de texturas definidas asignadas de forma aleatoria.
- En estos momentos este es el aspecto del render. Mismo shader con mismos parámetros para todos los objetos.
- Crea un aiUtility y conéctalo al base color y al sss color.
- Pon en shade mode como flat y el color mode como object id.
- Estos settings nos proporcionarán un color aleatorio para cada objeto.
- Si lanzamos un render este es el resultado.
- Conecta un aiRandom después del aiUtility.
- Pon el type como color.
- Introduciendo diferentes valores en el seed, obtendremos diferentes colores.
- Render utilizando un seed con valor 2
- Conecta un aiColorToFloat después del aiRandom y pon el mode como sum.
- Con este nodo convertiremos los valores de albedo en datos, de donde podremos extraer máscaras.
- Crea un aiSwitch y conecta tantos inputs como texturas necesites.
- Conecta el aiColorToFloat al index input del aiSwitch.
- Este es el resultado del render.
- Para obtener diferentes variaciones podemos conectar un aiColorCorrect después del aiRandom y tocando por ejemplo su exposición, alteraremos los valores de albedo y por lo tanto de las máscaras.
- Tambien podemos utilizar un seed distinto para obtener mayor variación.
- Otro render diferente aumentando la exposición del aiColorCorrect.
Una textura diferente definida para cada objeto utilizando un solo shader
- Renombre todas las texturas utilizando el siguiente template.
- Añade el siguiente attribute al texture file node
- /Users/xuanprada/Desktop/arnold_variance/textures/<attr:head default:COL1_head_a>.tx
- /Users/xuanprada/Desktop/arnold_variance/textures/<attr:head default:COL1_head_a>.tx
- Añade un attribute al shape de cada objeto
- nombre: mtoa_constant_head
- data type: string
- Si ahora vas a los extra attributes, puedes llamar a una textura diferente basándote en naming convention.
- Render final.
Lo mismo que en el caso anterior, pero basándonos en naming convention de shape
- Renombra las texturas basandote en el siguiente template
- COL1_head_a.tx
- Añade el siguiente tag al nombre del file texture node
- /Users/xuanprada/Desktop/arnold_variance/textures/COL1_<shapeName>.tx
- Los shapes de cada objeto han de ser renombrados utilizando la siguiente nomenclatura.
- Render final
Si eres usuario de elephant vfx pro, puedes descargarte las escenas utilizadas en este tutorial.
Aquí os dejo un video de alrededor de 1 hora, donde explico de forma breve y a modo de introducción como utilizar el node graph de Mari 4.
Los texture artists generalmente combinan Mari y Nuke para trabajar sus texturas, gracias a la introducción del node graph dese Mari 3, cada vez dependemos menos de Nuke. Por otro lado, las líneas que separan a los texture artists de los look-dev TD's cada vez está más difuminada, y es cada día más común que un mismo profesional se pueda ocupar de ambas tareas, al menos, en assets no demasiado complejos.
Además, estamos trabajando en un nuevo curso "Estrategias de texturizado y look-development para entornos" donde utilizaremos exclusivamente el node graph de Mari 4 combinado con Substance Painter y Maya, así que esta breve introducción pretende poneros en contexto para lo que vendrá en un futuro.
Lo dicho, aquí os dejo con casi 1 hora de introducción al node graph de Mari.
Imágenes pertenecientes al curso "Estrategias de texturizado y look-dev para entornos",
Nuestro nuevo curso online "One man band" ya está disponible.
En este curso te mostramos como construir un pipeline de texturizado, look-dev, lighting, render y offline look-dev, utilizando dos metodologías de trabajo diferentes, orientadas a boutiques de VFX y freelancers. Una con Substance Painter, Maya/Arnold y Nuke. Y otra utilizando Substance Painter, Isotropix Clarisse y Blackmagic Fusion.
Aquí tienes toda la información detallada.