Este post es una traducción del original escrito en Septiembre del 2013 en el blog de Xuan Prada.

He hecho un pequeño breakdown de las texturas que normalmente hago cuando trabajo con piel humana.
Digamos que lo mismo que muestro aquí podría extrapolarse para el resto del cuerpo.
Dependiendo de la producción, el pipeline, el motor de render o los shaders, las texturas pueden variar, pero estas son más o menos las genéricas que siempre están.

  • Renders utilizando un set-up neutro para look-dev.
  • Mapas diffuse.
  • Mapas overall.
  • Mapas scatter.

Mapas displacement.

  • Mapas fine displacement.
  • Mapas specular.

Este post es una traducción del original escrito en Agosto del 2013 en el blog de Xuan Prada.

  • Exporta el nivel de subdivisión más bajo.
  • Exporta el nivel de subdivisión más alto.
  • Trabaja el UV mapping utilizando el modelo de baja resolución, que obviamente será el modelo que utilices para el render.
  • Vuelve a Zbrush y en una escena nueva importa el modelo de alta resolución.
  • Importa el modelo de baja resolución.
  • Selecciona el modelo de alta resolución, vete a subtool -> insert y selecciona el modelo de baja resolución.
  • Una vez insertado, verás que los dos modelos están superpuestos.
  • Antes de continuar asegúrate de que solo están visibles los dos modelos que te interesan, nada más.
  • Selecciona el subtool con el modelo de baja resolución y subdivídelo tantas veces como necesites.
  • Guarda un morph target por si necesitas volver al estado original en el futuro. Seguramente tengas que hacerlo para corregir errores después de proyectar detalle.
  • Con el modelo de baja resolución seleccionado, vete a subtool -> project all.
  • Los parámetros más importantes son pa blur y distance.
  • Normalmente dejo el pa blur a cero y el distance tendrás que ir probando hasta encontrar un valor que te funcione. El valor por defecto es un buen punto de partida.
  • Una vez terminado el proceso de proyección, checkea tu modelo. En este caso, al ser un modelo muy simple lo ha hecho a la perfección.
  • Ya estás listo para exportar los mapas de desplazamiento.
  • Selecciona el modelo de baja resolución y vete al nivel de subdivisión más bajo.
  • Aquí dejo los parámetros que estoy utilizando para extraer el desplazamiento.
  • Finalmente puedes checkear los mapas extraídos.

Este tutorial esta disponible en modo video tutorial con explicaciones más detalladas, puedes verlo aquí abajo.

Este post es una traducción del original escrito en Mayo del 2012 en el blog de Xuan Prada.

Cuando trabajamos con linear workflow y entornos HDRI, no importa el paquete 3D o el motor de render, siempre resulta difícil mantener la consistencia entre texturas y backplates. En ocasiones son demasiado oscuras, o lavadas, etc.

El problema generalmente viene dado porque las texturas son multiplicadas por la iluminación que viene del HDRI, y esa información de más necesita ser compensada de alguna forma.
Estamos añadiendo información a las texturas que ya se encuentra en ellas, por lo que debemos restar esa información proporcionada por el HDRI.
Este proceso, se llama normalizar las texturas.

Aquí abajo dejo una forma sencilla de solucionar este problema.

  • Para empezar crea un set-up image based lighting.
  • Utiliza un plano con un material mia_material_x_passes completamente blanco, sin ningún tipo de reflexión.
  • Lanza un render y configúralo como linear.
  • Crea otro material mia_material_x_passes con una textura con el gamma corregido, y asígnalo al plano.
  • Estoy utilizando este mapa de textura.
  • Si renderizas en este punto, te darás cuenta de que la textura se ve lavada. Esto ocurre porque esta siendo multiplicada por la información lumínica de la escena.

Para arreglar esto:

  • Aplica de nuevo el shader blanco al plano.
  • Haz un bake de la información lumínica.
  • Ahora tenemos que dividir la información de color de la textura por la información lumínica del entorno, esto nos dará el color bruto o RAW.
  • Conecta la textura con su gamma corregido al input 1 del nodo multiply/divide.
  • Conecta al textura bakeada .hdr al input 2 del nodo multiply/divide.
  • Pon la operacion como divide.
  • Renderiza de nuevo y ahora debería de verse correctamente.

Este post es una traducción del original escrito en Mayo del 2013 en el blog de Xuan Prada.

Algo muy común cuando estas texturizando cualquier asset, es la utilización de máscaras.
Estas pueden ser pintadas en un software como Mari, Zbrush o Mudbox. o también pueden generarse en un software 3D convencional mediante shaders procedurales o cualquier otra técnica.

Estos shaders o texturas procedurales generados fuera de Mari, puede que nos interese importarlos dentro de Mari para utilizarlos a la hora de crear nuestros mapas de textura finales. Como máscaras de capa, para poner encima de colores en diferentes modos de fusión, etc.

Hace tiempo me enviaron la versión alpha de Mari 2.0 y me encontré que importar máscaras generadas en otros softwares era algo bastante complejo. No complejo, si no rebuscado, es la típica cosa que alguien tiene que decirte como se hace, o perderás un buen tiempo intentando encontrarlo.

Eso fue lo que me paso a mi, perdí bastante tiempo para encontrar esa opción, así que aquí abajo os dejo una descripción para resolver esta sencilla duda, y no tengáis que echar un buen rato para descubrirlo por vosotros mismos.

  • Crea una nueva capa e importa tu máscara.
  • Añade una máscara reveal all a la capa que quieres enmascarar con tu máscara importada.
  • Crea un mask group.
  • Doble click en el icono de mask group para abrir la ventana donde esta ubicada la máscara.
  • Arrastra tu máscara previamente importada a la ventana de mask group.
  • Si quieres puedes borrar la máscara creada por defecto.
8700625785_3d040e69da_o.jpg
  • Puedes invertir la máscara si es necesario, o a nadir cualquier otro ajuste de capa, nuevas capas de máscara encima o lo que necesites.

Este post es una traducción del original escrito en Febrero del 2013 en el blog de Xuan Prada.

He grabado un video tutorial donde muestro el proceso que utilizo para normalizar texturas en Softimage, fácilmente aplicable a cualquier otro software.

Este post es una traducción del original escrito en Febrero del 2013 en el blog de Xuan Prada.

Siempre es un poco complicado hacer funcionar a la perfección los desplazamientos de Zbrush en los diferentes motores de render.
Si has cambiado recientemente de Mental Ray a Vray, como es mi caso, probablemente necesites algunos tips para poder renderizar tus displacements con todo su potencial.

He escrito algunas lineas aquí abajo para mostrar como hacer esto.

  • Carga tu displacement de 16bits en el Hypershade.
  • Arrástralo al slot displacement en el shading group attributes.
  • Maya creará de forma automática un nodo displacement en el Hypershade. no necesitas tocar nada ahí.
  • Selecciona la geometría de tu asset y añade un Vray extra attribute para controlar las subdivisiones y las propiedades de displacement.
  • Si has exportado tu displacement desde Zbrush con la opción subdividing UVs, deberías de seleccionar esta opción para el render. Generalmente lo harás así.
  • Edge length y Max subdivisions son los parámetros más importantes. Juega con ellos hasta obtener un resultado que te guste.
  • Displacement amount es la fuerza del displacement.
  • Displacement shit debería de ser un valor la mitad en negativo del valor utilizado en displacement amount. Esto solo si utilizas displacements 16 bits.
  • Si utilizas displacements de 32 bits el displacement shift es siempre cero.
  • Además, con displacements de 32 bits también necesitas añadir un Vray attribute llamado allow negative values, para que tus mapas no seas clampeados.
  • Render comprobando que el displacement se vea igual que en Zbrush.
  • Mapas de displacement utilizados en este ejemplo.