Utilizar IBL con grandísimos rangos dinámicos para iluminación en VFX es sencillamente genial. Generan unas condiciones lumínicas consistentes, con mucho detalle y el comportamiento de las sombras es fantástico.
Lo malo es que samplear esos valores tan altos en las fuentes lumínicas, especialmente el sol, no es nada fácil, y este tipo de HDRIs pueden generar muchísimo ruido y otros artefactos. Para solucionarlo, generalmente recurrimos a trucos como crear imágenes HDRI de baja resolución y blureadas, o crear versiones con valores clampeados de los mapas en Nuke.

Afortunadamente en Clarisse podemos tratar este problema de forma sencilla.
Los samples de shading, lighting y anti-aliasing se tratan de forma completamente independiente en Clarisse. Puedes manipular cualquiera de ellos sin afectar a los demás, ahorrando un montón de tiempo de render. En muchos motores de render el sampling de shading es multiplicado por el anti-aliasing lo que obliga al usuario a re-ajustar todos los shaders para obtener tiempo de render decentes.

  • Vamos a empezar con esta escena. Como ves, con muchísimo ruido.
  • Lo primero que tenemos que hacer es cambiar el tipo de interpolación del Map File donde tengas tu HDRI a MipMapping.
  • Después tenemos que limpiar el ruido de los shaders, tocando el shading sample.
  • Vete a raytracer y activa la opción previz mode. Esto eliminará toda información lumínica de la escena. Todo el ruido que veas aquí proviene de los shaders.
  • En este caso tenemos mucho ruido ocasionado por la reflexión de la esfera. Veta al material de la misma e incrementa el valor reflection quality, en el apartado sampling.
  • He aumentado el parámetro hasta 10 y ahora ya no veo nada de ruido en la escena.
  • Selecciona de nuevo el raytracer y desactiva el previz mode. Todo el ruido que ahora vemos proviene de la iluminación.
  • Vete al gi monte carlo y desactiva affect diffuse. Esto eliminará la contribución de la iluminación global y solo la luz directa afectará a la escena. Si ves ruido deberás de tocar el sampling de las fuentes de luz directas.
  • Vete de nuevo a gi monte carlo y re-activa affect diffuse. El ruido presente será por culpa de la gi. Incrementa los samples hasta que desaparezca el ruido.
  • Ahora el render ya no tiene ruido, aunque se ve un poco low-res. Esto es por culpa del anti-aliasing de geometría. Veta al raytracer e incrementa los samples. Ahora el render se vera perfecto.
  • Finalmente hay un parámetro que funciona como sampling global. Como norma general no utilizarás este parámetro. Si lo subes al 100% el shading oversampling multiplicará el shading sampling por los sampling de anti-aliasing, como la mayoría de motores de render.
  • Si quieres resultados rápidos para hacer look-dev o lighting, simplemente baja la calidad de la imagen. No tendrás renders perfectos pero será más que suficiente (y muy rápido) para establecer looks.

Esta es una explicación rápida de como se maneja el footage de entrada y salida en un estudio de VFX, especialmentne hablando en relación a la gestión de color.

Shooting camera -> Lab
El material RAW grabado en set se envía al laboratorio. Allí es convertido a .dpx que es el formato estandard en cine. En ocasiones también se utiliza .exr aunque no es muy común.
Aún hay muchos proyectos rodados en película, no en digital. En este caso el laboratorio escanea los negativos para crear archivos .dpx digitales que se utilizarán a lo largo del proceso.

Shooting camera -> Dailies
El material RAW grabado en set se envía a dailies. El cinematógrafo, director de fotografía o DI aplican un LUT primario o color grading que se utilizará a lo largo del proyecto.
Los scans originales con el LUT aplicado se convierten en scans de baja calidad o Quicktimes para su distribución a las empresas que participan en la película.

Dailies -> Editorial
El departamento de editorial recibe los scans en baja calidad con el LUT aplicado. Este departamento utiliza estos scans para hacer los cuts iniciales y presupuestar.

Editorial -> VFX
Los estudios de VFX reciben los scans en baja calidad (Quicktimes) con LUTs aplicados. Utilizan este material basado en los cuts de editorial para presupuestar su trabajo.
Más adelante, utilizarán este mismo material como referencia para color grading.

Lab -> VFX
El laboratorio proporciona a los estudios de VFX los scans de alta calidad para trabajar sus efectos sobre ellos. Este material necesita que le apliquen el LUT.
Los estudios de VFX también deberán aplicar el mismo LUT a su trabajo creado desde cero en el estudio. Una vez terminado el trabajo, el estudio de VFX proporciona salida en .exr

VFX -> DI
DI realizará el color grading necesario para que el trabajo producido por VFX empate con los Quicktimes proporcionados por editorial.

VFX/DI -> Editorial
El material de alta resolución producido por el estudio de VFX vuelve a editorial para ser introducido en los cuts.


Un workflow práctico sería algo así.

  • Leer el RAW scan.
  • Leer el low scan Quicktime.
  • .dpx normalmente están en un espacio de color LOG.
  • .exr normalmente están en un espacio de color LIN.
  • Aplicar LUT o color grading al material RAW para que empate con el material LOW.
  • Renderizan para editorial utilizando el mismo color space utilizado que cuando se trajo el footage.
  • Renderizar para Quicktime utilizando el mismo espacio de color que se utiliza en el visor. Si se va a ver en un espacio de color sRGB es necesario bakear el LUT.
  • Buenos settings para Quicktime: Colorspace sRGB, Codec Avid Dnx HD, 23.98 frames, depth million of colors, RGB levels, no alpha, 1080p/23.976 Dnx HD 36 8bit
Posted
AuthorXuan Prada

Mari es la herramienta estándar para texturizado en producciones de VFX, por muchas razones, pero sobre todo, porque creo que es la única herramienta de texturizado que ofrece gestión de espacios de color. Y en entornos de producción de VFX donde los LUTs marcados por el cinematógrafo juegan un papel crucial, trabajar sin gestión de espacios de color es como trabajar a ciegas. Por eso, Mari y Nuke son prácticamente las únicas herramientas que utilizamos para texturizado. (salvo Zbrush para displacement maps, pero ahi la gestión de color no influye).

De momento la gestión de color en Mari no es completa, es decir, no es como Nuke donde puede controlarse el espacio de color para la entrada y salida de imágenes. Así que podríamos decir que Mari es un software con espacio de color agnóstico.
Pero Mari ofrece un control del espacio de color de post-proceso, a través de dos variantes, Mari Colour Profiles y OpenColorIO (OCIO)En versiones anteriores Mari no ofrecía OCIO y los Mari Colour Profiles eran la única forma de gestionar el color. Ahora, con OCIO implementado, solo puedo recomendar utilizar esta última forma de gestión de color.

Como texture artists, generalmente trabajaremos con imágenes Float-Linear y 8-bit Gamma 2.2 Siempre que podamos trabajaremos con Float-Linear aunque en ocasiones sea inevitable trabajar con 8-bits.

  • He cargado en Mari dos imágenes, una es Linear .exr 32-bits y otra es Gamma 2.2 .tif
  • Con el espacio de color desactivado, podemos checkear ambas imágenes en viewport y comprobar la evidente diferencia entre ambas.
  • Del mismo modo que si lo hiciésemos en Nuke.
  • Una forma de gestionar espacios de color, es a través de LUTsUtilizando el Color Space podemos seleccionar el LUT del proyecto, y después cambiar el Display Device para nuestro monitor calibrado (o dejarlo default si no tenemos perfil de calibración para nuestro monitor). Podemos también cambiar el Input Color Space en función de si 
    estamos utilizando imágenes Linear o sRGB y finalmente cambiar el View 
    Transform a la salida que necesitemos, generalmente Gamma2.2, Film, etc.
  • Como alternativa final, y recomendada, podemos utilizar un archivo OCIO, que debemos cargar en el inicio de Mari, y generalmente será proporcionado por la productora, de mano del cinematógrafo o equipo de DI.
    Después 
    simplemente cambiar el Display Device a nuestro monitor calibrado, el 
    Input Color Space a Linear o Gamma 2.2 en función del material de entrada que tengamos y finalmente el View Transform a Gamma 2.2, Film o lo que necesitemos.
  • De este modo, nuestras texturas siempre estarán en consonancia con el render y con la composición, ya que tanto Maya/Katana/Clarisse y Nuke podrán cargar los mismos ficheros OCIO y podremos visualizar el espacio de color deseado en todos esos software.

Hace unos años trabajé en Dark Shadows, de Tim Burton en MPC. Tuvimos que crear una cara full CG para Angelique, el personaje interpretado por Eva Green.
En una de las secuencias finales, Angelique se pelea con Barnabas Collins, el personaje interpretado por Johnny Depp, y su cara y parte de su cuerpo, se van destrozando poco a poco, como si fuera una muñeca de porcelana.

En aquella ocasión, todas las piezas rotas se pintaron a mano. Pintamos mapas que se utilizarían como máscaras guía por el departamento de FX para generar la geometría resultante.

No hace mucho tuve que crear un efecto similar en otro personaje, pero en este caso, no necesitaba pintarlo todo a mano, ya las partes rotas simplemente tenían que aparecer de forma aleatoria, sin importar demasiado donde ni como. Hice un poco de investigación, y llegue a la conclusión de que la forma mas rápida y sencilla era utilizando el shatter command de Modo.

Antes de empezar, déjame que te muestre unos fotogramas de Angelique, el personaje que hicimos para Dark Shadow, interpretado por Eva Green.

  • Una vez en Modo, importa la geometría. El único requisito para utilizar esta herramienta, es que la geometría esté completamente cerrada. Puedes cerrarla de forma rápida, sin prestar demasiada atención, ya que una vez generadas las piezas, puedes borrar la geometría que no necesites muy fácilmente.
  • Ya he pintado texturas para este personaje. Las nuevas piezas que se van a generar, tendrán un nuevo UV Mapping, pero las UVs existentes se mantendrán perfectas, así que no tengas miedo de utilizar esta herramienta si tu asset ya tienen UVs y texturas.
  • En el tab setup, encontraras la herramienta shatter command.
  • Aplica en este caso el type uniform.
  • Hay varias opciones para configurar las piezas resultantes.
  • Fíjate como también hay una opción para generar un material para las caras interiores de forma automática.
  • Aquí puedes ver todas las piezas generadas en muy poco tiempo.
  • Voy a seleccionar todas las piezas y escalarlas en negativo un poquito, así puedo crear un pequeño hueco entre ellas y verlas mejor.
  • En este caso en particular, no necesito para nada las caras internas, como tampoco las necesitamos en el caso de Angelique.
  • Simplemente utiliza el material generado automáticamente para seleccionar las caras y borrarlas.
  • Si chequeamos las UVs, comprobarás que están perfectamente. Quizás haya algunas imperfecciones creadas en el proceso de cerrar la geometría, pero simplemente podemos eliminarlas u omitirlas, ya que no vamos a verlas nunca de cara a la cámara.
  • Voy a empezar de nuevo.
  • El uniform type está muy bien porque es muy rápido, pero todas las piezas son muy similares en tamaño.
  • En esta ocasión voy a utilizar el cluster type, que crea piezas mucho mas variadas e uniformes.
  • Ahora tiene mejor aspecto :)
  • Ahora me gustaría crear fragmentos localizados en un area concreta. Digamos que una parte recibe un golpe, o un disparo.
  • Simplemente selecciona el fragmento y aplica otro shatter command.
  • Selecciona todos los fragmentos, y en la pestaña dynamics, desactiva la fuerza de la gravedad.
  • Selecciona el collision set to mesh.
  • He posicionado una esfera justo encima de los fragmentos, y después la he activado como rigid body.
  • Por defecto, le afecta la fuerza de la gravedad, así que cuando empiece la simulación, golpeará los fragmentos creando una animación, o simplemente, reposicionando los fragmento de forma dinámica.
  • Juego con las opciones de collision de los fragmentos para obtener diferentes resultados.
  • En este video se puede ver la sencilla pero efectiva simulación.

  • Este es un clay render donde puede verse la cara terminada. Puedes de forma muy sencilla incrementar al complejidad de este efecto, generando muchas mas piezas con muy poco coste.
  • Finalmente he importado la geometría resultante en Mari como una nueva versión del modelo original. Como puedes comprobar, las texturas originales funcionan a la perfección con la nueva geometría.

Esta es una pequeña introducción a la fotografía HDRI para VFX, si quieres profundizar más en este tema, échale un ojo a mi curso Image Based Lighting 101.

Equipo

  • Mochila Lowepro Vertex 100 AW
  • Mochila Lowepro Flipside Sport 15L AW
  • Full frame digital DSLR (Nikon D800)
  • Fish-eye lente (Nikkor 10.5mm)
  • Lente multi propósito (Nikkor 28-300mm)
  • Mando a distancia
  • Trípode
  • Cabeza panorámica (360 precision Atome or MK2)
  • akromatic kit (grey ball, chrome ball, tripod plates)
  • Mochila Lowepro Nova Sport 35L AW shoulder bag (para el aromatic kit)
  • Macbeth chart
  • Muestras de materiales (plastico, metal, tela, etc)
  • Cinta métrica
  • Cinta aislante
  • Trípode adicional para el akromatic kit
  • Material de limpieza
  • Cuchillo/Tijeras
  • Guantes
  • iPad o laptop
  • Disco duro externo para backups on-set
  • Memory cards
  • Baterías
  • Cables de datos
  • Cámara testigo y/o cámara secundaria para stills (texturas, backplates, etc)

Equipo empaquetado. Trata de mantener volúmenes indivisibles, ordenado y compacto.

Todo tu equipo debería ser accesible de forma rápida.

El equipo más importante es: Reflex digital, fish eye lens, lente multi propósito, trípode, lighting checker, cabeza panorámica.

Shooting checklist

  • Captura 360 de la escena (fish-eye shots)
  • Backplates para look-development (incluido textures para suelo)
  • Macbeth chart para balance de blancos
  • Grey ball para calibrar la iluminación 
  • Chrome ball para orientar la iluminación
  • Medidas de la escena
  • Materiales de ejemplo
  • HDRI individuales de las fuentes de luz artificiales

Lighting checkers, extremadamente importantes para calibrar la iluminación.

Macbeth chart, importante para el balance de blancos.

Antes del shooting

  • Lleva  solo el equipo necesario. Deja cables y otros accesorios en la furgoneta.
  • Haz el setup de cámara, limpia las lentes, formatea las memory cards, etc, antes de empezar el shoot. Ajustes de cámara adicionales se necesitarán hacer en el momento de tomar las fotos, pero trata de hacer ajustes primarios antes de saltar al set. Conoce tu iluminación y ajusta la exposición en base a ello.
  • Ten siempre a mano más de una CF memory card.
  • Ten siempre a mano un kit de limpieza básico.
  • Planea siempre el shoot: Escribe un diagrama con la cantidad de fotos que necesitas, con las exposiciones neutras básicas para las condiciones lumínicas, escribe un checklist de tareas que necesitas hacer, etc.
  • Planta el trípode donde transcurre la acción o donde los assets 3D van a estar colocados.
  • Reduce el area que necesita ser limpiado. Es decir, no coloques nada a tus pies o alrededor del trípode, después tendrás que limpiarlo en Nuke.
  • Cuando hagas fotos para backplates utiliza una wide-lens de al menos 24mm o 28mm y siempre cubre mas espacio del necesario tanto hacia los lados como hacia arriba.
  • Cuando hagas fotos para texturas utiliza siempre una Macbeth chart al principio de cada sesión y tomas unas 3 exposiciones.

Metodología

  • Planta el trípode donde transcurre la acción, estabilízalo y nivélalo.
  • Utiliza siempre enfoque manual
  • Fija el balance de blancos o utiliza un preset, pero siempre el mismo (será corregido posteriormente con la Macbeth chart)
  • Utiliza siempre le mismo ISO
  • Como output utiliza raw+jpg
  • Establece la apertura deseada
  • Lee la iluminación y establece un shutter speed
  • Establece tu exposición neutra
  • Lee el histograma y ajusta la exposición neutra si es necesario
  • Fotografía el slate (nombre de operador, localización, fecha, hora, código del nombre de proyecto, etc) 
  • Activa auto bracketing
  • Realiza de 5 a 7 exposiciones con 3 stops de diferencia cubriendo todo el entorno
  • Coloca el kit de akromatic en la misma posición donde estaba tu trípode y toma al menos 3 exposiciones. Intenta que la mitad de la bola gris este iluminada por el sol y la otra mitad en sombra
  • Coloca la Macbeth chart aproximadamente a 1m del trípode y realiza al menos 3 exposiciones
  • Toma backplates y flat textures del suelo
  • Toma referencias de materiales comunes
  • Anota las medidas de la escena, especialmente importante si vas a recrear un interior
  • Si hay fuentes de iluminación artificial, haz HDRI de cada una de ellas por separado

Panorama HDRI equirectangular.

Punto de partida de exposiciones

  • Dia con sol visible ISO 100 F22
  • Dia con sol oculto ISO 100 F16
  • Nublado ISO 320 F16
  • Amaneces/atardecer ISO 100 F11
  • Interior bien iluminado ISO 320 F16
  • Interior luz ambiente ISO 320 F10
  • Interior poco iluminado ISO 640 F10
  • Interior luz ambiente oscura ISO 640 F8
  • Situación de escasa iluminación ISO 640 F5

Y esto debería ser todo :)

En este post voy a hablar sobre mi metodología a la hora de ensamblar diferentes imágenes o porciones de un entorno para crear imágenes panorámicas destinadas a matte painting. No estoy hablando de panoramas equirectangulares HDRI para 3D lighting, para eso utilizo ptGui que es seguramente la mejor opción disponible.

Me refiero simplemente a juntar imágenes o videos para crear una panorámica lista para utilizar en cualquier software 3D o 2D, no importa si juntamos 2 imágenes o 15, la forma de trabajar es la misma.

Este proceso es mas complicado y requiere mas tiempo humano que utilizar herramientas de stitching automáticas, pero el poder de esta técnica radica en que puede utilizarse con footage (video) y se puede mantener la estructura nodal y no destructiva de Nuke, en caso de actualizaciones o revisiones de las imágenes.

Las imágenes que estoy utilizando en este ejemplo han sido tomadas desde una base rotatoria  nodal, pero no están calibradas ni ajustadas a nada. De hecho, no necesitan estarlo, lo bueno de esta técnica es que se pueden mezclar diferentes puntos nodales, diferentes focales de lente e incluso diferentes tamaños de sensor que vengan de diferentes cámaras.

  • Estoy utilizando 7 imágenes tomadas desde un puente en Chiswick, West London. La resolución de las mismas es de entorno a 7000px así que he creado proxys de unos 3000px para agilizar el trabajo.
  • Todas las imágenes han sido tomadas desde el mismo punto nodal, utilizando la misma lente focal, misma exposición, y siempre con el balance de blancos e ISO bloqueados.
  • Necesitamos conocer diferente información acerca de estas imágenes. Lo mas importante es la focal, y el tamaño del sensor.
  • Conecta un nodo view meta data a cada imagen para leer esta información. En este caso yo he tomado las fotos y ya se todo esto, porque lo he configurado en la cámara. Pero si no estas seguro, esta es la mejor forma de leer los meta datos de la cámara.
  • Puedo ver que la focal es de 280/10 que significa que he utilizado una lente de 28mm.
  • No aparece por ningún lado el tamaño del sensor, pero si aparece el modelo de la cámara, en este caso una Nikon D800. Si busco por internet las especificaciones de la cámara puedo ver que el tamaño del sensor es 35.9mm x 24mm.
  • Crea un nodo camera con la información del sensor y el focal.
  • En este punto es buena idea corregir la distorsión de lente de las imágenes. Lo ideal, especialmente si estas utilizando footage, es corregir la distorsión de lente utilizando un nodo lens distortion en Nuke, pero para ello has de haber filmado una carta de distorsión de lente en el set.
  • En este caso, como estoy utilizando fotografías, voy a utilizar el modulo de corrección de lente de Adobe Bridge.
  • Conecta un nodo card a la imagen, y elimina las subdivisiones, que no las necesitamos.
  • También desactiva la opción image aspect, para tener una card format 1:1
  • Connecta un nodo transfer geo al card, y su input axis a la cámara.
  • Si movemos la cámara, el card depende de la misma.
  • Ahora vamos a crear un custom parameter para que la card y la cámara estén siempre alineadas, con la focal correcta y el tamaño de sensor. Así cuando toquemos la cámara, el card se alineará de forma automática.
  • En las opciones del nodo transform geo, RMB y seleccionar la opción manage user knobs, y añadir floating point slider. Llamalo distance, y pon el min a 0 y el max a 10
  • Esto nos permitirá ajustar automáticamente el card en relación a la cámara.
  • En el nodo transfrom geo translate z presiona la tecla = para escribir una expresión y escribe: -distance
  • Ahora si jugamos con el valor distance, vemos que la card se mueve acorde.
  • Ahora tenemos que referirnos al tamaño del sensor y al focal para que el card se ajuste de forma automática y correcta cuando la cámara se mueva o se rote.
  • En el nodo transform geo, vete a x scale y escribe la siguiente expresion: (input1.haperture/input1.focal)*distance y en la y scale escribe: (input1.vaperture/input1.focal)*distance
  • Si tocamos el parámetro distance, ahora vemos como el card se alinea a la perfección.
  • Crea un grupo con el card, la cámara y el nodo transfer geo.
  • Elimina el input2 e input3 y conecta el input1 al card en lugar de a la cámara.
  • Sal del grupo y conéctalo a la imagen. Normalmente hay problemas de refresco, así que corta el grupo y pégalo, eso hará que se resuelvan los problemas.
  • En el grupo, RMB y vete a manage knobs, selecciona el focal y el tamaño de sensor. Esto es solo para tener la información visual, no vamos a cambiarlo.
  • También selecciona la rotación de la cámara, y el parámetro distance que creamos anteriormente.
  • Teniendo estos controles aquí no necesitaremos entrar al grupo cada vez que necesitemos tocarlos, y en el caso de la rotación y la distancia, los tocaremos mucho.
  • Crea un nodo project 3D y conecta el input camera a la cámara, y el input1 al input.
  • Crea un nodo switch debajo del transfer geo y conecta el input1 al project 3D.
  • Crea otro custom parameter en el grupo. En este caso utiliza pulldown choice, y llámalo mode. Añade dos lineas: card y project 3D.

En el nodo switch añade una expresion: parent.mode

  • Deja el modo como project 3D.
  • Añade un nodo sphere, escálalo grande y conéctalo al camera projector.
  • Verás la imagen proyectada en 3D en la esfera, en lugar de renderizarse en el card.

Dependiendo de cual sea tu pipeline, puedes querer utilizar projector 3D o cards. Seguramente en algún momento necesites los dos, así que de esta forma puedes tener un control para mutar entre ambos.
De momento, déjalo como card y elimina la esfera.

  • Mira a través de la cámara en el viewport y fija la vista (lock).
  • De esta forma podemos hacer zoom sin perder la cámara.
  • Fija la linea de horizonte jugando con la rótacion de la cámara.
  • Copia y pega el grupo camera projection, conéctalo a la segunda imagen y establece la linea  de horizonte, siguiendo los mismos pasos que con la imagen anterior.
  • Crea un nodo scene y añade las dos imágenes. Asegúrate de que todas las imágenes tienen canal alpha completamente blanco. Puedes utilizar la opción auto alpha.
  • Mira a través de la camara de la primera imagen, lock it. Haz zoom out y empieza a jugar con la rotación y la distancia de la segunda imagen, hasta que queden perfectamente alineadas.
  • Repite el proceso con todas la imágenes. Simplemente haz lo mismo que con las dos primeras imágenes. Mira a través de la cámara anterior, fíjala, zoom out y juega con la distancia y rotación de la siguiente imagen hasta que estén alineadas.
  • Crea un nodo de camera y llámalo shot camera.
  • Crea un nodo scanline render.
  • Crea un reformat node y pon el formato de tu plano. En este caso estoy utilizando un super 35, es decir, 1920x817
  • Conecta el obj/scene del scanline render al nodo scene.
  • Conecta el input camera del scanline render al shot camera.
  • Conecta el reformat al bg input del scanline render.
  • Mira a través del scanline render en el espacio 2D y verás el panorama a través del shot camera.
  • Juega con la rotación de la cámara para posicionar el panorama donde lo necesites.

Si solo necesitas ver el panorama a través del shot camera, ya estaría. Pero digamos que también quieres proyectarlo en un espacio 3D.

  • Crea otro scanline render node y cambia la proyección a spherical. Conéctalo a la escena.
  • Crea un nodo reformat y escribe un formato equirectangular, en mi caso estoy utilizando 4000x2000
  • Crea un nodo sphere y conéctalo al scanline render con formato spherical. Pon un mirror node en el medio para invertir las normales de la esfera, ya que la estamos viendo desde su interior.
  • Crea otro scanline render y conecta su input camera al shot camera.
  • Conecta el bg del scanline render al reformat super35.
  • Conecta el scn/obj del scanline render al sphere node.
  • Ya está, esto es todo lo que necesitas.
  • Si miras a través del scanline render en el espacio 2D o 3D verás que tenemos el panorama proyectado en 3D y renderizado a traves de shot camera.

Puedes descargarte la escena de ejemplo aquí.

Posted
AuthorXuan Prada