Esta es una pequeña introducción a la fotografía HDRI para VFX, si quieres profundizar más en este tema, échale un ojo a mi curso Image Based Lighting 101.
Equipo
- Mochila Lowepro Vertex 100 AW
- Mochila Lowepro Flipside Sport 15L AW
- Full frame digital DSLR (Nikon D800)
- Fish-eye lente (Nikkor 10.5mm)
- Lente multi propósito (Nikkor 28-300mm)
- Mando a distancia
- Trípode
- Cabeza panorámica (360 precision Atome or MK2)
- akromatic kit (grey ball, chrome ball, tripod plates)
- Mochila Lowepro Nova Sport 35L AW shoulder bag (para el aromatic kit)
- Macbeth chart
- Muestras de materiales (plastico, metal, tela, etc)
- Cinta métrica
- Cinta aislante
- Trípode adicional para el akromatic kit
- Material de limpieza
- Cuchillo/Tijeras
- Guantes
- iPad o laptop
- Disco duro externo para backups on-set
- Memory cards
- Baterías
- Cables de datos
- Cámara testigo y/o cámara secundaria para stills (texturas, backplates, etc)
Shooting checklist
- Captura 360 de la escena (fish-eye shots)
- Backplates para look-development (incluido textures para suelo)
- Macbeth chart para balance de blancos
- Grey ball para calibrar la iluminación
- Chrome ball para orientar la iluminación
- Medidas de la escena
- Materiales de ejemplo
- HDRI individuales de las fuentes de luz artificiales
Antes del shooting
- Lleva solo el equipo necesario. Deja cables y otros accesorios en la furgoneta.
- Haz el setup de cámara, limpia las lentes, formatea las memory cards, etc, antes de empezar el shoot. Ajustes de cámara adicionales se necesitarán hacer en el momento de tomar las fotos, pero trata de hacer ajustes primarios antes de saltar al set. Conoce tu iluminación y ajusta la exposición en base a ello.
- Ten siempre a mano más de una CF memory card.
- Ten siempre a mano un kit de limpieza básico.
- Planea siempre el shoot: Escribe un diagrama con la cantidad de fotos que necesitas, con las exposiciones neutras básicas para las condiciones lumínicas, escribe un checklist de tareas que necesitas hacer, etc.
- Planta el trípode donde transcurre la acción o donde los assets 3D van a estar colocados.
- Reduce el area que necesita ser limpiado. Es decir, no coloques nada a tus pies o alrededor del trípode, después tendrás que limpiarlo en Nuke.
- Cuando hagas fotos para backplates utiliza una wide-lens de al menos 24mm o 28mm y siempre cubre mas espacio del necesario tanto hacia los lados como hacia arriba.
- Cuando hagas fotos para texturas utiliza siempre una Macbeth chart al principio de cada sesión y tomas unas 3 exposiciones.
Metodología
- Planta el trípode donde transcurre la acción, estabilízalo y nivélalo.
- Utiliza siempre enfoque manual
- Fija el balance de blancos o utiliza un preset, pero siempre el mismo (será corregido posteriormente con la Macbeth chart)
- Utiliza siempre le mismo ISO
- Como output utiliza raw+jpg
- Establece la apertura deseada
- Lee la iluminación y establece un shutter speed
- Establece tu exposición neutra
- Lee el histograma y ajusta la exposición neutra si es necesario
- Fotografía el slate (nombre de operador, localización, fecha, hora, código del nombre de proyecto, etc)
- Activa auto bracketing
- Realiza de 5 a 7 exposiciones con 3 stops de diferencia cubriendo todo el entorno
- Coloca el kit de akromatic en la misma posición donde estaba tu trípode y toma al menos 3 exposiciones. Intenta que la mitad de la bola gris este iluminada por el sol y la otra mitad en sombra
- Coloca la Macbeth chart aproximadamente a 1m del trípode y realiza al menos 3 exposiciones
- Toma backplates y flat textures del suelo
- Toma referencias de materiales comunes
- Anota las medidas de la escena, especialmente importante si vas a recrear un interior
- Si hay fuentes de iluminación artificial, haz HDRI de cada una de ellas por separado
Punto de partida de exposiciones
- Dia con sol visible ISO 100 F22
- Dia con sol oculto ISO 100 F16
- Nublado ISO 320 F16
- Amaneces/atardecer ISO 100 F11
- Interior bien iluminado ISO 320 F16
- Interior luz ambiente ISO 320 F10
- Interior poco iluminado ISO 640 F10
- Interior luz ambiente oscura ISO 640 F8
- Situación de escasa iluminación ISO 640 F5
Y esto debería ser todo :)
Isotropix Clarisse es una "nueva herramienta" (presentada en Siggraph 2012) que básicamente y para resumirlo mucho, actúa como scene assembler. Es decir, no es un software 3D al uso, si no que has de crear tus assets, cámaras, animaciones, etc, en cualquier software 3D, y después exportar todo a Clarisse (mediante alembic preferiblemente), para una vez allí, trabajar el Look-Dev, Lighting y Render de tus planos y secuencias.
Clarisse es un poderosísimo ray-tracer, donde todo funciona en tiempo real. Esto es muy importante para el artista, ya que no es necesario esperar para visualizar los cambios de shading y lighting. Además Clarisse es muy rápido y estable, incluso utilizando escenas muy complejas, tanto a nivel de geomteria, como a nivel de shading, lighting y efectos de post-proceso como motion blur, dof, etc.
El estudio donde trabajo, lleva utilizando Clarisse algún tiempo. Ya lo utilizamos de forma discreta en Godzilla, y ahora lo estamos utilizando de forma muy extensa en Exodus. No hace mucho Double Negative ha anunciado que Clarisse será su herramienta primaria para Look-Dev y Lighting, así que creo que es un buen momento para empezar a hablar de esta herramienta en el blog.
Mi experiencia con Clarisse es de unos 9 meses más o menos trabajando en Exodus, y aunque no soy un experto ni mucho menos, creo que ya me defiendo bastante bien.
Hoy, voy a contaros uno de los básicos de cualquier software 3D cuando trabajamos en proyectos de VFX, Image Based Lighting.
- Empezamos por crear un nuevo context dentro de la escena. En este caso lo he llamado ibl.
- El siguiente paso es crear un esfera que actuará como soporte para nuestro HDRI.
- La esfera la sitúo dentro del context ibl, para que todo esté bien organizado.
- He aumentado el radio de la esfera considerablemente, ya que éste será nuestro "mundo" donde meteremos todos los assets del plano.
- En la pestaña image view podemos ver el render en tiempo real. Ahora mismo simplemente tenemos la esfera iluminada por la luz que viene por defecto. Podemos eliminar esta luz.
- Creamos un nuevo material matte al que no le afecta la iluminación.
- Lo asignamos a la esfera.
- Una vez asignado el material, la esfera se ve completamente negra.
- Creamos una imagen para poder cargar la textura HDRI.
- Conectamos la textura al color input del matte shader.
- Seleccionamos la imagen HDRI en el path de la textura.
- Cambiamos el tipo de proyección a Parametric.
- Los mapas HDRI son texturas 32bits codificadas en un espacio de color linear, así que tenemos que indicar en las opciones de la textura que estamos utilizando ese espacio de color.
- He creado dos esferas que me servirán para chequear mi iluminación. Presionando la tecla "f" puedo centrarlas en pantalla.
- También he creado un plano para chequear las sombras y dos materiales standard, uno para cada esfera. Uno será gris matte y otro será un material cromado, para simular lighting checkers.
- De vuelta en la ventana de render, podemos ver como las esferas están afectadas por el entorno HDRI.
- De momento, solo los secondary rays, como las reflexiones, están siendo afectados.
- Para que la iluminación funcione como tal, tenemos que crear un tipo de luz llamada "gi_monte_carlo".
- Así de primeras tendremos mucho ruido en la escena, básicamente esto ocurre porque los mapas HDRI tienen demasiado detalle en forma de valores de color/exposición.
- Para solucionarlo, podemos cambiar el tipo de interpolación de la textura a Mipmapping.
- Para seguir limpiando el ruido de la escena, también podemos aumentar la calidad de sampling de la luz gi_monte_carlo".
- El ruido de la escena también depende de la cantidad de Anti Aliasing Samples del raytracer de la escena.
- Para limpiar el ruido, en general hay que combinar los samples de las luces con los samples del raytracer. Un sampling de 8 aproximadamente para el raytracer es un valor adecuado para producción, y las luces pueden ser de 12 smaples aproximadamente. Todo depende de las necesidades de la escena.
- Existe otra opción mas barata, alternativa a utilizar GI.
- Elimina la luz "gi_monte_carlo".
- Crea una luz "ambient_occlusion".
- En su color input, conecta la textura HDRI.
- Verás que el render en principio, sale negro, excepto los secondary rays.
- Selecciona la esfera que hace de entorno y desactiva la opción "cast shadows".
- Todo funcionará correctamente.
- En este caso para limpiar el ruido deberás aumentar los samples del ambient occlusion.
Recientemente nos encontramos con la necesidad de iluminar un personaje muy reflectivo (o reflectante) en un entorno cuya iluminación cambiaba constantemente.
El personaje sería creado completamente en 3D pero por supuesto habría que integrarlo en un footage dado, donde las fuentes lumínicas (prácticas, es decir, reales), cambiarían de intensidad y temperatura de forma rápida.
Además estamos hablando de un plano secuencia muy largo, sin cortes, donde el personaje se ve afectado por el entorno de forma ininterrumpida.
En esta situación, esta claro que un HDRI equirectangular convencional, no sería suficiente para integrar el personaje, ya que los constantes cambios de iluminación no se registrarían en el mapa panorámico.
Spheron
La primera solución real, y probablemente la mejor y más adecuada es utilizar un Spheron. Por supuesto si consigues comprarlo o alquilarlo a tiempo, cosa que se presenta cada vez más difícil.
Descartada la opción del Spheron, lo siguiente era realizar diferentes HDRI equirectangulares, uno para cada condición lumínica diferente y animar las transiciones entre ellos a medida que el personaje se mueve por el set.
En algunas ocasiones esto funcionaba bien, pero en otras, especialmente cuando había elementos que parpadeaban, luces que cambiaban de color rápidamente, etc, múltiples HDRI no eran suficiente.
Lo que realmente necesitábamos eran HDRI animados en tiempo real, es decir, recogidos mediante video .RAW y diferentes exposiciones en el set de rodaje.
Método convencional
La solución parecía más o menos clara, montar 3 reflex digitales de las que normalmente utilizamos (Canon 5D Mark III o Nikon D800) en un soporte creado por nosotros mismos que calculase el overlapping de las cámaras (entorno al 33%), cada una de ellas con lentes ojo de pez.
De esta forma podríamos registrar la información lumínica del set en tiempo real, simplemente grabando video.
Pero claro, ni la Canon 5D Mark III ni la Nikon D800 graban en formato .RAW, todas graban comprimiendo, aplicando un espacio de color, y por supuesto, ninguna graba video con multiexposiciones.
Red Epic
Por descarte, llegamos a la conclusión que lo que necesitábamos era el mismo setup de las reflex digitales, pero utilizando cámaras Red Epic. Lo malo de esta idea, es que tres cámaras Epic más tres lentes ojo de pez, es un setup muy caro para trabajo survey de set de rodaje, además que montar todo eso en un soporte creado por nosotros, montado a su vez en un steady cam, es algo muy pesado para poder caminar por un set enorme.
Finalmente dimos con la tecla, y la solución salio por si sola.
Todos sabemos que los HDRI para iluminación no necesitan ser perfectos, de hecho, nunca lo son, necesitan ser funcionales. Así que no nos importaría tener un poco de distorsion en nuestros HDRI con tal de abaratar el setup y facilitar la experiencia de recogida de información.
De esta forma, utilizamos una sola cámara Red Epic, con un objetivo 18mm.
La montamos en un soporte creado por nosotros mismos, en cuyo extremo opuesto colocamos una bola cromada de akromatic, de 25cm de diámetro.
Esta bola permite recoger mas de los 180 grados que recogería un ojo de pez, de hecho recoge alrededor de 220 - 240 grados.
Como sabéis, la Red Epic permite grabar video en .RAW y recoger multiexposiciones simultáneamente. Grabamos 5 exposiciones diferentes a 4k para recoger la información lumínica.
Posteriormente transformamos el video en Nuke para convertirlo en un panorama equirectangular animado.
Finalmente combinamos todas las exposiciones y voilá, ya teníamos nuestro HDRI equirectangular animado para iluminar nuestro personaje.
Esto nos permitió iluminar el personaje de forma rapidísima, con resultados muy buenos y precisos, y con unos tiempos de render prácticamente ridículos.
Utilizando luces 3D jamás hubiésemos conseguido la misma precisión, ni la misma calidad en los reflejos, y muchísimo menos, los mismos tiempos de render.
De momento no puedo mostraros nada de esto, pero si quiero contaros otras pruebas que hicimos y que creo pueden ser muy interesantes.
GoPro
Durante este proceso que he descrito anteriormente, tuvimos que hacer varias pruebas en el set, en diferentes localizaciones, algunas de ellas de difícil acceso para una persona de 1.85cm
Tuvimos unos días para realizar las pruebas, cuando se estaba construyendo el set, y por aquel entonces aun no disponíamos del equipo necesario, pero queríamos empezar a realizar pruebas y enviar el material al estudio, para que se empezaran a organizar con todo lo relacionado con el método de trabajo.
Decidí hacer los tests con una GoPro Hero3 Black Edition.
La cámara es muy pequeña, ligera y manejable. Por supuesto no graba .RAW, pero se le puede aplicar un perfil de color flat, para que no haga un bake del espacio de color que utiliza la cámara.
Graba en 4K y tiene control manual sobre el balance de blancos. Para nuestros tests, era la herramienta perfecta.
La montamos en una base de akromatic, utilizando un soporte de Joby, y en el otro extremo de la base colocamos una bola cromada de akromatic de 25cm.
En cuanto a la postproducción para generar los mapas panorámicos equirectangulares, seguimos el mismo método que teníamos pensado para la Red Epic, creando así templates en Nuke para agilizar el trabajo.
Digamos que esto era una simulación del trabajo final, pero que nos sirvió para darnos cuenta de que todo iba a funcionar bien.
Incluso hicimos pruebas de render, y todo parecía funcionar a la perfección. Obviamente aquí no estamos generando true HDRI, ya que no grabamos multiexposiciones como si haríamos con la Red Epic, pero como pruebas que eran, no se podía pedir mas.
No sería una opción descabellada para proyectos indies o de bajo presupuesto.
Footage original capturado con GoPro + akromatic kit
En este caso, mi presencia en el centro de la bola no ayuda demasiado, aunque las fuentes lumínicas en esta ocasión son cenitales y tampoco perjudica demasiado. De todas formas con la utilización de un steady cam solucionamos este problema, al menos, lo redujimos considerablemente.
Nuke
El trabajo en Nuke es muy simple, basta con hacer un spherical transform del footage.
Para las distorsiones laterales se puede pintar con rotopain y tratar de corregirlas, pero en general no son un problema.
Resultado final utilizando las imagenes de GoPro
GoPro + akromatic kit
Recientemente he estado pensando mucho sobre el uso que le damos a los mapas HDRI en los entornos de producción de efectos visuales.
Para que se me entienda, me refiero a mapas HDRI panorámicos con proyecciones equirectangulares. Ya que como sabéis utilizamos otro tipo de mapas HDRI para multitud de usos.
Hablo concretamente de los mapas HDRI que utilizamos para la iluminación de planos en los que hay un footage rodado en un set y hay que integrar un asset generado por ordenador, sea de la naturaleza que sea.
La utilización de mapas HDRI equirectangulares para esta tarea es algo que está implementado en todo pipeline de iluminación de cualquier estudio de efectos visuales. Lleva siendo la técnica estándar durante varios años, y es probablemente el primer paso que se toma cuando se inicia la iluminación del primer plano de una secuencia.
Las razone son obvias.
- Los HDRI nos dan una representación digital de la iluminación muy precisa. Guardan muchísima información lumínica recogida en un set de rodaje que puede ser utilizada para recrear dicha iluminación con una precisión altísima.
- Es muy sencillo y extremadamente rápido realizar HDRIs en un set. Apenas necesitas un par de minutos.
- Es muy fácil, rápido y eficaz gestionar los HDRI en un software 3D para reproducir con alta fidelidad la iluminación del set. Aunque hay diferentes técnicas, todas ellas en conjunto con los modernos motores de render, nos dan unos resultandos fantásticos.
- Solo necesitamos buenas referencias de iluminación para ajustar nuestro HDRI. Con una esfera gris neutra para ajustar la dirección de la luz, una esfera cromada para ajustar los reflejos y una carta de color para ajustar el balance de blancos, tenemos suficientes datos para replicar digitalmente la iluminación con muchísima precisión.
Estas son algunas de las virtudes de los HDRI para iluminación en proyectos de efectos visuales. No está nada mal.
Pero, una vez tengo mis HDRI ¿ya está? Todo está perfecto, simplemente lanzo el render?
No es tan sencillo.
Pensando mucho sobre el tema, llego a la conclusión, de que un panorama equirectangular, tiene una proyección esférica. Está mapeado digamos a una bola que hace de mundo. Esto puede resultar apropiado para planos de exteriores, donde nuestros HDRI serán cielo y tierra básicamente. Puede que haya todo tipo de objetos en el entorno, pero lo mas importante serán esos dos elementos.
Ahora bien, ¿qué ocurre cuando hablamos de interiores? Siempre utilizaremos un panorama equirectangular, pero seguramente necesitemos cambiar el tipo de proyección. Si por ejemplo estamos iluminando una habitación, seguramente una proyección esférica no funcionará bien, y una proyección cúbica sea mas apropiada, por aquello de cuatro paredes, techo y suelo.
¿Se puede utilizar una proyección esférica? Si se puede, y en muchas ocasiones funcionará bien, pero una proyección cúbica se adaptará mejora al tipo de entorno que quieres reproducir.
Precisión absoluta
Pensando en entornos más complejos, con objetos a medio camino entre la estructura del entorno y los actores/assets digitales, un simple mapa HDRI proyectado de forma esférica o cúbica, no nos da la precisión en la iluminación que necesitamos.
Para entenderlo mejor, cuando mapeas un HDRI a una esfera o un cubo, todos los rayos provienen de la misa distancia. Si por ejemplo tenemos a un personaje que se mueve por el entorno, debería de estar más iluminado cuando pasa cerca de una luz, o debería de reflejar más un objeto cuando pasa cerca de este que cuando está en la otra punta de la habitación.
Este tipo de información tan precisa no nos la da un HDRI proyectado mediante técnicas convencionales.
Para solucionarlo, se me ocurre básicamente generar el set de forma digital mediante técnicas de escaneo 3D o photogrametría.
Al mismo tiempo generar varios HDRI equirectangulares desde diferentes puntos del entorno, y cubrir todos y cada uno de los puntos del entorno con fotografías HDRI realizadas con los mismos ajustes de exposición que los panoramas, salvo que utilizando lentes convencionales, como 20mm por ejemplo.
Tomar todas las referencias necesarias en el set, sobretodo bolas y cartas de color, medidas, y posición del trípode en todo momento.
Una vez terminado el trabajo en set, podemos procesar el scann del entorno, hacerlo poligonal y crear UV Mapping de alta resolución o trabajar con Ptex.
Con la geometría generada, pasamos a procesar todo el material fotográfico, unificar su exposición y balance de blancos, corregir las distorsiones de lente, etc.
Una vez procesadas las fotografías y la geometría, importamos todo en Mari. Gracias a environment -> sphere map projector, podemos proyectar los mapas HDRI equirectangulares en la geometría, y controlar la posición en tiempo real.
Para este paso, es importantísimo tener anotadas las posiciones del trípode en el momento de la realización de los panoramas.
Cuando tengamos los HDRi proyectados más o menos en la geometría, el siguiente paso seria proyectar las fotografías HDR tomadas con el objetivo 20mm para cubrir aquellas partes de la geometría que no hayan sido capturadas en el HDRI panorámico. Como por ejemplo las caras traseras de objetos que miraban en dirección opuesta a la cámara.
Una vez nuestro set este completamente cubierto por fotografías HDR, simplemente tenemos que exportarlas como texturas floating point. De esta forma tendremos texturas de 32bit con todo el rango dinámico necesario para iluminar los assets que situemos en el entorno, y además, con total precisión, ya que cada pixel de las textura viene desde la posición exacta en el espacio que ocupaba en el set de rodaje.
Si todo se hace bien, manteniendo la continuidad entre imágenes y no perdiendo en ningún momento el rango dinámico, obtendremos una precisión absoluta en la iluminación.
Genial, ya tenemos las condiciones lumínicas idénticas, trabajo terminado.
¡No! Este es uno de los problemas de iluminación HDRI. Muchos artistas piensan que una vez hemos reproducido las condiciones lumínicas del set, nuestra iluminación ya es perfecta. Teóricamente si, pero no nos olvidemos de una cosa, la iluminación en cine no es una reproducción física de la realidad, si no que iluminamos siguiendo unos conceptos establecidos, que llamamos iluminación cinematográfica.
¿Qué quiere decir esto? Básicamente que no iluminamos para que nuestras creaciones sean físicamente correctas, si no para que se vean bonitas en pantalla. Para ello utilizamos un montón de trucos, que se llevan utilizando desde que el cine se inventó como instrumento narrativo.
Dicho esto, hacer un match del plate mediante tecnicas HDRI es solo el principio.
También hay que tener en cuenta el trabajo de iluminación práctica en set. En muchas ocasiones el cinematógrafo de turno (y me atreveré a decir que la persona más respetada en un set de rodaje, incluso por encima del director) realiza un millón de trucos de iluminación cinematográfica que no se verían reflejados en los HDRI. Como por ejemplo iluminación negativa con placas negras, crear espacios negativos enormes cubriendo las paredes de una habitación off-camera para un determinado plano, luces direccionales intercambiables, etc.
Todos esos extras, generalmente no son recogidos por los HDRI, así que en muchas ocasiones nuestros mapas equirectangulares no serán 100% fieles a la iluminación del set.
En otras ocasiones incluso vamos mas allá, como por ejemplo cuando fotografiamos los HDRI en diferentes días que el rodaje, cuando parte del set ya no existe, etc.
Sirva esto para ilustrar algunas de las carencias de los HDRI.
Así que como estaba diciendo, hacer un buen setup de HDRI solo es el principio.
En muchas ocasiones tendremos que trabajar la iluminación CG para recrear iluminación cinemática, utilizando las técnicas que precisemos.
Algunos artistas prefieren empezar con un todo (HDRI) e ir quitando iluminación a medida que lo necesiten. Otros en cambio, prefieren empezar con la nada, e ir añadiendo todo aquello que precisen.
Luces directas, áreas, espacios negativos, rim lights, lo que sea necesario para crear un lenguaje visual basado en las leyes cinematográficas a las que estamos acostumbrados.
Los planos no serán físicamente correctos en relación al footage, pero en cine nada es real. Cine es precisamente eso, engañar al ojo humano.
Si nos conformamos en crear un plano realista, tendremos una fotografía perfecta, pero no estaremos contando ninguna historia. La iluminacion cinematográfica será la meta que tengamos que alcanzar para apoyar narrativamente a la acción.
De todas formas, los HDRI siempre serán un seguro de vida, si la iluminación cinematográfica falla, o no hay tiempo de crearla o lo que sea, siempre tendremos los HDRI que nos darán una base muy consistente.
En ocasiones puede que necesites arreglar el "nadir" de los panoramas que utilices para 3D lighting y look-development.
Es muy común que según el tipo de objetivo y cabeza panorámica que utilices para fotografiar panoramas, ésta y parte del trípode aparezcan en las fotos del suelo (nadir). Sobre todo si utilizas cabezas panorámicas del tipo de las Nodal Ninja.
Cuando esto me ocurre, suelo utilizar software específicos para trabajar con panoramas para VFX, como PtGui, pero si por cualquier razón no dispones de PtGui, la forma mas fácil de arreglar el "nadir" es en Nuke.
Esta situación es muy común cuando trabajas en un gran estudio de VFX. Las personas encargadas de hacer el "stitching" del panorama, puede que estén muy ocupadas, y te pasen el panorama sin pararse a limpiar pequeños (o grandes) defectos.
Tu, como lighting artist o look-development artist, es muy probable que no tengas instalado PtGui en tu equipo, así que en ese momento Nuke se convertirá en tu mejor amigo para esta tarea.
Este es un ejemplo donde ilustro este problema.
Esta imagen es un "bracket" de uno de los ángulos que forman parte del panorama. Como puedes ver, hice las fotos de forma remota utilizando un ordenador portátil. Lo malo es que éste se ve demasiado en la imagen, cubriendo parte del suelo.
Cuando hice el "stitching" del panorama, estaba demasiado presente en la imagen, convirtiéndose en un problema. Este efecto es mucho más evidente cuando utilizas una cabeza panorámica del tipo Nodal Ninja, ya que el trípode y la propia cabeza se extienden a lo largo de todo el panorama, haciendo muy difícil la tarea de limpiarlo.
La imagen es un "preview" del panorama, así que perdona por la mala calidad de la imagen :)
Esta es la solución que yo utilizo para arreglar este tipo de artefactos o distorsiones utilizando Nuke.
Para el ejemplo he utilizado un panorama de alta resolución que puedes descargar de forma gratuita en akromatic.com
- Antes de nada importa tu panorama equirectangular en Nuke, y visualízalo en el espacio de color que estés trabajando.
- Utiliza un nodo spherical transform para ver el panorama como una bola cromada.
- Para ello, cambia el input type a "Lat Long map" y el output type a "Mirror Ball".
- En esta imagen puedes ver como el panorama se vería en el software 3D. Si necesitas eliminar algo del suelo, añadir algún tipo de información, mejor hacerlo ahora que antes de renderizar en 3D.
- Utiliza otro nodo spherical transform pero en esta ocasión cambia el output type a "Cube" y cambia el parametro "rx" a -90 para que podamos ver la porción del cubo donde esta mapeado el suelo.
- Utiliza un nodo roto paint para eliminar o clonar lo que necesites.
- Necesitas otro nodo spherical transform, cambia el input type a "Cube" y el output type a "Lat Long map".
- Te darás cuenta de que el nodo pasa a tener 5 inputs.
- Estoy utilizando colores constantes para ver exactamente que input corresponde a cada parte del panorama.
- El nadir debería de estar conectado al input -Y
- El output format de este nodo debería ser la resolución final del panorama.
- He reemplazado cada color, por un color negro puro.
- Cada uno de esos colores debería de tener canal alpha.
- Este es el resultado. El nadir que habíamos pintado en plano ahora esta proyectado a lo largo del panorama.
- Chequea el canal alpha.
- Utiliza un nodo merge para combinar el nuevo nadir con el panorama original.
- Ya está, si quieres puedes utilizar otro nodo spherical transform para chequear de nuevo el panorama, comprobar que no haya artefactos o distorsiones en el suelo antes de llevártelo a un software 3D.