Използване на „Z to world” инструмент

Безплатни 20 урока
регистрирай се и научи

Ако сте вече потребител - Регистриран съм
Видео
В предишният урок видяхме, как може да използваме един по-специфичен пас, който може да вземем от 3D рендера в 3D програмата, която ползваме.
Но понеже не винаги се изваждат този тип информация за пикселите, във "Fusion" има още един инструмент.
Нека да отворя първо биновете.
Този инструмент се нарича "Z to worldpos".
Това означава, че бихме могли да използваме "Zdepth" информация от рендера, или карта с дълбочината на пикселите спрямо камерата.
За да извлечем по някакъв начин информация за тяхната позиция в самото пространство.
Повечето хора изваждат "z depth" пас от рендера, така че този инструмент е доста удобен в тези случаи.
Нека да го заредя.
Ще затворя този прозорец.
Това, което направихме е от предишният урок, за момента няма да го изтривам.
Това, което виждаме при "Z to worldpos" е следните няколко опции: първо имаме опцията "Z to worldpos" или това означава, че на базата на "z" карта или "z-pass", ще извлечем позицията на пикселите в света и в 3D пространството.
Съответно имаме и обратната опция да използваме "world position", за да извлечем "z" информация или да извлечем дълбочината на пикселите спрямо камерата.
Както забелязвате обаче имаме и опцията камера, когато това ни подсказва, че ще трябва да добавим и някаква камера.
Нека първо заредя едно ново изображение.
Ще взема "ZDepth".
Този "ZDepth" е просто черно-бяла маска, каято добре познаваме.
Тя носи информация за позицията на пикселите, спрямо камерата.
Колкото са по-светли, толкова по-близо до камерата.
Колкото са по-тъмни, толкова по-далече са от камерата.
Ще свържа този "ZDepth" пас в оранжевото триъгълниче или в "image input".
Но ще видим, че в зеленото триъгълниче пише 3D камера.
В случая бихме могли да вкараме оригиналната камера от 3D програмата, но това не е задължително.
Просто можем да създадем една камера, ще натисна "ctrl+space" и ще напиша камера 3D.
В случая аз работя със статично изображение, но ако използваме вече секвенция от картинки ще бъде полезно да вкараме и реалната 3D камера.
Която да повтори абсолютно движението на камерата от 3D.
По този начин ще имаме перфектни 3D обемни маски.
Ако може така да се каже.
Сега направихме тази 3D камера, която просто може да стои в пространството.
Няма значение точно къде ще бъде и ще я свържа в зеленото квадратче.
Ако погледнем този инструмент ще видим, че в момента "z to world pos" ни показва това червено кръгче.
То показва, че нещо не успява да сметне.
Това е така, защото реално този инструмент иска да използва "depth" информация или "depth" канал.
Докато ние в това изображение имаме само "rgb" информация Това, което трябва да направим е да добавим един "channel boolean" отново.
Нека го свържем, ще задържа "shift" ще дойда в "aux channels", ще избера "enable extra channels" и това, което ще искам да направя е просто някои от каналите, без значение дали ще бъде червеният зеленият или синият, защото те са идентични.
Ще искам просто да влезе в "z buffer".
Ще избера просто "red foreground" в този случай.
Може да погледнем, какво се случва в "channel boolean" и ще видим, че имаме "depth", вече имаме дълбочината, която ще е пренесена.
Ще влезем в "color" и ако погледнем "z to worldpos", ще видим, че нямаме червена точка.
Можем да изберем камерата "camera3D1".
И ще видим, че вече имаме допълнителни канали, в случая "positions".
Ако погледнем информацията ще видим, отново една цветна картинка.
Не е задължително да бъде същата, която ще излезе от 3D програмата.
Но определено имаме позициите по "x,y,z".
След като имаме тази информация за позицията на пикселите, в 3D пространството.
Дори да е някаква псевдо информация, ние можем да използваме с "volume" маската.
Това, което можем да направим нека откача тази връзка и ще завържа тази информация в оранжевото триъгълниче.
Ако погледнем, ще трябва да променим маската, защото тя носи друг вид информация.
И ще видим, че отново имаме възможността да селектираме някакъв определен обем от изображението или определени части от изображението на базата на 3D позицията на пикселите в пространството.
Може да дойдем, да видиме "brightness/ contrast", който ще прави отново корекцията, която сме избрали.
Разликата просто в този случай е, че използваме "z depth" информацията и я преобръщаме в "world position" информация.
A не ползваме от рендера директно "world position" паса.