Jak można pokazać przyszłość bez zbytniego dłubania w CGI i nie posiadając green screena? Spore wyzwanie dla tych, którzy nie chcą się przepracować. A ja niestety tym razem musiałem.
To był kwietniowy temat. Niemal automatycznie przychodzi do głowy Blade Runner, Total Recall czy coś w tym stylu. Mi jeszcze doszło Dynamo Dream, bo siedzę w Blenderze i jestem w miarę na bieżąco.
Pomysłów miałem sporo, ale wszystkie albo wykraczały poza wymagany czas 2 minut, albo były bezsensownymi scenkami łączącymi film i rendering 3D, albo elementy 3D przekraczały moje umiejętności i moc mojego komputera. Potrzebowałem czegoś bardziej bazującego na pomyśle niż wyglądzie.
Przyznaję się bez bicia, że podrzucone przez znajomych filmy Metropolis i Podróż na księżyc, jako inspiracje, wciąż czekają na obejrzenie.
Lądowały tam jeden za drugim. Do jednego nakręciłem z Moniką kilka testowych ujęć. Pomysł nie był najgorszy i przerodził się w inny projekt, który opiszę następnym razem. Ale niezbyt się nadawał do montażu z obiektami 3D. Zdecydowanie potrzebowałem green screena, więcej czasu (a trudno zgrać wolne chwile dwóch osób) i niego lepszego miejsca niż to, którym wówczas dysponowaliśmy.
W końcu wymyśliłem prostą scenkę. Co prawda bazowała głównie na stronie wizualnej, ale nie była zwykłym bezsensownym pokazaniem efektów, które swoją drogą nie powalają. Oglądający doszukali się nawet jakiejś głębi, co mnie zaskoczyło i przywiodło wspomnienia szkolnych rozprawek na temat „co autor miał na myśli”. Widzowie i czytelnicy widzą czasami więcej niż sam twórca.
W czasach przedkomputerowych (czyli jeszcze do lat 90-tych) większość ujęć, w których miały się pojawić dodatkowe efekty, kręcono ze statywu, żeby montaż był łatwiejszy i mniej widoczny. Idąc tym tropem również nagrałem wszystko ze statywu. Inna sprawa, że nie miałem wyjścia. Byłem jednocześnie operatorem kamery i aktorem, a nie chciałem nikogo męczyć, żeby biegał za mną z aparatem. Podobnie jak poprzednim razem, nagranie ujęć zajęło mi niecałą godzinę.
Dzięki temu nie musiałem trackować ujęć, a elementy 3D są pojedynczym obrazkiem, co dało ogromny zysk czasu podczas renderowania. Nie musiałem też idealnie dopasowywać perspektywy. Montaż i ewentualne podmalówki zrobiłem w Photoshopie.
Wprawne oko zauważy, że na różnych ujęciach „przesuwałem” toster i ekspres do kawy, bo mi zasłaniały kamerę (zobaczcie ujęcie nalewania kawy i następne, gdy biorę kubek).
Jest kilka miejsc animowanych - efekty świetlne na chlebie, serze i nożu. Tu już zrobiłem przy pomocy Grease Pencil, w podobny sposób, jak rysuję stworki na ulicy.
Darmowa wersja DaVinci Resolve nie ma aktywnego narzędzia magic mask, dzięki któremu mógłbym się wyciąć jednym kliknięciem. Narzędzie jest przegenialne, korzysta z AI i działa nadspodziewanie dobrze. Ale wtedy dysponowałem jeszcze darmową wersją programu.
Na zamówiony green screen wciąż czekałem. Pozostało więc ręczne maskowanie przy pomocy narzędzia Pen, które działa tak samo jak w Photoshopie. Jednak co innego wyciąć z tła jedno zdjęcie, a co innego kilka ujęć w 25PFS. Zajęło mi to cały dzień.
Jest kilka miejsc, gdzie widać niedokładności, ale umówmy się: to nie jest hollywoodzki blockbuster tylko zwykła zabawa.
Właśnie dzięki statywowi. Nagrałem długie ujęcie bez chleba, potem równie długie z chlebem. Musiałem go kłaść delikatnie, żeby nie ruszyć deski. Trochę zabawy przezroczystością, prosty rysowany efekt w Blenderze i devolay :)
Chciałem uzyskać efekt chłodnej, mało przyjaznej chociaż mocno zautomatyzowanej przyszłości. Blade Runner to nie jest, ale moja kuchnia też w niczym nie przypomina domu Deckera.
Miganie niektórych elementów zrobiłem podczas koloryzacji w DaVinci Resolve, bo tak było prościej i szybciej.
Napisanie muzyki to też kwestia kilku godzin, bo nie jest zbyt skomplikowana. Mam ambicję nie korzystać z gotowców.
Zwrócono mi uwagę na brak masła. W przyszłości masło będzie jeszcze droższe niż teraz, także ten…