當VIVE Mars的產品影片一釋出,YouTube留言就刷了一排GJ,彷彿聽見眾家影視從業者的歡呼聲。但這看起來神秘的黑盒子到底是要做什麼用?內行人是看門道,外行人來看個熱鬧。不過,其實它沒這麼難懂,我只能先說VIVE Mars絕對是個革命性的產品,甚至會改變未來的影視製作。
有了它,再加上逐漸完善的虛擬製片技術,在不久的將來,那些你以為是好萊塢才能實現的科幻鉅作特效,會變成獨立工作室,甚至是YouTuber都能夠輕鬆達成的事。要了解VIVE Mars的厲害,就得從認識「虛擬製片」(Virtual Production)開始。
綠色,是綠幕的顏色
一般為人所知的傳統特效合成,就是常在電影幕後花絮中看得到的那種,大多是以「綠幕」作爲背景,讓其他人物和物件在前景演出,隨後再透過後製,把綠幕部分key成想要的場景,以完成在不可能的地點做不可能的事的一個不可能的任務。
這項技術的雛形,可以追溯至19世紀末,法國電影導演、特效之父Georges Méliès,對當時的人來說根本是個魔術師的他,透過剪接、遮罩和重曝等技術來玩出各種影像新花招,夠久以前了吧!
以綠幕當拍攝背景雖然行之有年,但依然存在許多問題與限制,像是⋯⋯你有發現《駭客任務》(The Matrix)裡面的光線都綠綠的嗎?這有可能是故意營造的(導演說在「母體」的部分有加綠色濾鏡),但我怎麼想,都覺得這是一種既來之則安之的配套措施。嗯好,先不論綠綠的是否刻意為之,使用綠幕的確會讓攝影棚的光線無法平衡,不只背景會看起來假假的,演員臉上和身上也很容易泛著綠光,氣色很差。
此外,還有一個很大的限制,綠幕的內容無法隨著攝影機來改變背景的視角,因此前期若沒處理好,現場也動不了,那就只能交給後製啦(後製表示:「哭啊!」)。而且啊,我們在電影中看見的科幻場景,在拍攝現場就是一片無聊綠,每次看電影幕後花絮,看到演員們要在綠幕前演出,都覺得這樣還能入戲實在是想像力超群。然而,如果演員都出戲,那觀眾要怎麼進入狀況呢?除了演員很痛苦外,製作團隊也無法在拍攝時看見實際的效果,容易造成一步錯步步錯的窘境,大多時候只能把重要的決策擺到後製期程再來「二創」,如此一來,也很容易發生無止盡的delay⋯⋯( — — 後製團隊已經離線 — — )
以上種種的限制,讓人不禁懷疑——特效技術就只能停留在此嗎?
這時,醞釀已久的遊戲引擎像是Unity、虛幻引擎(Unreal Engine)挾帶著強大技術,從虛擬世界殺回現實生活,讓虛擬和現實中的萬事萬物終能交會融合 — — 虛擬製片(Virtual Production)的時代來臨了!
所拍即所見的「虛擬製片」
虛擬製片是什麼呢?簡單說來,就是一系列結合虛擬拍攝及實景拍攝的影像製作模式。通常,會先以遊戲引擎來建構所需的虛擬景物,透過強大的實時3D渲染技術,可以在拍攝的當下調整虛擬世界的一景一物,甚至是光線變化也可以做到,並且把虛擬景物同步顯示在大型的LED牆幕上。這時,再以有和引擎追蹤連動的攝影機進行拍攝,就可以連結虛擬與實景,將攝影機位置即時回傳到引擎中,便可以隨著鏡位的移動,改變虛擬景物的視角,達到所拍即所見的效果。
如果這麼說還是很模糊,來舉個例子,由Disney+製作的星戰系列影集《曼達洛人》(The Mandalorian),星戰迷們應該都不陌生吧?這部作品可說是將虛擬製片技術用得淋漓盡致,藉此拍出遼闊的星戰西部荒漠感!由於串流平台上的影集的製作期程遠遠短於電影,預算也比較緊(單集還是高達1,500萬美元啦),因此製作團隊必須想出一個能夠在最快時間也最省成本的方法來完成作品。
本劇的監製Jon Favreau本身也是個十足的Geek,他打從心底厭倦了用綠幕拍片,覺得這樣實在很影響創作體驗,虛擬製片這項技術讓Jon Favreau感到興奮不已,甚至還擔任了SIGGRAPH 2019的特別來賓,大談虛擬製片的未來發展。「虛擬製片有很多優點,由於它的即時互動性,我們可以從鏡頭中看見光線、佈局、背景、甚至景象中的地平線。未來,我們不需再耗時將這些碎裂的元素拼湊在一起。」他說。
為了完成這個創舉,製作團隊和特效老字號光影魔幻工業(ILM)以及Epic Games合作,他們搭建了一個直徑達22.86公尺、高度約6.4公尺,有著270度的曲面LED巨型螢幕,名為「The Volume」的大型片場。抬頭看看天頂,竟然也是由LED構成。「從來沒想過,能用一整天的時間來拍攝魔幻時刻的鏡頭,實在太令人震撼了。」除了可以恣意變換景色外,就連日夜時間也在掌握之中。
拍攝現場配備了七部跑著UE4的主機,可以實時驅動LED螢幕上的切換場景、光影等種種效果。覺得哪座山不夠高、哪裡的風沙不夠強,就動動滑鼠拉一下,說是場景的創世神也不爲過。
當然,如此強大的虛擬製片系統,是非常昂貴且複雜的製作環境,在製作前期需要挹注的硬體技術成本也變得相當高,但把眼光放遠一點來看,絕對是一筆值得的投資。
至少不需要把整組拍攝團隊移師到突尼西亞的沙漠,就可以擁有一大片在掌控之中的逼真沙漠場景;假設有任何鏡頭要重拍,也只要把場景叫出來,就可以重新來過。更別提那些工程浩大的太空場景了,虛擬製片為拍攝節省大量的時間與金錢,更簡化且優化了創作的過程。
小成本,大製作
聽起來,虛擬製片實在很理想又很厲害,但目前的虛擬製片模式,對於一般獨立製作團隊來說還是太高規(貴)。當然,還是有不少影像創作者不停發揮想像力,以及DIY的能力,來完成自己的一套虛擬製片流程。
而潛水在其中的HTC VIVE開發團隊,發現許多人會透過改造VIVE Tracker,土法煉鋼的連接至攝影設備上,然後再將訊號傳送至編輯軟體中;如需要良好的追蹤效果,甚至需要在天花板上貼滿數百個追蹤點,這些過程實在非常麻煩、耗時,又容易出錯。HTC知道大家的苦,因此開發出一個裝著黑科技的黑盒子 — — VIVE Mars。
VIVE Mars? It works!
那,什麼是VIVE Mars呢?VIVE Mars說起來算是個虛擬製片套組,每個套組中包含了一台黑盒子,也就是Mars本體,兩個VIVE Tracker、三個轉接的Rover模組(又Mars又Rover的,只能說是專屬於太空迷的彩蛋)、還有Base station 2.0基地台兩個,就是個隨插即用的虛擬製片追蹤系統。透過精準的追蹤,將訊號同步傳回Unreal Engine中,讓虛擬與實景可以沒有延遲、完美嵌合。
僅僅1.4公斤輕便的大小,甚至可以隨身攜帶,由於不需要安裝,也將設定所需的時間從5–8小時縮短至15分鐘。雖說官方定價是5,000美元,乍看之下有點貴,但經過開發團隊的實測,使用VIVE Mars系統約莫可以省下95%的時間與精力,拿這些時間去好好拍片吧,非常值得!
VIVE Mars也針對了虛擬製片的需求進行優化,支持Genlock/時間碼同步、一鍵重設原點、鏡頭校準等專業級功能。另外,開發團隊還貼心提供了三個Rover讓大家可以自由與不同裝置串連,從攝影機、燈光、到任何你想要的道具,不只讓攝影機可以準確追蹤,畢竟在拍攝過程中,燈光也是很重要的環節。
既輕便、省時,又簡單,呼應了開發VIVE Mars的出發點,「希望你們可以專注於創作,把這些技術的麻煩事交給我們就好。」產品負責人Raymond Pao在影片結尾這麼說,這也很符合HTC一直以來在做的事:科技與人文的融合,會釋放人們的想像力!