導讀 : 四維光場是什麽技術?

Oculus Rift在視覺體驗上已經做得很不錯了,Oculus花了很長時間將硬件提高到目前的水準,要知道在視覺上騙過人類的眼睛和大腦是件很困難的事情,我們從出生開始就活在3D世界中,所以很容易辨別出來一個模擬的3D環境有哪里不太對勁。於是就導致了頭暈、惡心等等這些癥狀,甚至於再也不想玩VR了。導致VR之路如此艱難的很大一部分原因,是我們雖然離VR屏幕只有幾厘米,卻試圖說服我們的眼睛,屏中景物在距離我們很遠的地方。

當前這一代的VR顯示設備,使用了很多不同的方式,在一塊扁平的屏幕上人工地生成擁有深度信息的圖像。但缺忽略了一個很重要的技術,這項技術可以讓VR圖像看起來非常自然與舒適---4維光場,它允許類似Lytro的光場相機可以接近真實地還原光場信息,顯示擁有深度信息的圖像,從而更好地緩解“暈動癥”難題。

先看看傳統的VR顯示設備,比如Rift,利用以下幾種因素來創造擁有深度信息的圖像:

雙目視差

你的左右眼分別看到不一樣的景象,當你的大腦處理這兩個影像的時候,雙目的視差會給你帶來景象的深度信息。

動態視差

當你左右搖晃腦袋的時候,離你近的景物比離你遠的景物會移動地更迅速一些,因此VR顯示器可以利用此特性將深度信息加入進來。

雙目遮擋 

某個景物在場景的前方,因此會遮擋住後方其他的景物,這就造就了景物根據距離的自然排列。因此,假如一部分遮擋信息同時進入雙眼,大腦就會產生相應的深度信息。

1231241331

視覺輻輳

當你的眼鏡註視某個物體時,離你越近的景物,越會被眼睛向內翻轉(收斂),以保證其在視域的中心;離你遠的景物,會被眼睛向外翻轉(發散),直到無限遠。翻轉量使得大腦可以計算出景物的深度信息。

為了更好地利用以上特性,大多數VR顯示器分別對每只眼睛顯示單獨的圖像。假如這些圖像與頭部的運動同步地調整與顯示,則可以創造人眼可以承受的視覺深度信息。

然而,即使像上述那樣欺騙大腦創造出了有深度信息的圖像,你的大腦依舊會發現一些地方不對勁。視覺輻輳與另一個深度要素息息相關:焦點調節。當你聚焦於近處的景物,晶狀體收斂性調節;當你聚焦於遠處的景物,晶狀體發散性調節。大多數VR頭顯並沒有將焦點調節考慮到其中,導致全部的圖像一直處於某一個聚焦的狀態,但是你的晶狀體卻會隨著立體影像不斷聚散。

你的大腦極其反感這種情況,這種所謂“視覺輻輳調節沖突”便會導致視疲勞、重影、頭疼、惡心等一系列癥狀,最嚴重的是,這還有可能導致兒童發育中的視覺系統的病變。

那麽此時,有個方法可以解決這些問題:4維光場技術。

什麽是光場?

簡單的說,光場是空間中同時包含「位置」和「方向」的四維光輻射場的參數化表示,是空間中所有光線光輻射函數的總體。其兩個主要應用方向是「光場拍攝」和「光場顯示」,第一種需要記錄下來整個空間的所有信息,第二個則是需要將這些信息完整地複現出來。通俗地說就是在空間內任意的角度、任意的位置都以獲得整個空間環境的真實信息,用光場獲得的圖像信息更全面,品質更好。

什麽是4維光場?

空間中一束光的「位置+方向」信息,需要5個維度的坐標來確定---位置需要「X,Y,Z」三個維度(三維坐標系中的點),方向需要「θ,φ」兩個維度(三維坐標系中,θ角是某點與原點構成的直線在XY平面的投影與X軸的夾角,φ角是某點與原點構成的直線在XZ平面的投影與Z軸的夾角)。在計算中,每多一個維度,就會將計算量大大提高,因此要盡量降低維度,所以使用了一個簡單的模型,即利用某條光線與其穿過的兩個平面的交點,來表示這條光線的位置與方向,假設這兩個交點在各自的平面的坐標是(u,v)和(x,y),則這條光線的坐標就是(u,v,x,y),巧妙地從5維降為4維。

23231313

為了理解什麽是4維光場,以及它何如工作,我們可以從它的實際應用聊起,即4維光場相機,簡稱“光場相機”。Lytro是光場相機品牌中最優秀的之一,對於Lytro相機原理的解釋,有個有趣的比喻:它就好像把一大簇迷你相機捆在一起,同時從一個場景的多個視角捕捉光線信息,當捕捉到每束光線的方向信息後,使用一系列數學方法重建一個數字光場,還原出一個趨近於真實世界的光場。

現在你可以使用光場相機從各個角度捕捉圖像了,將光場信息從VR頭顯輸出,便可以有效緩解“視覺輻輳調節沖突”和“暈動癥”等等這些問題了。不過,僅僅是“緩解”,而不是“解決”。光場技術仍屬於起步階段,從各個方面還不夠成熟,從「捕捉」到「顯示」,要解決的問題還太多太多,任重而道遠。 

看到這,有沒有覺得VR技術的方方面面很有趣?嗯,那就繼續關註我們吧,陪著大家一起在VR的世界里暢遊。