硅谷虚拟现实专题会二:用最新的Oculus软硬件进行开发

0

和上次 GDC 上的研讨说明会用了几乎一样的研讨题目,内容差别也不是太大。Oculus VR 的 Peter Giokaris 在这次研讨会理强调了用 DK2 版本的新硬件开发的事项,包含一些技术上的拆解,以及如何设计游戏以突出新硬件所能提供的特性。

正式开始后,Giokaris 上台,与大家寒暄。他目前主要的工作是 Oculus 与 Unity 的整合,这次演讲的话题内容大纲如下所示。

svvr_oculus_dk2_create_vr_2

OculusVR 的历史

DK2 综述

SDK 0.3 介绍

Unity 整合

声音空间化

虚拟现实的“临在感”

目标受众群体

问答环节

“我们所有人都需要虚拟现实。”Giokaris如是说:“只不过,现在知道虚拟现实的人不多。”

Oculus VR 的历史:于 2012 年创建,9月 Kickstarter 成功,2013年3月寄出了第一批一万个头戴设备。目前,总共卖出五万个头设,有六万活跃的开发者。Oculus 的团队全职员工也已达80位。

DK2 的规格:90-110°视角(取决于镜视距),1080p OLED 面板,每只眼960×1080像素。75 赫兹低余晖刷新率,并在消费者版目标超90赫兹。

谈到这里,Giokaris 开始讨论屏幕的刷新率与体感设备组合起来的效果。

他提到,随 Oculus Rift DK2附赠过来的摄像头刷新率并不高,但简单地追踪头部位置已经绰绰有余了。包裹上有一个三脚架螺丝壳,这样就可以把摄像头固定在显示器上面。追踪的范围大概在0.5米至2.5米之间,而之后的消费者版本貌似能支持多个摄像头。

头部追踪是由头设上内置的红外发射器实现的,支持身体左右摇摆,甚至上蹿下跳。

DK2的线可拆卸,一下子方便了很多。

Oculus_dk2close

版本 0.3 的 SDK,支持 DK1 和 DK2。SDK 将引导开发者将头部追踪加入自己的游戏里,位置原点设在一米处。

EVE VR 被用来作为开发位置跟踪的例子,而 Giokaris 也参与了 EVE VR 的开发,并为这种类型的视频游戏 – 坐在某种交通工具里行动 – 确立了一些规则 – 当然,不一定适用于其它类型的游戏。

SDK 会提供两种渲染模式:SDK 渲染以及游戏渲染。
推荐使用 SDK 渲染模式,因为它能良好地控制时间和画面变形等,而目前通过 Unreal 4引擎或者 Unity 来做这些并不那么轻松。
游戏渲染则是通过引擎来完成所有视觉的过程,只通过 SDK 来获取感应器的状态,时间点以及预测。SDK 渲染更容易采用,不需要定制的着色器等。此外,SDK 通过 UV来让画面形变。

接下来是 John Carmack 的 TimeWarp。下一帧场景会先用最近一次转动的方向来提前渲染,这意味着,相比较侧面和背面的景物,玩家前面的物体会优先渲染。使用这项功能你可以为改变的方向显示同样的场景。“方向是最大的视觉线索。”

svvr_oculus_dk2_create_vr_1

Unity 4 Pro 整合方面,Giokaris 说这实在太简单了。只需要在 Oculusvr 的网站上下载一个压缩文件而已,解压就能看到里面是两个 Unity 文件。

SDK 针对 OS10 0.3 的发布目前貌似并未开始,它应该会在 Windows之后。

Unity 4 Pro 支持 DK1 和 DK2。GPU 现在是拉后腿的地方。当谈到立体 3D 画面以及对帧速的影响时,Giokaris 这么说道。

接下来讨论的是空间音效,据 Giokaris 说,这是最近他花时间花得最多的地方。实际上,双声道音轨早在1981年就已经有了。

声音设计的标志性事件包括麻省理工在1994年通过 KEMAR 人工头录制的实验,Aureal 半导体的 A3D,Creative Labs 的 EAX 以及原 Xbox 主机的硬件 HRTF 音效。

临在感是虚拟现实的魔法。当这种感觉来到之后,你很难觉得自己不是那个虚拟世界的一部分。足够大的可视角度以及足够高的解析度是“达到临在感”的要求。

Giokaris 将虚拟现实与电影业的特效比较,称现代人们已经麻木了,那些技术必须再进一步,才能将观众拉到故事里去。

虚拟现实一开始的核心受众是游戏玩家。然后是工业、商贸、军事、健康、公园以及街机。基本上也是这个顺序。

Oculus Rift DK2


Via: VRFocus

LEAVE A REPLY

Please enter your comment!
Please enter your name here