虚拟仿真互动沉浸式实验室建设

Xsens动作捕捉 2023-05-11 3187

一、概述
虚拟现实技术是一种可以创建和体验虚拟世界的计算机仿真系统,它利用高性能计算机生成一种模拟环境,是一种多源信息融合的、交互式的三维动态视景和实体行为的系统仿真。虚拟现实通过实时三维计算机图形技术、立体显示技术、动作捕捉技术,以及触觉/力反馈、立体声、网络传输、语音输入输出等技术手段,给体验者营造出一种高沉浸性与交互性的虚拟环境。

虚拟仿真互动沉浸式实验室建设  第1张

通过虚拟现实在多维信息空间上创建一个虚拟信息环境,使用户具有身临其境的沉浸感,并在虚拟现实环境中实现交互,有助于使用者加深感受、启发认知。虚拟现实在各行业中的应用,普遍具备了沉浸性、交互性、构想性这三个基本技术特性。目前,虚拟现实(VR)已广泛地应用于游戏、直播、影视、医疗、旅游、医疗、教育、商业、工业、军事等各行各业中,为这些行业提供前所未有的解决方案。虚拟现实通过其沉浸性、交互性及构想性的显著特征,正不断的影响我们的生活。

虚拟仿真互动沉浸式实验室建设  第2张

二、方案建设
本方案规划为六大模块,项目预算在100万(可根据实际预算调整模块)。
(1)3D人体动作捕捉模块
(2)实时可视化交互模块
(3)触觉回馈模块
(4)桌面级AR全息交互平台模块
(5)头戴式VR漫游模块
(6)AR体验互动模块

虚拟仿真互动沉浸式实验室建设  第3张


三、模块应用系统分析
1、3D人体动作捕捉模块:(预算55万)

为了获得有真实感又能快速产出的动画,必须透过动作捕捉系统将演员的动作直接汇入到动画中,更准确的动作可结合动作捕捉系统能够用自己的身体来操控虚拟角色,并且实时的看到优化的平顺动作。专业脸部面部捕捉系统,透过体感互动设备可以直接与3D动画软件与绘图软件做串流,实时录制表情到动画模型里,快速制作动画。

Xsens MVN是一款便于操作、经济实用的惯性动作捕捉系统。MVN独特之处在于不受环境光线与空间距离的限制,纯净的动作捕捉数据不需要进行后处理即可录制完成,非常适用于各种实时的表演应用。全新的MVN动作捕捉系统采用最新的惯性传感技术,硬件效能与软件功能方面均获得大幅的提升,彻底解决过去惯性动作捕捉系统在双脚同时离地、跳跃、爬楼等动作会产生数据漂移现象的问题。

虚拟仿真互动沉浸式实验室建设  第4张

Faceware是全球领先的单摄像机、无标记点的面部表情捕捉系统供应商,支持无线数据传输,兼容任意视频源,实时预览表情动画,捕捉效果精细,人性化的软件功能设计,迄今已为全球数百位专业用户提供先进的无标记点式面部表情捕捉解决方案,广泛应用于影视特效和AAA游戏制作。

本模块适用于3D人物动画制作、电影/游戏和广告预览、游戏开发、训练和模拟、虚拟现实、电影和视觉特效、电视广告、现场娱乐表演,演唱会和路演等领域。

配置:
全身动捕:Xsens MVN Animate pro惯性动作捕捉系统
面部捕捉:Faceware 面部表情识别系统
手部捕捉:Manus Prime Xsens专用VR手套


2、实时可视化交互模块(预算40万)
实时可视化交互模块是通过投影显示技术构建大屏幕仿真体验的硬件环境,通过虚拟现实技术和实景视频技术为核心,把应用场景直接搬进课堂,让体验者犹如身临其境的现场演练,并通过A.R.T交互系统与场景进行人机交互,形象的丰富可视化教学。模块适用于虚拟现实、医疗、工业、动作捕捉、科研等诸多领域。

虚拟仿真互动沉浸式实验室建设  第5张

显示端:单通道投影系统
交互端:A.R.T.SMARTTRACK3小型空间追踪系统
引擎端:Unity 3D引擎+Middle VR插件
内容端:根据客户所需内容进行开发

3、触觉回馈模块(预算15万)
硬件设备:Geomagic Touch X力反馈设备

力反馈是指在人机交互过程中,计算机对用户的输入做出响应,并通过力反馈设备作用于用户的过程。它是一种机械装置表现出来的反作用力,将力反馈设备与环境中物体交互的信息转化成用户能够感知的力的效果,如触碰物体的阻力、举起物体的重力和“触摸”物体表面的摩擦力。

虚拟仿真互动沉浸式实验室建设  第6张

力反馈技术的引入,使交互体验更加自然、真实。虽然传统的鼠标、键盘、触摸屏等交互手段可以满足用户与环境中物体交互的需求,但是缺乏触觉交互信息的反馈。力反馈技术结合其他的VR技术,使用户在交互过程中不仅能够通过视、听觉通道获取信息,还能够通过触觉通道感受模拟现实触觉回馈交互的“触感”。


4、桌面级AR全息交互平台模块(预算12万)
硬件基于VoxelStation 人机交互平台

VoxelStation适用于桌面高精度AR交互场合,它提供大范围高精度头部光学追踪系统,来捕捉操作者眼、手的位置,让你更加从容地与3D虚拟世界进行交互。Voxel适配被动、主动、裸眼等多种立体显示方式,使得用户根据自己的习惯、需求任意调配符合自己的专属环境。它提供开源的C++接口,适用于Unity3D、UE4等开发工具,用户也可根据脚本、文件,自行修改程序内容。提供开源示例程序Demo,帮助快速上手开发应用软件。

虚拟仿真互动沉浸式实验室建设  第7张

VoxelStation不仅提供优质的硬件,还提供多样的软件支持与服务。它提供多元的小学、初中、高中的理化生实验课程,还提供完备且符合中国课标的课程评价内容,不仅满足学校教学任务,还能有针对性的服务创客式教育。它符合项目式教学模式,提倡学生在过程中获得知识,以学生为主体,提升学生自我创新的能力。

5、头戴式VR漫游模块(预算12万)
硬件基于HTC Vive头戴式显示器

HTC头戴式显示器是现阶段国际较先进的空间定位虚拟现实眼镜套装(眼镜+手柄+定位器),能够保证在5*5区域内的完全位移与动作虚拟。HTC能完美解决观看体验过程中,有眩晕感的问题,让用户有更好的沉浸体验。手柄控制器符合人体工程学原理,可以使您与虚拟世界进行交互。每个控制器的位置都会在空间中被追踪,开发人员由此能够模拟各种活动和交互。

提供虚拟现实内容快速创作开发引擎(个人版)。用户可通过平台提供的模型资源素材库快速获取三维模型文件,方便、高效地搭建虚拟场景内容,并能够通过动画编辑器制作丰富的交互内容,借助交互编辑器完成场景交互逻辑的定制。支持PC端、头盔端等多种主流虚拟现实显示设备进行交互操作。

可提供3个VR资源,根据具体应用场景,搭配不同的资源,供学习、交流、研究使用。

虚拟仿真互动沉浸式实验室建设  第8张

6、AR体验互动模块(预算6万)
硬件基于微软HoloLens AR头戴式显示器

AR互动体验模块采用动画捕捉技术、AR交互技术、虚拟现实技术、三维立体空间匹配技术、视角矫正技术等相结合,实现将虚拟的场景、角色、物件等,完美的融合在真实的场景中,并能够与虚拟场景中的角色进行互动。

在HoloLens AR头显中,微软完全更新了用户与全息影像的交互方式,利用新的TOF深度传感器,结合内置AI和语义理解,HoloLens可以让你采用与现实世界的物体交互时所使用的同样手势来直接操控全息影像。除了显示引擎的改进和更加直观的操作全息影像,HoloLens还包含眼球跟踪传感器,让人们与全息影像的交互更加自然。

本文为原创方案,如需转载请联系!选自公众号:VR方案

The End