没有合适的资源?快使用搜索试试~ 我知道了~
虚拟现实智能硬件2019年11月第3引文:袁伟,管东东,王秋晨,李祥贤,卞玉龙,秦普1,徐燕宁,杨成磊。支持协同定位的虚拟消防演习系统。虚拟现实智能硬件,2019,1(3):290-302DOI:10.3724/SP.J.2096-5796.2019.0012·文章·支持协同定位的虚拟消防演习系统袁伟1,管东东2,3*,王秋晨1,李祥贤4,卞玉龙2,3,秦普1,徐燕宁3,4,杨成磊3,4*1. 山东大学计算机科学与技术学院,济南2501012. 山东大学,山东济南2501013. 教育部数字媒体技术工程研究中心,济南2501014. 山东大学软件学院,济南250101* 通讯作者,chl_yang@sdu.edu.cn;ddguan@sdu.edu.cn投稿时间:2019年2月8日受理时间:2019年4月25日国家重点研发项目(2018 YFC 0831003);山东省重点&研发项目(2016 GGX 106001)。摘要 背景 在大多数虚拟现实系统中,由于显示方式的限制, 当多人处于同一物理空间时,该程序根据一个用户的位置和视角来渲染场景,使得其他用户只看到相同的场景,从而导致视觉障碍。方法为提高多用户协同工作的体验,提出一种支持协同工作的消防演习系统,三个协同工作的用户可以协同完成虚拟消防任务。首先,借助多视角立体投影显示技术和超宽带(UWB)技术,协同定位的用户可以独立漫游,通过佩戴专用快门眼镜,根据自身位置,通过正确的视角观看虚拟场景,从而执行不同的虚拟任务,提高了协同定位的灵活性。其次,利用微机电系统传感器设计了模拟消防水枪,使用户能够与虚拟环境进行交互,从而提供更好的交互体验。最后,我们开发了一个包含全息显示模块和多点触控操作模块的虚拟场景装配和虚拟环境控制的工作台。结果:该控制器可以利用工作台实时调整虚拟布局,控制虚拟任务的进程,增加了系统的灵活性和可玩性。结论我们的工作可以在广泛的相关虚拟现实应用。虚拟现实;协同;多视显示;超宽带;仿真消防水枪1引言在消防救援、应急处置、军事对抗等领域,为提高相关人员的反应能力,大多数方法进行真实情况模拟,以保证用户遇到真实情况时救援工作的有序开展特别是在一个www.vr-ih.com版权所有© 2019北京中科学报出版有限公司公司制作和主办:Elsevier B.V.代表KeAi。这是一篇基于CC BY-NC-ND许可证(http://creativecommons.org/licenses/by-nc-nd/)的开放获取文章袁伟等:支持异地协同的虚拟消防演练系统291消防演练,常见的演练是组织相关人员在相对开阔的区域内产生真实的火焰,并使用消防工具进行演示教学。这需要耗费大量的人力、物力和财力,与真实的火灾现场有很大的不同。因此,利用计算机模拟火灾现场,一方面可以促进人们掌握消防知识,帮助人们掌握基本的消防技能。另一方面,可以提高专业消防人员的业务熟练程度,对消防决策有一定的指导意义。目前,大多数虚拟消防演习系统支持单人交互。然而,在真实的火灾场景中,现场很大,消防任务很复杂,以至于用户无法单独完成,需要多个用户一起工作。因此,在虚拟消防演习系统的建设和开发中,必须考虑真实环境的模拟和再现,多个用户可以在其中协同工作,每个用户可以根据自己的位置观看自己的立体视频,提高了真实感。虽然头戴式显示设备支持多用户协同定位协作,但它只能提供完全封闭的显示,这使得用户无法在现实中看到彼此,降低了协作交互体验的感觉。然而,大屏幕立体投影显示技术可以为许多用户提供沉浸式立体显示效果。用户在投影屏幕前可以进行虚拟交互操作,面对面直接交流,具有很强的协同意识。因此,大屏幕立体投影仍然是支持多用户协同的虚拟现实应用的主要显示方式。然而,目前典型的商用大屏幕立体投影显示器只能提供单视点显示,处于同一物理空间的用户只能感知其中一个视点的渲染画面,降低了真实感。因此,本研究结合多种认知交互技术,采用文献[1]中的三投影阵列方法实现多用户立体投影显示,提出了一种基于大屏幕的多用户协作环境。此外,基于消防演习,我们开发了一个虚拟消防演习系统,支持三个用户协同定位,其中三个用户可以观看自己的立体视频通过佩戴专用快门眼镜。同时,利用超宽频无线定位技术追踪使用者的实时位置,使使用者可以自由移动,并控制对应的虚拟漫游路径;为了提供有效的互动操作,本研究开发一个模拟消防水枪,让使用者在虚拟火场中进行灭火作业。此外,本文还开发了一个支持虚拟场景装配的控制台设备。因此,遥控器可以通过全息显示屏观察3D虚拟场景和用户的虚拟交互过程。此外,它们还可以通过触摸交互等方式实时调整场景布局和任务流程,提高了系统的灵活性。2 相关工作2.1 协同办公随着虚拟任务复杂度的增加,单个用户已经不能满足任务要求,需要多个用户的协作。与分布式协作[2]相类似,在协同定位的协作环境中,多个用户在同一物理空间共同完成一个或多个复杂任务,用户之间的通信更加直接。Czernuszenko等人提出了一种虚拟现实(VR)显示系统CAVE的实现[3]。在CAVE中,多个用户在同一个物理区域中一起工作,但系统只跟踪一个用户的位置,并使用292虚拟现实智能硬件2019年11月第3当前被跟踪用户的视点,使得未被跟踪用户看不到其实际位置对应的场景,影响用户的真实感。在此基础上,Simon[4]提出了一种新的协作交互范式。在单视点立体投影显示系统中,多个用户可以共享同一虚拟环境。同时,每个用户完成光线投射选择任务。为了避免影响其他用户的观看体验,用户不能移动更大的距离。头戴式显示器(HMD)可以向用户提供高度沉浸式体验,而所有旁观者(非HMD用户)被排除在体验之外。因此,由Gugenheimer等人提出的ShareVR[5],可以为HMD和非HMD用户提供协同定位的体验,并允许他们协作完成虚拟任务。此外,Chen等人研究了CAVE中两个用户之间的协作交互,并提出了一种新的空间映射算法,该算法允许两个处于同一位置的用户避开障碍物并协作完成目标选择和其他虚拟任务[6,7]。2.2 多视图 立体 射影 显示技术为了突破传统立体投影设备的单视点局限性,一些研究采用了多视点立体投影显示技术。Yu等人介绍了一种新颖的双视角VR拍摄影院系统,允许玩家自由移动[8]。该系统可以根据用户的位置实时渲染同一场景的多个3D图像,用户可以通过佩戴特定刷新率的主动快门眼镜欣赏各个图像。Agrawala等人通过CRT投影机实现了双用户立体显示,其刷新率为144Hz[9]。通过特殊的主动快门眼镜,用户可以获得36Hz的单目图像刷新率。C1x6系统[10]通过结合主动立体投影技术和光学偏振来实现六用户立体显示。该系统同时使用6台投影仪,通过分时投影方式连续播放6个用户的立体视频。这六台投影机分为两组分别显示用户的左右眼视频,通过光学偏振的辨别形成立体视觉。同时,对应的快门眼镜设计成镜头的开合与时序同步,让每个用户都能独立观看专属立体影像。然而,以这种方式,投影仪的修改是广泛的,使得实现复杂。Guan等人提出了两种新颖的多用户沉浸式显示系统[1]。第一种方法是使用三投影阵列。通过对投影机色轮的改造,投影阵列的彩色图像刷新率可达360Hz,并可在同一屏幕区域分时播放多路立体视频。第二种方法是使用两台带偏振片的投影仪实现多视点立体投影显示。一台投影机为多个用户提供左眼图像,而另一台投影机提供右眼图像。这六个图像以特定的顺序输出。通过这种方式,用户可以使用专用的快门眼镜在同一显示屏上观察不同的图像。这两种方法都为多用户协同协作交互提供了一种更为便捷的环境构建方法。2.3 多用户 运动 跟踪技术为了获得准确的位置数据,许多研究都涉及多用户运动跟踪技术。GPS是空间定位方法中常用的全球导航卫星系统。它不受时间和地点的限制,可以提供可靠的位置和时间信息。然而,在靠近地面、室内或地下室的复杂环境中,GPS信号减弱使GPS定位变得困难。因此,有必要对室内精确定位算法进行红外定位293袁伟等:支持异地协同的虚拟消防演练系统被发现广泛用于几种室内定位算法的比较[12]。微软Kinect采用了这种方法。但是,由于单个Kinect的识别范围有限,当用户相互屏蔽时会出现身份丢失。因此,Salous等人基于四个Kinect设备的几何分布提出了CAVE中的跟踪模块[13]。类似地,Sevrin等人结合多个Kinect获得的运动轨迹来检测和跟踪多个用户的位置[14]。光学跟踪技术[15]也广泛用于室内定位,并且能够提供高精度。但随着定位范围的扩大,需要加大对底层硬件的投入,成本相对较高。UWB系统具有穿透力强、功耗低、复杂度低、定位精度高等特点,可以精确跟踪多个用户的位置[16]。2.4 互动 工具 基于 的传感器在当前的交互式影院系统中,交互式拍摄影院系统是常见的。在这里,大多数用户坐在固定的神经支配座椅上,座椅有三个或六个自由度,佩戴3D眼镜,携带模拟电子枪等交互工具,与虚拟场景实时交互。与传统的鼠标、键盘等交互工具相比,基于模拟电子枪等工具的交互更加真实自然,增强了用户的沉浸感。刘超[17]设计了一种基于微机电系统(MEMS)传感器的新型仿真枪,并通过磁场和加速度传感器计算其姿态。但是,由于加速度传感器在测量快速运动物体时存在噪声,不适合交互式影院系统中的快速实时交互。秦璞等人通过集成陀螺仪、加速度计和磁传感器的数据来获得模拟枪的实时姿态[18]。通过建立虚拟环境与现实环境的映射关系,利用Kinect识别出的位置数据,获得目标的位置和方向。同时,设计并实现了一个后坐力模拟器,以增强用户体验和真实感。2.5 控制台 设备 支持 虚拟 场景集合在虚拟现实的应用中,通过建模完成的虚拟场景设计和布局大多是固定的,导致交互内容缺乏新鲜感。为此,本研究开发了一种控制台设备,实现了虚拟场景的实时调整和虚拟场景中用户状态的实时监控。Lin等人设计开发了一种新的工作台,包括两个水平液晶触摸屏和一个具有触摸功能的全息显示器,目的是实现虚拟场景的协同设计[19]。在设计过程中,两个用户通过水平LCD触摸屏设计2D图形,并通过全息显示器观看相应的3D场景。通过触摸屏操作,可以实时调整场景的布局,既保证了视图的灵活性,又提高了设计效率。类似地,Surface,智能手机和HMD设备[20,21]可用于将家居设计从平面设计扩展到3D设计。同时,用户的反馈信息可以用来实时调整设计内容,以提高设计过程的有效性。3 系统架构支持多用户异地协同的虚拟消防演习系统由异地演习和远程控制两部分组成。这两部分通过Socket进行通信。图1说明了系统架构。294虚拟现实智能硬件2019年11月第3图1系统架构。在协同演练部分,有一台服务器,三个投影仪阵列,UWB定位设备,专用快门眼镜,蓝牙/2.4G模拟消防水枪。三个投影仪阵列可以将多个图像投影到同一投影屏幕上。这三个共同定位的用户可以通过佩戴专用快门眼镜观看基于其真实位置的立体视频。同时,用户通过UWB无线定位技术控制虚拟漫游路径此外,模拟消防水枪将其姿态和状态信息发送到服务器,支持多用户执行消防任务。在遥控部分,有支持虚拟场景组装的控制台设备,由全息显示屏、水平触摸屏、高清摄像头组成。全息显示屏用于描绘三维火灾场景,包括场景的布局和状态以及用户的位置。水平触摸屏和高清摄像头构成图像识别部分。服务器从顶视图收集由HD摄像机拍摄的实时水平触摸屏图像,并识别所识别的图像的类型和位置。此外,水平触摸屏支持多点触摸交互。在系统运行过程中,协同演练部分的服务器负责采集用户位置数据、火源位置、灭火信息,并通过Socket传输给远程控制部分。同时,远程控制部分会将虚拟场景调整的相关数据,包括识别图像的类型和位置,传输到共址演练服务器。通过这种方式,可以同步两部分的信息,并根据预先设计的映射关系实时调整虚拟火灾场景的状态。图2显示了用例图。4 系统 设计 与实现在本文提出的虚拟消防演习系统中,三个协同定位的用户可以协同进行虚拟消防演习,而遥控器可以实时调整虚拟场景。图295袁伟等:支持异地协同的虚拟消防演练系统3展示了实际应用场景。图2用例图。在协同定位演练部分,三个用户佩戴UWB无线定位标签。该系统通过UWB技术实时测量用户的移动位置。通过虚实空间坐标映射,每个用户可以控制自己的虚拟漫游路径,系统根据每个用户的位置和视点绘制独立的立体视频,并通过多视点立体投影显示技术将它们投影到同一屏幕上。随后,用户通过专用快门眼镜观看自己独立的立体图像。这样,三个用户就可以根据自己的虚拟路线找到不同的火源,并使用模拟消防水枪瞄准并发射虚拟水进行灭火,从而协同完成灭火任务。同时,在远程控制部分,控制器可以通过支持虚拟场景组装的控制台设备实时观看虚拟消防演练的过程,并通过在虚拟环境中添加虚拟火源来控制虚拟交互的过程和任务难度。下面将详细介绍各个模块的具体实现。4.1 多视图 立体 射影 显示模块传统的立体投影设备只能从单个视角在投影屏幕上呈现立体图像,这限制了协同定位的灵活性。因此,提出了两种多用户立体投影的柔性显示系统[1]。本文采用第一种方法。通过修改投影机的色轮,可以在同一屏幕区域分时播放多路立体视频。在修改之后,每个投影图像由各个用户的不同平面图像组成。在每个单色投影时段,三个投影仪正好播放三个296虚拟现实智能硬件2019年11月第3图3实际应用场景。图中的序号表示以下含义:1.三投影仪阵列;2.超宽带基站;3.专用快门眼镜;4.模拟消防水枪;5.超宽带无线标签;6.高清摄像头;7.全息显示器;7.水平液晶触摸屏;8.识别图像。同一用户的平面图像,从而保证彩色图像的正确合成。同时设计了专用快门眼镜。此外,该模块采用了德州仪器(TI)的数字光处理(DLP)链接模式,这是内置在投影机。因此,当投影仪播放每一帧时,持续时间为20ms的高亮度光脉冲被投射到屏幕上作为帧同步信号,快门眼镜通过光电二极管接收它。因此,液晶显示器(LCD)镜头的打开时序和投影顺序同步,确保每个用户观看独立的视频。三投影阵列系统可以为三个用户提供不同的视频,主要依靠GPU对三路独立视频的实时混合拼接处理。通过对投影仪的改造,每个投影仪在每个时刻投影的图像不再由单个用户的三个平面R、G和B组成。相反,从三路视频中提取一个平面并混合到其中,即混合过程。此外,还要进行图像重合和拼接处理,形成图像变形的查找表,保证三台投影机播放原色图像实现像素重合。这意味着对三个垂直放置的投影仪进行几何校正,以使它们的投影图像重合,从而将它们拼接成完整的彩色图像。这个过程可以在Unity3D平台上使用Shader编程实现,其实时性可以通过GPU来保证。4.2 多用户 跟踪模块在本研究中,多使用者追踪模组利用超宽频无线定位技术对室内多使用者进行追踪。一方面,该模块可以避免位于同一地点的用户之间的遮挡。另一方面,它似乎不受复杂光环境的影响。此外,该模块还可以与多用户立体投影显示技术相结合,以确保多个用户可以自由移动,独立的虚拟漫游和交互。UWB无线定位装置通过发射和接收无线电波来跟踪移动物体的位置。本研究所使用的超宽频装置使用到达时间差(TDOA)技术来量测目标位置。为了实现运动目标的三角定位,需要设置至少三个定位基站,包括一个主基站和两个辅助基站。同时,要求用户佩戴UWB无线定位标签。工作时,主基站接收其它辅基站和所有UWB无线标签的编码信号。此外,定位服务器计算从主站到辅助基站和移动标签的实时距离。因为两个辅助基站的位置是固定的,所以两个辅助基站被视为参考位置。最后,该方法使用三角测量297袁伟等:支持异地协同的虚拟消防演练系统以实时确定每个移动标签的空间坐标。在UWB定位的基站部署中(图4a),主基站的位置被定义为室内坐标系的原点。我们选取室内墙面与地面两侧的垂直交线分别作为X轴和Z轴,墙面垂直立面方向作为Y轴。在X轴和Z轴设置两个辅助基站,实现三角定位,均采用同一型号三脚架固定,保持相同高度。在精确测量两个辅助基站的位置坐标后,我们将该数据作为三角定位的条件参数。实验表明,采用三个基站可以满足室内50~ 100m2范围内对六个以上用户进行实时定位跟踪的要求。此外,可以通过增加辅助基站的数量来扩展运动跟踪的空间范围。图4(a)三个UWB基站的部署;(b)UWB位置数据的处理。针对UWB无线定位技术产生的跟踪数据抖动问题,采取措施获得稳定的定位数据。首先采用均值滤波算法对数据进行去噪;随后,在真实空间中获得稳定的实时位置并将其映射到虚拟空间。因此,共处一地的用户可以进行虚拟漫游。同时,该系统根据用户的实时位置和视点绘制场景,并采用多用户立体投影显示技术在同一屏幕上投影多幅图像。图4b描绘了UWB位置数据的处理。4.3 基于MEMS传感器的交互式设备模块在虚拟消防演习系统中,为了准确识别每个用户的瞄准信息,本文开发了基于MEMS传感器的交互工具[18],即模拟消防水枪。为了提高交互的逼真度,仿真消防水枪的外形与国内消防员使用的多功能可调流量水枪相似。通过CAD生成设备的3D模型,并通过3D打印生成实体外壳。模拟消防水枪采用ABS塑料制成,无毒无味,耐热性和耐冲击性好。图5为模拟消防水枪及其内部结构。图5仿真消防水枪及其内部结构。298虚拟现实智能硬件2019年11月第3图6为模拟消防水枪的结构示意图,包括控制器、MEMS传感器模块、消防设备开关按钮、水流变送器开关。这三个模块都是控制器的输入。MEMS传感器模块采集水枪的姿态数据并将其发送到控制器。水流传输开关和消防设备切换按钮也将相应的数据发送给控制器。控制器通过无线通信模块与服务器通信。图6模拟消防水枪的结构。模拟消防水枪[22]的电路设计是基于MEMS传感器的。微机电系统(MEMS)是由控制器、各种传感器和微能源组成的独立的高集成度智能系统。它也可以用于各种多功能系统。模拟消防水枪的控制器基于Arduino Nano单片机开发板,即入门级AVR(ATmega328)。它具有很高的性能价格比,良好的稳定性,并且不需要额外的电源。此外,它的Mini-type B USB接口允许它直接连接在面包板上进行编程,并且由于其体积小,它可以简单地集成到各种特殊的交互仿真工具中。无线通信模块采用2.4G或蓝牙,各有特点。2.4G无线通信方式将nRF24L01 +芯片集成在模拟消防水枪内部,价格便宜,使用方便,性价比高。通过2.4G无线传输技术,将模拟消防水枪的数据传输到接收器,接收器通过USB连接到服务器,并转换为TTL串行通信。只需一条数据线即可完成数据位的顺序传输,成本低,传输速度足够满足系统的实时性要求。蓝牙模式通过蓝牙模块实现无线通信,无需数据线,只需预先完成配对操作,实现简单。该模拟消防水枪通过内置的MPU 9150传感器芯片识别自身的姿态和指向数据。MPU 9150传感器包括三轴陀螺仪、三轴加速度计和三轴磁传感器,具有高稳定性和简单的电路实现。同时,它还能有效地减小陀螺仪的漂移误差。当用户手持模拟消防水枪时,可以执行两个主要的交互功能。首先是控制模拟的流动,包括流动的大小和方向。仿真水枪内置传感器,可实时获取自身姿态,控制虚拟水流方向。与实际水枪相似,虚拟场景中水流的开关和速度是通过推拉模拟水枪的摇杆来控制的。二是切换灭火器类型的功能。为了实现虚拟灭火的任务,需要预设三种灭火器(水灭火器、泡沫灭火器、干粉灭火器)供用户选择。用户可以通过操作水枪手柄上的按钮在虚拟场景中切换灭火器的类型,以匹配不同类型的虚拟火源。4.4 虚拟场景组合及控制台设备模块在这项研究中,开发了一个虚拟场景组件和控制台设备(图3b),用于远程控制,以实时监控和调整虚拟场景环境虚拟场景与虚拟交互过程299袁伟等:支持异地协同的虚拟消防演练系统每个用户的数据通过网络从协同定位的钻孔部分传送到远程控制部分。控制器通过相应的显示设备实时观察虚拟交互过程,改变虚拟场景的布局,切换视角,通过触摸屏交互或图像识别部分添加虚拟火源。随后,调整的结果通过网络传输回位于同一位置的钻部件,以实现交互过程的实时控制。在遥控部分,设置了两种显示设备,供控制者观察虚拟环境。第一个是全息投影显示屏,供控制器实时观察3D虚拟场景。全息投影屏是由两块玻璃以45°角相对而成。通过全息投影玻璃反射式液晶屏显示视图的三维虚拟场景,实现了全息投影显示效果。第二种是平板LCD触摸屏,从顶视图显示虚拟场景的2D图像,并通过多点触摸功能和图像识别调整虚拟场景的布局。为了使交互更加直观自然,设计了图像识别部分。令牌的位置和运动由工业相机拍摄和识别,虚拟和真实场景坐标的映射和转换使控制器能够通过定位和移动令牌来实时调整火源分布。为了保证识别的准确性和及时性,令牌应设计有特色和丰富的特征点结构。 同时,它们的颜色应该与背景形成强烈的对比,并包含复杂的线条,块或表面结构,以便于图像处理和识别。此外,我们还需要考虑代币的大小。如果令牌较大,虽然容易识别,但与当前场景的布局不匹配,影响整个场景的观看。在实验中发现,当用摄像头识别代币时,实际环境光照射对识别精度的影响很大。因此,在配置好环境后,通过工业摄像机对所有的代币逐一进行垂直拍摄,并将摄像机获得的每个代币的图像作为当前环境下的识别匹配模板。实验结果表明,该方法比原始数字图像具有更强的抗环境光干扰的能力。5 用户研究基于本文提出的支持异地协同的虚拟消防演习系统,我们招募了8名研究生分为两组,每组4人,并测试了系统的可用性。每组分为三个协同定位的用户和一个遥控器。测试任务如下:(1)三个同地用户自由移动,控制虚拟漫游,单独执行灭火任务;(2)控制器实时观察虚拟场景状态,添加火源;(3)三个同地用户协同灭火。测试任务完成后,实验者填写了一份关于系统可用性和流程体验的调查问卷。1- 7级代表符合程度由低到高。图7显示了统计分析的结果在系统可用性方面,整个系统,系统质量,信息质量,界面质量都在五级以上,达到了比较一致的标准。在心流体验方面[23],兴趣、满意度、行为意向、参与度的均值均在6级以上,符合基本标准。此外,用户的意见是,该系统具有良好的协作效果,它使执行消防任务更有趣。此外,控制器认为两种显示模式更直观。他不仅可以看到俯视图的场景,还可以看到立体效果的300虚拟现实智能硬件2019年11月第3图7统计分析的结果。(a)系统可用性;(b)流程体验。现场用户普遍认为该系统具有一定的应用价值。综上所述,本系统具有良好的易用性,协同定位意识强,提高了用户体验。6 结论 和 今后工作本研究提出一种支持协同定位的虚拟演练系统,该系统集成了多视角立体投影显示技术、UWB定位技术以及多种交互技术。并根据实际使用中遇到的问题对相关技术进行了改进。一个例子是UWB定位数据的滤波和模板法在图像识别中的使用。从而构建了具有一定应用价值的复杂协同交互系统。该系统采用多视点立体投影显示技术,实现了大屏幕投影环境下多用户协同工作。此外,通过结合UWB定位技术,它支持多用户自由移动,用户可以根据自己的位置观看独家立体视频。通过开发模拟交互工具,用户可以体验到更真实的体验。此外,遥控器可以通过两种方式与虚拟环境进行交互,使系统更加灵活。由于三个用户都在同一个投影屏幕前,可以看到对方,可以直接通过对话进行交流,有效提升了协同办公的真实感和体验感。此外,在系统中存在的两个角色,即:例如,共同的体验者和控制者,提高了用户的参与感和系统的灵活性。基于大屏幕立体的多用户协同工作环境本研究所提出的投影方法同样适用于外科、军事等领域的虚拟训练。此外,系统目前支持三个用户观看立体视频。未来可将两组投影仪阵列与光学偏振相结合,实现六个用户的可视化,从而实现用户容量的扩大。引用1关冬冬,孟晓旭,杨春玲,孙文生,魏永,盖文,边永林,刘建,孙庆华,赵世文.两种新颖的多用户沉浸式显示系统。2018 CHI Conference on Human Factors in Computing Systems会议论文集2018DOI:10.1145/3173574.31741732[10]李国忠,李国忠. VirCA NET:共享虚拟空间中协作的案例研究。2012年IEEE第三届认知信息通信国际会议(CogInfoCom)。Kosice,斯洛伐克,IEEE,2012DOI:10.1109/coginfocom.2012.64219933[10]杨文,李文. ImmersaDesk和无限墙投影为基础的虚拟现实显示.计算机图形学,1997,31(2):46DOI:10.1145/271283.271303301袁伟等:支持异地协同的虚拟消防演练系统4Simon A.基于投影的虚拟环境中协同定位交互的第一人称体验和可用性。ACM虚拟现实软件与技术研讨会论文集。Monterey,CA,USA,ACM,2005 DOI:10.1145/1101616.11016225[10]李晓,李晓,李晓.分享VR。在:2017年CHI计算机系统人为因素会议论文集,2017年DOI:10.1145/3025453.30256836陈伟Y,Ladeveze N,Clavel C,Mestre D,Bourdot P.用户在多立体沉浸式虚拟环境中共同居住,2015年IEEE虚拟现实(VR)。Arles,Camargue Provence,France,IEEE,2015 DOI:10.1109/vr.2015.72233237Chen W Y,Ladeveze N,Clavel C,Bourdot P.在多立体视觉沉浸式CVE中改变人类操纵杆用于用户同居的精细实验。2016年IEEE第三届VR国际协作虚拟环境研讨会(3DCVE)。Greenville,SC,USA,IEEE,2016DOI:10.1109/3dcve.2016.75635588余洪东,李宏宇,孙文生,盖伟,崔天亭,王长亭,关东东,杨永军,杨春林.双视角VR拍摄影院系统。第13届ACM SIGGRAPH虚拟现实连续体及其在工业中的应用国际会议。中国深圳,2014,223DOI:10.1145/2670473.26704979Agrawala M,Beers A C,McDowall I,Fröhlich B,Bolas M,Hanrahan P. The two-user responsive workbench.In:Proceedings of the 24th annual conference on Computer graphics and interactive techniques,1997,327-332DOI:10.1145/258734.25887510Kulik A,Kunert A,Beck S,Reichel R,Froehlich B. C1×6:用于协同定位协作的立体六用户显示器 在共享的虚拟环境中。ACM图形学报,2011,30:188DOI:10.1145/2070781.202422211Hegarty C J.全球定位系统//全球导航卫星系统施普林格手册。Cham:Springer International Publishing,2017:197DOI:10.1007/978-3-319-42928-1_712肖建华,刘志,杨勇,刘东,韩新.室内无线定位技术的比较与分析。2011年计算机科学与服务系统国际会议(CSSS)南京,中国,2011 DOI:10.1109/csss.2011.597208813Salous S,Ridene T,Newton J,Chendeb S.洞穴内四体跟踪模块的几何调度研究In:Sharkey P M,Pareto L,Broeren J,Rydmark M,eds.第10届国际残疾人大会论文集。虚拟现实和相关技术,2014年,36914Sevrin L,Noury N,Abouchi N,Jumel F,Massot B,Saraydaryan J.在活体实验室中进行多kinect轨迹融合算法的初步结果。IRBM,2015,36(6):361DOI:10.1016/j.irbm.2015.10.00315Mara J,Morgan S,Pumpa K,Thompson K.一种新的光学球员跟踪系统测量足球运动员位移的准确性和可靠性。国际体育计算机科学杂志,2017,16(3):175-184 DOI:10.1515/ijcss-2017-001316曾志勤,刘世,王伟,王玲。基于脚贴UWB/ IMU传感器融合的无障碍室内行人跟踪。2017第11届信号处理与通信系统国际会议(ICSPCS)Surfers Paradise,QLD,2017DOI:10.1109/icspcs.2017.827049217刘C。基于MEMS传感器的虚拟射击系统枪械设计。计算机仿真,2013,30(9):415418(中文)18秦平,杨春林,李宏宇,边永良,王庆昌,刘军,王永昌,孟晓湘.使用MEMS传感器的虚拟现实射击识别装置和系统。Journal of Computer Aided Design Computer Graphics,2017,29(11):208319林春,孙晓伟,岳春玲,杨春玲,盖伟,秦萍,刘军,孟晓旭。一种新型的三维虚拟环境协同构建平台。Procedia计算机科学,2018,129:270302虚拟现实智能硬件2019年11月第3DOI:10.1016/j.procs.2018.03.07520孙晓文,孟晓旭,王永芳,德梅洛,盖伟,史永林,赵丽,卞永林,刘健,杨春林。在移动设备上实现3D虚拟场景的参与式设计。在:第26届万维网伴侣国际会议的会议记录。2017DOI:10.1145/3041021.305417321Gai W,Lin C,Yang C L,BianY L,Shen C A,Meng X X,Wang L,Liu J,Dong M D,Niu C J. Supportingeasy physical-to-virtual creation of mobile VR maze games:a new genre. 2017 CHI Conference on Human Factors inComputing Systems(CHI计算机系统中的人为因素)科罗拉多州丹佛市,2017年,5016DOI:10.1145/3025453.302549422王全春基于仿真交互式灭火器的消防演习系统的设计与实现。济南:山东大学,201823卞燕玲,杨春玲,高凤琴,李海艳,周世生,李华春,孙晓文,孟晓翔.VR游戏中心流生理指标的框架:构建和初步评估。个人和普适计算,2016,20(5):821-
下载后可阅读完整内容,剩余1页未读,立即下载
cpongm
- 粉丝: 5
- 资源: 2万+
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- SSM动力电池数据管理系统源码及数据库详解
- R语言桑基图绘制与SCI图输入文件代码分析
- Linux下Sakagari Hurricane翻译工作:cpktools的使用教程
- prettybench: 让 Go 基准测试结果更易读
- Python官方文档查询库,提升开发效率与时间节约
- 基于Django的Python就业系统毕设源码
- 高并发下的SpringBoot与Nginx+Redis会话共享解决方案
- 构建问答游戏:Node.js与Express.js实战教程
- MATLAB在旅行商问题中的应用与优化方法研究
- OMAPL138 DSP平台UPP接口编程实践
- 杰克逊维尔非营利地基工程的VMS项目介绍
- 宠物猫企业网站模板PHP源码下载
- 52简易计算器源码解析与下载指南
- 探索Node.js v6.2.1 - 事件驱动的高性能Web服务器环境
- 找回WinSCP密码的神器:winscppasswd工具介绍
- xctools:解析Xcode命令行工具输出的Ruby库
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功