你的位置:首页 >> 产品展示 >> 表面肌电传感器系统 >> 运动捕捉系统  运动捕捉系统
Tobii VR虚拟现实眼动仪
来源:delsys表面肌电脑电分析系统_EMG_EEG_人因工程 | 发布时间:2023/6/29 19:32:48 | 浏览次数:

Tobii VR虚拟现实眼动仪
产品型号:Tobii VR虚拟现实眼动仪
类   型:眼动追踪系统
描   述:Tobii Pro VR虚拟现实眼动仪将眼动追踪与VR结合,在完全受控的实验设计环境中开展眼动行为研究!
   咨询报价预约体验
产品概述
规格参数
相关产品
视频资料
资料下载
一、产品概述:

Tobii Pro VR虚拟现实眼动仪将眼动追踪与VR结合,在完全受控的实验设计环境中开展眼动行为研究!

 

 

Tobii Pro VR虚拟现实眼动仪通过红外光反射原理,测量眼睛的注视点位置或者眼球相对头部的运动而实现对眼球运动的追踪,进而分析视觉加工特征。Tobii Pro VR虚拟现实眼动仪采用高精度的眼动追踪元件同步记录个体的眼动轨迹、视线变化、眼动状态等数据,在多种视觉刺激和环境下开展人类行为研究。可执行对眼动数据质量要求较高的定量与定性研究,满足各类不同的研究需要。同步记录如眼部或头部3D空间位置、注视时间、瞳孔大小、眨眼次数、眼跳、眼睑闭合度等数据,发现能够吸引人们注意力的因素,了解人们感知其周围事物的视觉方式以及驱使人们作出决策的因素,捕获不受被试者或主试者意识影响的自然反应,并将这些自然反应实时记录与反馈。

二、产品特点

●虚拟环境下的眼动追踪

通过将眼动追踪与 VR 相结合,可以使研究环境完全受控并准确了解操作者每一刻的视觉注意信息。可以按研究需要创建任何模拟环境,研究场景可重复利用,经济且高效。

●增强虚拟环境体验

在虚拟环境中通过凝视实现更自然的互动,揭示在无限数量的假设情景中驱动人类行为反应的诸多因素。

●稳定、高性能的数据采集

系统为120Hz采样率,采用先进的滑移补偿技术可在头戴模块发生偏移时确保数据的准确性和校准的有效性,允许在不影响眼动数据质量的前提下获得最大的自由度,且适用于大多数的测试群体,包括佩戴眼镜者。

●支持多种实验刺激材料

包括360°图片和视频,以及3D模型作为刺激材料,,同时支持在Unity 3D环境下进行眼动数据采集与回放,提供了可应用于广泛的人类行为研究的眼动数据与交互行为自动可视化与分析工具。

三、功能应用

硬件无缝集成
Tobii Pro VR眼动仪是对HTC Vive头戴模块的加装。眼动追踪模块隐藏在镜片后,使其不影响正常的VR体验。眼动数据通过具有专利的Tobii Eye Chip芯片来处理,使CPU负载降到最低。眼动数据通过标准的HTC Vive线缆传输,无需任何外置线缆。
 
VR环境下的眼动追踪分析
Tobii Pro VR Analytics数据分析工具支持在Unity 3D环境下的眼动数据采集与回放。同时提供了可应用于广泛的人类行为研究的眼动数据与交互行为自动可视化与分析工具。
 

Tobii Pro VR眼动仪允许研究人员在完全受控的虚拟环境中执行眼动研究,可方便地重复利用研究场景和刺激物,同时保持眼动数据的采集,完全不会影响VR的体验。眼动追踪与沉浸式VR结合将为研究执行的方式带来转变并为专业研究领域带来了新的可能性。

 

VR环境中的眼动研究

Tobii Pro VR眼动仪允许研究人员在完全受控的虚拟环境中执行眼动研究,可方便地重复利用研究场景和刺激物,同时保持眼动数据的采集,完全不会影响VR的体验。该研究工具能够提供高质量的眼动数据,可有效追踪绝大多数的被试人群。

眼动追踪与沉浸式VR结合将为研究执行的方式带来转变并为专业研究领域带来了新的可能性,如心理学,消费行为研究,培训和效能评估。

 

可创建环境中所有元素的可视化结果,并支持按单个或多个被试者来查看,包括:

热点图与透视图,可展示出不同目标元素之间的视觉注意分配情况以及被试者们在每个目标元素上的视觉停留时间。

彩色显示的视线向量,揭示被试者在3D环境中到的目标物的视线,帮您了解视觉注意的焦点所在。

彩色显示的每名被试者在测试过程中的移动路径,展示出被试者在VR环境中的行走路线,用于导航和寻路应用情境下的运动行为分析。

 

眼动追踪数据分析

眼动追踪统计指标可自动计算得出并适用于虚拟现实环境中的所有被试者。这些指标包括:

注视点数量统计 - 那些目标被看到了?

注视点的总共与平均停留时间 - 视线在目标停留了多久?

首次进入时间 - 第一次看到目标用了多久?

 

交互行为数据分析

Tobii Pro VR Analytics分析工具还可对Unity环境中的交互数据进行衡量,包括:

拾起次数统计 - 与某个目标进行的首次交互

首次拾起时间 - 第一次与某个目标产生交互行为所用的时间

握持时间 (总持续时间) - 与目标交互的持续时间

从看到到拾起的时间 - 第一次看到某个目标到与该目标产生交互行为所用的时间

所有眼动追踪和交互行为的统计指标都可以在软件中实时获得并支持单个被试一或多被试的叠加。

四、技术参数

眼动数据输出频率

双眼120 Hz

准确度

0.5°

校准

5 点

眼动追踪范围

110°

红外光源数量

每只眼睛10个

眼动追踪传感器

每只眼睛1个

瞳孔测量

支持,相对测量

眼动追踪技术

双眼暗瞳追踪

滑移补偿

自动

延迟

约10ms (从眼球图像曝光至数据传输到客户端界面)

数据输出 (每只眼睛)

时间戳(设备与系统时钟)

视线坐标

视线方向

瞳孔位置

相对瞳孔尺寸

3D引擎兼容性

Unity

硬件集成

HTC Vive标准版与Tobii眼动追踪深度集成定制硬件- 无任何外置设备或线缆*

接口

Tobii Pro SDK (.Net/Matlab/Python/C)

 
五、同步方案

瑞典Tobii全系列近红外脑功能成像系统通过结合ErgoLAB人机环境同步云平台可以实现在不同实验环境条件下对智能化人机系统进行主观和客观定量的人机交互测试、人因与工效学分析与评价:通过ErgoLAB人机环境同步云平台与广泛的数据同步,将近红外脑成像数据与广泛的数据同步,包括常用的生理数据GSR皮肤电,呼吸和心率等、EEG脑电,眼动、fNIRS近红外脑成像,人体动作,行为观察、面部表情、生物力学、人机交互。实现极低延迟的同步水平同时确保您的整体方案的便携性。

 

数据分析平台:如果研究人员希望得到比实时观察更深入、全面的结论, ErgoLAB平台可提供数据后期分析的强大工具。

 

ErgoLAB人机环境同步云平台综合统计分析模块包含多维度人-机-环境数据综合分析、EEG脑电分析与可视化、眼动分析与可视化、行为观察实时编码分析、面部表情分析与状态识别、动作姿态伤害评估与工效学分析、交互行为分析(ErgoLAB/ErgoVR人机交互测试版本)、时空行为分析、车辆与驾驶行为分析(ErgoLAB驾驶版本)、HRV心率变异性分析、EDA/GSR皮电分析、RESP呼吸分析、EMG肌电分析、General通用信号分析(如TEMP/SKT皮温/体温分析、EOG眼电分析以及其他环境与生物力学信号分析)。系统具备专门的信号处理模块以及开放式信号处理接口,可以直接导出可视化分析报告以及原始数据,支持第三方集成与定制开发。 苏州长显 www.iot80.cn   技提供定制开发服务,与人因工程与工效学分析评价领域相关的算法模型、软硬件产品与技术可深入研发,详情咨询 苏州长显 www.iot80.cn   技!

 六、厂家介绍

北京 苏州长显 www.iot80.cn   技股份有限公司是国家级高新技术企业、科技部认定的科技型中小企业和中关村高新技术企业,具备军工国防武器装备科研生产保密资质,具备自主进出口经营权;自主研发的人因工程与工效学相关技术、产品与服务荣获多项省部级科学技术奖励、国家发明专利、国家软件著作权和省部级新技术新产品(服务)认证;通过了欧洲 CE、美国 FCC、欧盟 RoHS、ISO9001、ISO14001、OHSAS18001 等多项国际认证和国家防爆认证。

 苏州长显 www.iot80.cn   技设立人因工程专业的学术科研团队、技术团队及研发团队,并通过多年与科研机构及高校的产学研合作,积累了人因与工效学领域多项核心技术,以及基于机器学习等人工智能算法的状态识别和人机工效评价技术与研究方法等,是国内领先的人因工程技术创新中心! 苏州长显 www.iot80.cn   技技术与科研团队提供全方位的技术支持及学术服务,从实验室建设的规划与布局,到技术与学术培训与指导,全方位多角度提供实验室建设全生命周期的服务。

 
TAG:
打印本页 || 关闭窗口
 上一篇:Tobii F250遥测式眼动仪
 下一篇:Tobii 移动设备