人机交互技术最新发展研究

(整期优先)网络出版时间:2024-07-03
/ 3

人机交互技术最新发展研究

赵维

上海市静安区,92728部队,200436

摘  要:人机交互设备用于实现人与计算机的交互,是决定模拟器、游戏等使用逼真度的关键要素。本文首先系统地介绍了语音、体感、眼动、面部表情、气味、味觉、生理参数等自然输入技术最新发展;其次研究了裸眼3D显示、触觉反馈、力反馈、过载输出、气味合成等人机输出技术最新研究成果;最后分析了人机交互设备后续发展需求,可为游戏和VR开发人员提供参考。

关键词:人机交互;输入设备;输出设备;虚拟现实

中图分类号:TP391.9      文献标识码:A      文章编号:1004-731X (2009) 17-

1


0 引  言[1]

人机交互设备是实现人与计算机数据交互的设备,鼠标、键盘、显示器等是最传统的人机交互设备;后来又出现了机器视觉、立体显示、力反馈等自然人机交互技术。本文针对视觉、听觉、触觉、嗅觉和味觉五种感官,研究相关人机交互技术的最新发展。

1 输入技术发展现状

1.1键鼠输入技术

目前出现了一些多功能的鼠标、键盘,通过集成了触摸板、陀螺仪、加速度计、红外发射等模块,为鼠标、键盘增加遥控、语音识别、翻译等功能。

1.2传统手柄输入技术

按键手柄、方向盘、摇杆等都属于传统手柄。目前出现了一些新原理的摇杆,文献2中设计了一种可穿戴式摇杆,在手套的袖口嵌入1块磁铁,磁感应垫上有4个磁传感器,通过测量磁通量密度变化计算到手腕的运动情况,实现控制功能[1]

1.3 语音控制技术

目前语音识别准确率大幅提升,在人工耳蜗、智能家电、机器人等方面广泛应用。有团队正在研究无声语音识别技术,可从面部和颈部肌肉记录的表面肌电信号中识别无声口语,有望在喉切除术后有语言障碍的人群、隐私通讯等领域得到应用。目前重点在利用神经网络、深度学习等模型,提高在嘈杂环境中语音识别率[2][3]

1.4位置跟踪技术

传统电磁式、光学式等位置跟踪技术采用“outside-in”方式,技术上各有不足。微软在Hololens中首次采用了“inside-out”方式,在眼镜上使用多个环境摄像头和深度摄像头实现位置跟踪。美国Eonite公司实现了一种名为Vantage Head Tracker的inside-out定位技术,利用消费级深度传感器和标准处理器,实现15毫秒内的极低延时、亚毫米级的精度[4]。IndoTraq公司开发了目前最快的HSKT无线跟踪系统,该系统综合使用惯性测量单元和超宽带无线射频信号,定位精度优于5毫米,延时小于10毫秒[5]

1.5体感控制技术

1.5.1手势控制技术

(1)基于机器视觉的手势控制技术

基于机器视觉的手势控制已手机、汽车车机等得到广泛应用,HoloLens2等AR眼镜也通过摄像头提供手势识别功能。

(2)基于数据手套的手势控制技术

早期数据手套主要采用光纤传感器测量手指的弯曲情况,结合位置跟踪器实现手势识别。目前已出现集成惯性传感器的数据手套,如Noitom Hi5,结合光学定位追踪器实现对手指动作和手势的精确识别,提供震动反馈和无线数据传输功能[6]

(3)基于无线电的手势识别技术

近年来不少团队开始研究Wi-Fi、蓝牙、UWB、ZigBee、雷达等在手势识别中的应用,并已取得很多突破性成果,尤其是基于WIFI信号的手势识别具有很广的应用前景。

1.5.2行走控制技术

行走控制技术主要由操作者采用行走、跑步等方式实现在虚拟场景中的漫游控制,目前已出现多种产品,如Omni万向跑步机、HTC VR行走平台等;最新出现的镜像对称链全向跑步机,由两个相同的伺服电机驱动,提供全方位的自由度和真实的原地行走体验。

1.5.3 手部体感控制技术

手部体感控制设备目前在游戏中使用非常普遍,目前比较常见的体感控制设备有HTC VIVE体感枪和体感手柄等。

1.5.4全身体感控制技术

(1)体感摄像机

目前主要有微软的Kinect2、Intel Realsense D400系列深度相机等,通过内置不少于1个红外发射器、2个红外摄像头,采用红外结构光深度测距技术,实现对人体全身动作的跟踪与识别。

(2)全身动作捕捉系统

目前有专业的Xsens MVN高精度惯性动作捕捉系统、Teslasuit VR触觉动作捕捉服等,操作者通过穿着携带众多传感器、视觉标识物的紧身式动作捕获服,实现对全身动作的精确跟踪和识别。

1.6眼动跟踪技术

眼动跟踪技术目前在AR眼镜、飞行员头瞄系统等使用广泛,当获取到用户当前注视对象后,系统可以向用户显示该对象相关的提示信息和操作选项。目前市面上已有多种眼动跟踪产品,如EX150眼动仪、Tobii Glasses3眼动仪等,HTC VIVE Pro eye VR头盔显示器等也集成了眼动跟踪功能[7]

1.7面部表情识别技术

目前市面上已有商业化的面部表情识别产品,如北京心拓英启公司的FACESO面部表情识别系统、Faceware面部表情捕捉系统等,可以应用于广告、仿真系统、测慌仪等领域。

1.8气味识别技术

目前嗅觉和味觉模拟技术研究进展相对较慢,出现了少量气体传感器产品,如合肥微纳的MEMS气体传感器、德国AIRSENSE-PEN3电子鼻、美国SuperNose-28电子鼻等,可用于探测爆炸物和毒品等;后续机器人、智能家电等都对气体传感器提出了广泛的应用需求。

1.9味觉侦测技术

目前日本、韩国、美国、德国等已在味觉侦测领域取得技术突破,出现了TS-5000Z电子舌、Super Tongue电子舌等,能完成苦味、涩味、酸味、咸味、鲜味、甜味等基本味觉感觉指标的客观测量,可以用于食品、药品的研发、打假等。

1.10生理参数监测技术

生理、脑电、眼电等参数也日渐成为一种先进的人机输入手段,如芬兰NeurOne高精度脑电测量系统,美国加州大学的脑电波合成语音技术;出现了使用脑电、眼电控制假肢的技术,基于脑电的疲劳监测系统等[8]

图13 NeurOne高精度脑电测量系统

2 输出技术发展现状

2.1裸眼3D显示技术

全息显示技术目前是最成熟的裸眼3D显示技术,主要产品有全息显示柜、全息显示风扇和全息投影技术,在博物馆、模拟器等、广告等领域应用,其优点是立体显示效果好、稳定可靠、无需配戴立体眼镜。

2.2 VR头盔显示器

目前已出现大量消费级的VR头盔显示器,一般自带穿戴式计算机,使用WiFi进行数据通讯,自带惯性定位器和电源,大幅提高了使用舒适性和便利性;双眼分辨率最高已达4896×2448、视场角达120度,少量产品集成了眼动追踪功能。

2.3 AR眼镜

目前最具代表性的AR眼镜为Magic Leap One和Hololens2,其中Hololens采用二维显示器,视角约40度;而Magic Leap One采用光纤向视网膜直接投射整个数字光场,可产生电影级的真实效果,技术上更先进。

2.4触觉反馈技术

目前有较多成熟的产品,如Manus VR Prime II Haptic触觉反馈数据手套,有柔性传感器和惯性测量单元,当与各种虚拟对象交互时,可提供独特的触觉反馈[9]

图20 Manus VR Prime II Haptic触觉反馈数据手套

2.5力反馈技术

力反馈技术目前主要在飞行摇杆、游戏杆等方得到应用;也有功能单一的力反馈设备,如3Dsystems Touch力反馈设备、Geomagic Touch X力反馈设备等。

2.6过载输出技术

对于飞行模拟器、航天员训练模拟器等,需要对过载进行模拟,才能使受训人员获得更真实的体感。载人离心机可以根据计算机仿真系统的指令,模拟出指定大小和方向的飞行过载,已出现六自由度的持续过载模拟器产品,如各种载人离心机。

2.7六自由度运动平台

早期的六自由度平台主要采用液压驱动,存在可靠性低、维护保养难度大等问题。近年来纯电六自由度平台已相对成熟,价格降低、体积更小,在各类仿真系统和游戏中得到大量应用。

2.8气味合成技术

嗅觉、味觉人机交互输出设备的研制进展缓慢,出现了气味电子化合成的初步技术,如日本东京农工大学研制了一种嗅觉屏幕,该屏幕可以散发出与所需气味,还可以调节气流强弱和方向[10]

3后续发展需求

(1)进一步提升小型化、集成化和舒适性水平。

(2)深化体感真实性仿真技术研究。

(3)加大嗅觉、味觉合成技术研究。

4 结论

本文介绍了语音、体感、眼动、表情、气味、味觉、生理参数等输入技术最新发展;研究了裸眼3D显示、AR眼镜、触觉反馈、力反馈、过载输出、气味合成等人机输出技术最新研究成果和产品;并分析了后续发展需求,研究成果可为模拟训练、游戏等开发人员提供重要的参考和借鉴。

参考文献

[1]Jaewook Bae, Richard M. Voyles.Wearable joystick for gloves-on human/computer interaction[J].Proc. SPIE 6230, Unmanned Systems Technology VIII, 62300N (9 May 2006):1-11.

[2]Geoffrey S Meltzner, James T Heaton, Yunbin Deng.Development of sEMG sensors and algorithms for silent speech recognition[J].Journal of Neural Engineering.2018.5,15(4)1-30

[3]Titouan Parcollet1, Xinchi Qiu1, Nicholas Lane.FusionRNN: Shared Neural Parameters for Multi-Channel Distant Speech Recognition[C]. Proc. Interspeech 2020: 1678-1682

[4]https://www.uploadvr.com/eonitte-bringing-inside-tracking-vr-headset/

[5]https://indotraq.com/?page_id=782

[6]http://www.noitom.com.cn/mobile/hi5-vr-glove.html

[7]林敏.基于眼动信息的人机交互关键技术研究[D].上海大学.2014: 11~16

[8]瞿军.基于生物电信号的人机交互技术及其在虚拟现实中的应用研究[D].华南理工大学.2019:1~15

[9]https://manus-vr.com/legacy-products/prime-ii-haptic

[10]吴新丽,杨文珍,余岭等.虚拟嗅觉气味生成装置的研究进展[J].系统仿真学报.2014.9,22(9):1882~1888

1


1