还剩2页未读,继续阅读
文本内容:
智能作品分享眼控输入系统视频占位眼控输入系统演示视频作品档案眼控输入系统,是一个借助眼动追踪技术进行信息输入的非接触式交互系统作品使用Tobii眼动仪、ArduinoMega2560i控板及相关模块,结合3D打印、激光切割等技术制作完成作者杨一墨同学来自邯郸市汉光中学,作品完成于2020年,在当年河北省学生信息素养提升实践活动中,荣获人工智能竞赛初中组一等奖,并参与了全国信息素养提升实践活动的交流(所有内容根据作者参赛时提交的资料进行了删减和整理)[创意来源]制作本作品的主要原因有两个一是2019年央视新闻频道有一条关于“智能门锁风险监测”的新闻报道,新闻中关于指纹开锁和人脸开锁的检测结果很不乐观,特别是人脸开锁的样品不合格率达到100%并且都属于高端产品一张打印的人脸图片就可以轻松把门打开,实在令人有些担忧新闻视频截图通过查询,我了解到智能门锁的安全性还有待提升,被舆论热捧的人脸识别技术也还有很大的进步空间,开发人员在人脸特征提取和活体检测等方面还在不断努力二是2020年新冠疫情的爆发,人们对公共空间的卫生变得异常敏感,小区电梯、ATM柜员机等公共设施每天都要进行若干次的消毒,即使这样也常看到人们在使用公共设备时会再垫上一张纸疫情下的电梯间这时我就想,如果有一种技术既能进行密码、身份验证,又能进行信息的输入与选择,同时还可以实现非接触操作,那该多好呀!于是,眼动追踪技术进入了我的视野![设计思路及问题]关于眼动跟踪的研究已经有几十年的历史了,一般通过叫“角膜反射法”的方法来获得人眼的注视点,完成与现实世界的交互大体实现过程为摄像头采集图像,在图像中捕捉到人脸区域,进而获取人眼和瞳孔的坐标同时利用摄像头附近的红外LED发出红外光,这会在人的眼球上留下一个对应的光点最后综合人眼瞳孔中心坐标、红外光点坐标、人的头部姿态坐标以及摄像头位置等参数,估计出人眼的注视点要想从头实现此功能,对于一个初中生来说实在是“不可能完成的任务”所以我把视线转向了现成的传感器一一眼动仪,这样制作难度就大大降低了眼动仪眼动仪可以较精确的得出人眼在某一平面注视点的坐标,使用中不受头部位置、角度以及照明条件的影响,这给用户操作的精度提供了保障眼动仪返回的只是某一时刻用户的注视点坐标,但用户的操作意图并不能直接获得读取到注视点数据后,还需要用程序来判断用户何时要用眼睛“按”下某一“按钮(虚拟的)”进行操作程序的大体思路是循环读取眼动仪返回的人眼注视点坐标数据,当人眼的注视点停留在某一个小区域内达到一定时长,就判断人眼对这一点进行了凝视操作,进而触发进一步动作如此往复,实现眼控非接触交互4人5帧注视点坐标分析图通过对数据进行分析,发现人眼凝视某一点时,数据会有小范围波动,眨眼等其它因素还会引起数据瞬间突变,这些异常的数据我在程序中直接进行了丢弃处理不同人注视同一点时,数据也会有差距,通过事先存储某人注视指定点的数据,并在验证阶段进行比对,解决了这个问题对于凝视时长阈值的确定,在制作过程中也经过了多人反复地测试,最终效果还比较满意[后记]从萌发创意到作品基本成形,整个过程断断续续地花了将近一年的时间,遇到问题暂时找不到解决方案的苦恼和数据调通后的喜悦我都经历过,这也许就是那句“痛并快乐着”的真正含义吧!对于作品来说,还有太多不足,还需要再进行修改、完善眼控技术也不是一种孤立的技术,如果能与人脸识别等技术相结合,一定会有更多的可能性HeikoDrewes在《实感交互》一书中曾提到,随着技术的不断发展,在设备上集成眼动追踪功能的成本将会越来越低希望在不久的将来,可以看到眼控技术在我们周围大范围地应用起来,为人们的生活带来更多的便利!也希望疫情能够早点儿结束,大家恢复正常的学习、工作和生活!整理杨畔。