增强现实、人工智能、游戏化教育,这些机构都在借助科技手段造福视力障碍的儿童
对那些失明或是视力不佳的孩子来说,成长过程是非常不容易的,这不仅仅是因为他们无法和其他没有这些问题的同龄人阅读相同的书籍,或是玩同样的游戏,也因为这些障碍也会成为阻碍孩子们的社交和交流。而来自微软的一个研究项目希望能够通过增强现实技术(AR)来帮助视力受损的孩子解决上述的问题。
对于有视力障碍的人来说,挑战之一是他们无法看到周围的人,因为这会阻碍他们看到和他人对话过程中常使用到的非语言线索(比如动作),如果他们从小并不了解这些线索的话,尤其如此。
Project Tokyo是微软公司的一个旨在通过研究增强现实技术和人工智能技术在对所有人群适用的研究方向,同时也包括了残疾人群。但是情况并非总是如此,不过值得肯定的是,语音虚拟助手对于那些无法轻松使用触摸屏或是使用键盘或鼠标的人群来说的确是一大福音。
在多年前,微软的研究人员前往残疾人奥运会进行参观,观察这些人群的各种生活习惯,同时也举办了多场交流会。研究人员得出的一个结论是,一些微妙的信息是人们正常情况下沟通的必不可少的要素。但是微软的研究人员表示,作为人类,在理解如何与他人互动时会有一些非常微妙和复杂的社会关系要素,这可以让他们知道房间的人是谁,他们正在做什么,他们的关系是什么,并且还能够理解这些和自己是否有关系。但是对于盲人来说,很多这些我们理所当然的线索全部都消失了。
这些情况可能在孩子身上更为明显,因为他们可能从来没有学习过相关的行为线索,他们自己可能还会表现出一些自己的表达倾向,比如在谈话时把头放在桌子上,或者在说话时并不面向对方。
需要明确的是,这些行为本身并不是有问题的,因为这只是他们做了他们认为最正确的事情,但是这有可能会影响他们和其他人的日常关系,这是一个值得考虑的问题,即如何使这些关系对所有人都显得更加自然和容易。
Project Tokyo的解决方案中包括了一个经过优化的HoloLens,并且去掉了镜片。并且新的设备是一个高度复杂的成像设备,可以用于识别物体和人。
当用户戴上这个设备时就像戴上头带一样,通过定制的软件为他们提供上下文的内容线索。比如说,当设备检测到一个人时,比如说在右侧四英尺远的地方,耳机就会发出一声滴答声,声音听起来就像来自那个距离。
如果这个人是设备已知的,设备就会发出第二声“砰”的声音,并且还会念出这个人的名字(当然这个声音只有使用设备的人会听到)。当这个人是设备未知的或是看不清楚的,当用户调整他们的头部转向其他人的时候,设备则会发出一声长音。当对方的面部正对摄像机的正方时,即会结束,这意味着用户和对方是正视的状态。
我们之前曾经介绍过一款专为视力障碍孩子打造的游戏化学习产品ObjectiveEd。ObjectiveEd背后的理念则是既能帮助老师们教授基本技能,又能够借助平台记录和追踪学生的学习进度,并根据个人情况调整学习计划和课程。游戏要求学生们在一支大钢笔中找到一只动物,然后将动物拖向指定的方向。最简单的游戏难度是左右拖动,再难一点的是拖动到指定的方向,甚至是一些有度数的方向位置。
通过个性化学习计划,学生们会首先掌握理解左右方向,并利用90%的时间来完成这个任务。老师首先会介绍基本概念,并在每周的课程中与孩子们一起学习。整个课程的时间会持续一周左右,后台仪表板会显示每个孩子玩游戏的时间长度、频率以及他们完成任务的情况。
ObjectiveEd现在已经和几所盲人学校和社区建立了合作,共同开发这些教育类游戏产品。基于这些专家和教师们的经验和建议,ObjectiveEd开发了两款来教授iPhone手势操作和语音操作。这些孩子们需要知道如何使用这些功能,他们需要知道如何进行搜索,如果在看不到屏幕的情况下使用鼠标以及其他常见的操作。而这些任务完全可以通过游戏化的方式来学习。
另外,在2019年,乐高公司发布了乐高有声与盲文拼搭指南,利用人工智能技术让那些视力受损的人群更便捷地获得乐高玩乐体验。
Powered by Froala Editor