人工智能声呐眼镜可识别唇语,准确率约为95%


(资料图片)

美国康奈尔大学研究人员开发了一款声呐眼镜,它通过声学感应和人工智能跟踪嘴唇和嘴巴的动作,可连续识别多达31条无声的命令,该系统可为那些暂时不方便说话或无法发声的人提供帮助。相关论文将在本月于德国汉堡举行的计算机协会计算系统人为因素会议上发表。

这款眼镜是一种名为EchoSpeech的无声语音识别接口。该眼镜配备了一对麦克风和比铅笔橡皮擦还小的扬声器,成为一个可穿戴的人工智能驱动的声呐系统,在面部发送和接收声波,并感知嘴巴的运动。然后,深度学习算法实时分析这些回声轮廓,准确率约为95%。这款低功耗、可穿戴的眼镜只需要几分钟的用户训练数据,即可识别命令并可在智能手机上运行。

EchoSpeech可用于在说话不方便或不合适的地方通过智能手机与他人交流,比如在嘈杂的餐厅或安静的图书馆里。无声语音界面还可与触笔配对,并与CAD等设计软件一起使用,几乎不需要键盘和鼠标。

研究人员表示,他们正在将声呐技术“搬”到人体上。它体积小、功耗低、对隐私敏感,这些都是在现实世界中部署新的可穿戴技术的重要功能。无声语音识别中的大多数技术都局限于一组选定的预定命令,需要用户面部或佩戴摄像头,这既不实用也不可行。可穿戴式摄像头也存在重大的隐私问题,对用户和与之互动的人来说都是如此。而像EchoSpeech这样的声学传感技术消除了对可穿戴式摄像机的需求。

此外,由于音频数据比图像或视频数据小得多,因此EchoSpeech只需更小的带宽,通过蓝牙实时传输到智能手机上,且数据在本地,不在云端,确保了敏感隐私信息安全。

今年以来,人工智能再次引发极大关注。几年前,专家们还在探讨如何让人工智能更加准确地理解人的意图,并与人进行多轮对话。曾经,让人工智能读懂唇语,还只是科幻电影中的桥段。如今,这些都在快速变为现实。面对人工智能带来的超乎预期的变化,不能停留在“看热闹”阶段,人们需要真正去思考,如何更好地主宰人工智能,利用它为人类造福,并尽量规避它可能带来的麻烦。

关键词: