北卡罗来纳州立大学的研究将计算机视觉融入机械假肢

435
0
2020年6月23日 11时28分

原作者:The Robot Report Staff
文章来源:The Robot Report
编译:沈永强

 

北卡罗来纳州立大学的研究将计算机视觉融入机械假肢插图

                                               图源:北卡罗来纳州立大学埃德加·洛巴顿

 

成像设备为机械假肢提供了环境情境。(a)使用Tobii Pro Glasses 2眼动仪进行眼镜配置。(b)下肢数据采集装置。(c)和(d)两种配置的相机示例帧。(e)和(f)实验环境和地形的示例图像。

 

由于仿生肢通常不能像正常的手臂或腿那样依靠肌肉收缩或神经冲动来运动,因此他们需要人工智能的指导。北卡罗来纳州立大学的研究人员说,他们已经开发出一种软件,可以与现有的机械假肢或外骨骼协同工作,帮助人们在各种地形上更自然、更安全地行走。

 

新的软件框架将计算机视觉融入到假肢控制中,并且包括强大的AI算法,可以更好地解决不确定性问题。

 

“下肢机械假肢需要根据用户所处的地形来执行不同的行为,”这项研究的论文合著者,北卡罗来纳州立大学电气与计算机工程副教授Edgar Lobaton说。

 

“我们创建的框架允许AI在机械假肢中预测用户将要踏上的地形类型,量化与预测相关的不确定性,然后将不确定性纳入其决策。”

 

为机械假肢开发“环境情境”

 

研究人员重点区分了六种需要调整机械假肢行为的不同地形:瓷砖、砖块、混凝土、草地、“楼上”和“楼下”。

 

“如果不确定性程度过高,AI就不会被迫做出一个有问题的决定——它可能会通知用户它对自己的预测没有足够的信心去采取行动,或者它可能会默认为‘安全’模式,”该论文的主要作者,北卡罗来纳州立大学的Boxuan Zhong博士说道。

 

新的“环境情境”框架结合了硬件和软件元素。研究人员设计了该框架,使其可以与任何下肢机器人外骨骼或机械假肢设备一起使用,但需要一个额外的硬件:摄像头。

 

在他们的研究中,研究人员使用了戴在眼镜上的摄像头和安装在下肢假体上的摄像头。研究人员评估了AI如何分别使用和同时使用两种摄像头的计算机视觉数据。

 

该论文的合著者Helen Huang说:“将计算机视觉融入可穿戴机器人的控制软件是一个令人兴奋的新研究领域。我们发现,使用这两个摄像头效果都很好,但需要很大的计算能力,而且成本可能很高。不过,我们还发现,仅使用安装在下肢的摄像头效果相当好,尤其是对于短期预测,例如下一两步的地形情况。”  Huang还是北卡罗来纳州立大学/北卡罗来纳大学教堂山分校联合生物医学工程系、获评Jackson Family的生物医学工程杰出教授。

 

控制模型可能有助于其他深度学习应用

 

控制模型最显著的进步可能是它在整个AI中的相关性。

 

Lobaton说:“我们想出了一种更好的方法来教深度学习系统如何评估和量化不确定性,从而使系统将不确定性纳入其决策。这当然与机械假肢有关,但是我们在这里的工作可以应用于任何类型的深度学习系统。”

 

为了训练AI系统,研究人员将摄像头连接到身体健全的人身上,这些人随后在各种室内和室外环境中行走。然后,研究人员通过让下肢截肢的人在穿越相同环境时携带摄像头进行概念验证评估。

 

“我们发现模型可以适当地转移,因此系统可以处理来自不同人群的对象,”洛巴顿说。“这意味着即使该AI系统由一组人训练并且被其他人使用,它也能很好地工作。”

 

新框架仍然需要在机械假肢上进行测试

 

但是,新框架尚未在机器人装置上进行测试。Huang表示:“我们很高兴能将这个框架融入机械假肢的控制系统中——这是下一步。”

 

Zhong表示:“我们还计划设法提高系统的效率,减少视觉数据输入和数据处理。”

 

论文“具有不确定性量化的下肢假肢的环境情境预测”(“Environmental Context Prediction for Lower Limb Prostheses with Uncertainty Quantification”)已发表在《IEEE自动化科学与工程学报》(IEEE Transactions on Automation Science and Engineering)上。

 

这篇论文由北卡罗来纳州立大学博士生拉斐尔·达·席尔瓦和联合生物医学工程系博士生Minhan Li共同撰写。

 

论文地址:https://ieeexplore.ieee.org/document/9098903

 

本文系古月居编译作品,如需转载请注明出处。

发表评论

后才能评论