首页 > 要闻 > > 正文
2019-11-07 15:50:21

对于机器人 可靠性可能比推理更重要

导读 一个人信任机器人需要什么?这就是陆军研究人员在一项有关人与机器人如何协同工作的新研究中发现的东西。对人员代理团队或HAT的研究已经检查

一个人信任机器人需要什么?这就是陆军研究人员在一项有关人与机器人如何协同工作的新研究中发现的东西。

对人员代理团队或HAT的研究已经检查了人员的透明性(例如机器人,无人驾驶车辆或软件人员)如何影响人员的信任度,任务绩效,工作量和对人员的感知。代理透明性是指其向人类传达其意图,推理过程和未来计划的能力。

由陆军领导的新研究发现,即使机器人在推理过程中是透明的,但一旦犯错,人们对机器人的信心就会下降。论文“人机交互中的代理透明性和可靠性:对用户信心和感知可靠性的影响”已发表在8月刊的IEEE-Transactions on Human-Machine Systems上。

迄今为止,研究主要集中在具有完全可靠的智能代理的HAT上-这意味着代理不会犯错误-但这是探索代理透明性与代理可靠性如何相互作用的少数研究之一。在这项最新研究中,人类目睹了一个机器人犯了一个错误,并且研究人员关注了人类是否认为机器人的可靠性不高,即使向人类提供了对机器人推理过程的深刻见解。

“了解机器人的行为如何影响他们的人类队友,对于有效的人类机器人团队的发展以及团队成员之间的接口和交流方法的设计至关重要,”该项目的首席研究员兼研究员朱莉娅·赖特博士说。在美国陆军作战能力发展司令部的陆军研究实验室工作,也称为ARL。“这项研究有助于陆军的多域作战工作,以确保人工智能功能的超匹配。但这也是跨学科的,因为其发现将为心理学家,机器人手,工程师,

这项研究是ARL与中央佛罗里达大学模拟与培训学院的共同努力,也是由国防部长办公室的自治研究试点计划赞助的自治小队成员(ASM)项目的第三项也是最后一项研究。ASM是与步兵小队互动并与之通信的小型地面机器人。

先前的ASM研究调查了机器人如何与人类队友进行交流。使用基于情境感知的业务代表透明性模型作为指南,探索和测试了各种可视化方法来传达业务代表的目标,意图,推理,约束和预期结果。基于这些早期研究发现开发了一个概览的图像模块,然后将其用于后续研究中以探索HAT中药物透明性的功效。

研究人员在模拟环境中进行了这项研究,参与者在其中观察到了包括ASM在内的人为代理士兵小组,他们穿越了培训课程。参与者的任务是监视团队并评估机器人。士兵机器人团队在整个过程中遇到了各种事件,并做出了相应的回应。尽管士兵们总是对事件做出正确的反应,但有时机器人会误解了情况,从而导致错误的动作。两次试验之间,机器人共享的信息量各不相同。虽然机器人总是解释其动作,其动作背后的原因以及其动作的预期结果,但在某些试验中,该机器人还分享了其决策背后的理由,其基本逻辑。参与者查看了多个士兵机器人团队,

研究发现,无论机器人在解释其推理时是否透明,机器人的可靠性都是影响参与者对机器人未来可靠性的预测,对机器人的信任和对机器人的看法的最终决定因素。也就是说,在参与者看到错误之后,即使机器人没有随后发生任何错误,他们也继续将机器人的可靠性评为较低。只要机器人没有再犯任何错误,这些评估就会随着时间的推移而逐渐改善,但是与从未见过错误的参与者相比,在其余的试验中,参与者对自己对机器人可靠性的评估的信心仍然较低。此外,目睹机器人错误的参与者表示对机器人的信任度较低,

发现提高代理透明性可以提高参与者对机器人的信任,但是仅当机器人正在收集或过滤信息时才如此。赖特说,这可能表明共享深度信息可能会减轻自动化对特定任务不可靠的影响。此外,与可靠的机器人相比,与会人员对不可靠的机器人的动画,可爱,智能和安全性较低。

赖特说:“较早的研究表明,背景对于确定透明度信息的有用性至关重要。”“我们需要更好地了解哪些任务需要对代理人的推理进行更深入的了解,以及如何辨别该深度将意味着什么。未来的研究应探索根据任务要求提供透明信息的方法。”