这就是为什么我们在犯了一些错误之后很难相信机器人
-
一项新的研究着眼于四种可能修复这种信任丧失造成的损害的策略——道歉、否认、解释和承诺可信度。
-
然而,结果表明,在犯了三个错误之后,这些策略都无法有效地完全修复人类对机器人的信任。
-
研究人员说,这意味着机器人没有机会从错误中吸取教训,这意味着人类可能会失去潜在的好处。
一项新研究表明,人类在犯了多次错误后对机器人的宽容度降低了,而且这种信任也很难恢复。
与人类同事类似,机器人也会犯下违反人类对它们信任的错误。当错误发生时,人类通常认为机器人不值得信任,这最终会降低他们对机器人的信任。
该研究考察了四种可能修复和减轻这些违反信任行为的负面影响的策略。这些信任策略是:道歉、否认、解释和承诺可信度。
研究人员进行了一项实验,其中240名参与者与机器人同事合作完成一项任务,其中有时机器人会犯错误。机器人违背了参与者的信任,然后提供了特定的修复策略。
结果表明,在犯了三个错误之后,没有一种修复策略能够完全修复可信度。
“到第三次违规时,机器人用来完全修复不信任的策略从未实现,”密歇根大学信息学院研究员、人类行为计算机研究的主要作者康纳·埃斯特伍德说。
埃斯特伍德和合著者、信息学教授莱昂内尔·罗伯特还指出,这项研究引入了宽恕、遗忘、告知和误导的理论。
研究结果有两个含义。埃斯特伍德说,研究人员必须制定更有效的修复策略,以帮助机器人在这些错误发生后更好地修复信任。此外,机器人在尝试修复人类对它们的信任之前,需要确保它们已经掌握了一项新任务。
“否则,它们可能会以无法挽回的方式失去人类对它们的信任,”埃斯特伍德说。
这些发现对人与人之间的信任修复意味着什么?研究人员说,道歉、否认、解释或承诺永远无法完全修复信任。
“我们的研究结果表明,在三次违规和修复之后,信任无法完全恢复,因此支持格言‘三次罢工’,”罗伯特说。“在这样做的过程中,它提出了关于何时可以完全恢复信任的可能存在的限制。”
Esterwood说,即使机器人在犯错误后可以做得更好并在错误之后适应,它也可能没有机会做得更好。因此,机器人的好处就失去了。
莱昂内尔指出,人们可能会试图绕过或绕过机器人,从而降低他们的表现。他说,这可能会导致性能问题,进而可能导致他们因缺乏性能和/或合规性而被解雇。
本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!