这段时间AIGC发展迅速,不难预见,未来我们的生活工作将会越来越依赖各种机器人或AI工具。但是问题来了,人类会犯错,机器人也会。当这些机器人反复出错时,我们还能像现在一样信任它们吗?今年《Computers in Human Behavior》上刊登了一篇关于人类对机器人信任度的文章。研究人员开展了一项涉及240名参与者的实验,每个参与者会与一个机器人配对完成任务。每当机器人出错时,机器人就会采用道歉、否认、解释或承诺其中一项策略来试图挽回人类的信任。结果发现,当机器人出错达到三次时,不管用什么策略都无法让参与者再完全信任它。看来那句老话「事不过三」多少还是有些道理的。对于开发者来说这个研究结果的意义可能在于,要关注机器人出错后对人类用户的信任管理。但对于普通大众来说,我们或许也能从中获得一些关于人与人之间信任关系的启发——一旦信任关系被多次破坏,无论采用怎样的策略可能都难以完全弥补。
领取专属 10元无门槛券
私享最新 技术干货