研讨称人类过度信赖AI 存亡选择中的惊人顺从
文章最后更新时间:2024年09月11日
一项由加州大学默塞德分校展开的研讨提示,约67%的参与者在模仿存亡决议计划过程中,乐意让机器人改动他们开始的挑选,即使机器人的主张或许是随机且过错的。该研讨发表于《Scientific Reports》杂志,题为“Overtrust in AI Recommendations About Whether or Not to Kill: Evidence from Two Human-Robot Interaction Studies”。通讯作者Colin Holbrook教授正告,社会应警觉过度信赖人工智能或许带来的危险,特别是在存亡攸关的决议计划上,着重保持理性的质疑情绪至关重要。
研讨触及两项试验,参与者需对快速闪现的方针图片判别敌友,并决议是否发射导弹进犯。试验增加了难度,保证判别具有挑战性。在参与者作出决议计划后,机器人会提出定见,有时甚至会坚持与参与者不同的观点。成果显现,不管机器人形状怎么,其影响导致约三分之二的参与者改动主见,特别当机器人具有人类特征时,这种影响更为明显。当机器人赞同参与者的初始决议计划时,后者则简直无一例外地坚持原判,信心倍增。
研讨团队事先向参与者展现了无人机误击形成的布衣伤亡图片,着重模仿的真实性及防止误伤的必要性。后续的反应证明,参与者认真对待每一个决议,突显出在寻求精确判别、防止损伤的真挚意图下,对AI的过度信赖现象依然存在。
Holbrook教授指出,该研讨触及更广泛的议题,不只限于军事决议计划,还相关到法律、医疗紧迫处理等关乎存亡的场景,甚至日常日子中的严重决议计划,如购房挑选。他着重,这是关于在不确定性高危险情境下,对不完全牢靠AI的信赖评论。跟着人工智能在日子中的人物日益重要,Holbrook提示,虽然AI技能获得明显发展,其“才智”缺少品德原则和全面的世界观了解,每次授权AI介入日子某方面时,都应审慎考虑其才能限制。大众关于人工智能的信赖度及其在社会中的人物,成为亟待深化评论的论题。
发表评论