本期,HAI研究兴趣小组成员-聂玉杰,为大家研读分享Transportation research part A: policy and practice期刊发表的一篇相关论文《Public perception of autonomous vehicle capability determines judgment of blame and trust in road traffic accidents》。该文通过两项实验,系统探究了自动驾驶事故中公众指责归因与信任判断的核心影响因素,为理解人机交互中的责任感知规律提供了关键实证支撑,对自动驾驶产业的政策制定、技术设计与公众沟通具有重要指导意义。
文献研读分享
题目:Public perception of autonomous vehicle capability determines judgment of blame and trust in road traffic accidents
作者:Qiyuan Zhang, Christopher D. Wallbridge, Dylan M. Jone, Phillip L. Morgan
期刊:Transportation Research Part A: Policy and Practice
年代:2024
理论基础与研究概览
理论基础
相关概念
责任归因(blame attribution)是对行为主体的道德评判,判定其行为偏离了既定社会规范,且需对负面结果承担相应责任。
道德评判(moral judgment)维度:不仅基于行为主体对负面结果的客观影响,还涉及其推理能力、主观意图、义务承担意识及预防不良后果的实际能力。
社会行为主体认知:研究证实,人们会将计算机等技术产品视为社会行为主体,而非单纯的工具(Nass et al., 1994)。
自动驾驶事故归因研究:分歧严重的三类结论
结论一:人类驾驶员多担责。部分研究认为,责任分配与各方对事故结果的感知控制力成正比,即便人机共驾时双方均有过失,人类驾驶员仍因“具备最终控制权”承担更多责任(Bennett et al.,2020;Awad et al.,2020)。
结论二:AV多担责。另一部分研究发现,半自动驾驶车辆发生碰撞时,若责任需完全归咎于一方,公众更倾向于认定AV系统承担主要责任,认为技术应具备更高的安全性能。
结论三:情境依赖性。少数研究指出,责任归因并非单向固定,而是受具体事故情境影响,不同场景下公众对人类与机器的责任判定标准存在差异(Hong,2020)。
争议核心:现有研究未明确情境影响责任归因的具体机制,缺乏统一的理论框架解释上述分歧。
预期违背理论:责任归因的核心逻辑
核心逻辑链条:公众对人类驾驶员与AV的“预防负面事件能力”存在固有预期→当事故发生时,若某一方的表现违背该预期→公众会启动反事实思维(如“若它采取其他行动,事故本可避免”)→基于这种思维将更多责任归咎于该方。
大量人类行为研究证实,“违背规范或预期”是反事实思维产生的核心前提,也是责任归因的重要依据(Kahneman&Miller,1986;Malle et al.,2014)。该理论为解释“公众对AV与人类驾驶员的责任归因差异”提供了核心框架:公众对二者的能力预期不同,导致相同事故情境下的预期违背感知存在差异,进而引发不同的责任判定结果。
能力预期差异:公众对机器与人类的固有认知
对机器的能力预期:公众普遍认为,机器在物理性能层面具有显著优势,尤其在反应速度(如紧急制动响应时间)、操作准确性(如车道保持精度)、持续工作稳定性(无疲劳、分心等问题)等方面远超人类驾驶员。
对人类(驾驶员)的能力预期:公众认为,人类在认知与决策层面具有不可替代的优势,尤其是在即兴应对复杂突发情况、基于先验经验进行归纳推理、识别因果线索并预判风险等方面,人类的灵活性与适应性更强(de Winter&Hancock,2015)。
预期的情境性应用:公众会根据具体事故情境,判断该场景更依赖机器优势还是人类优势,进而形成不同的责任归因与信任评价,这是本研究“能力假说”的核心理论依据。
研究概览
整体核心目标:双重目标聚焦:验证公众对自动驾驶系统(AS)与人类驾驶员(HD)的责任归责、信任判断是否采用不同标准;探究该差异是否受情境影响,且是否符合公众对机器/人类能力的固有认知。
两项实验的递进关系:
实验1(探索性实验):核心任务是初步探索“事故场景类型”“事故严重程度”对责任归责与信任的影响,挖掘潜在的异常场景,为机制验证奠定基础。
实验2(验证性实验):基于实验1发现的异常场景(巴士场景),引入核心调节变量“因果线索强度”,正式验证“能力假说”,明确情境影响归责与信任的核心机制。
实证研究
实验1
1.研究假设
H1:相同事故结果下,完全自动驾驶系统(AS)比人类驾驶员(HD)承受更多责任指责,且获得更低的公众信任。理论依据:预期违背理论+公众对机器“更高安全性能”的固有预期,事故发生时AS更易被判定为“未达预期”。
H2:随着事故严重程度(险情→轻微事故→重大事故)加剧,公众对AS的指责程度显著上升,信任度显著下降。理论依据:负面结果越严重,公众越倾向于通过强化责任归因与逆境保持心理距离(Fiske&Taylor,1991)。
H3:交通事故中,公众对涉事车辆操作者的指责程度与信任程度总体呈显著负相关。理论依据:责任归因是对行为主体的负面道德评判,这种评判会直接削弱对该主体的信任感知(de Visser et al.,2018)。
2.实验设计
整体设计:2(驾驶主体:AS/HD)×3(事故严重度:险情/轻微事故/重大事故)×6(场景)混合设计。
驾驶主体:被试间变量,随机分配至两组,AS组被告知车辆由“具有完美安全记录的先进自动驾驶系统”控制;HD组被告知车辆由“具有完美安全记录的经验丰富驾驶员”驾驶。
事故严重度:被试内变量,含三个水平:险情(未发生碰撞)、轻微事故(碰撞无人员伤亡)、重大事故(碰撞导致人员受伤)。
场景:被试内变量,共6个典型交通场景,涵盖行人横穿、公交车旁行人冲出、儿童突然跑出、鹿横穿道路、路口冲突、树木倾倒等,场景均经过预实验优化,确保理解一致性。
3.实验材料
以图文结合的短文为核心材料,每个场景分为两部分:
Part A:描述事故前置条件(如道路环境、潜在风险源),以文字+图示呈现,确保两组被试接收的场景背景完全一致。
Part B:描述事故结果(对应三种严重度),同样搭配图示,例如“儿童场景”中,重大事故版本描述为“车辆避让儿童时撞上停放车辆,你遭受轻微受伤”。
测量工具:采用11点李克特量表(0=完全不指责/不信任,10=极度指责/极度信任),分别测量对驾驶主体的指责程度、对第三方的指责程度、对驾驶主体的未来信任度。
注意力检验题:穿插于量表中(如“车辆X是什么颜色”“车辆为避让鹿向哪个方向转向”),验证被试认真参与程度。
4.实验流程
被试通过Prolific平台链接进入实验,阅读知情同意书并签署。
填写人口统计学问卷(年龄、性别)与驾驶经验问卷(是否持证、驾驶年限、年均里程)。
测量预存态度:AS组评估对自动驾驶技术的使用意愿和信任度;HD组评估对人类驾驶员的搭乘意愿和信任度。
随机呈现18个实验任务(6场景×3严重度),每个任务后完成量表评分,注意力检验题随机插入。
5.实验结果
注意力检验:平均正确率94.43%,表明被试认真参与,数据可信。
驾驶主体的影响:
6个场景中5个显示AS被指责程度显著高于HD;仅“公交车场景”反转,HD被指责更多。
事故严重度调节效应:仅当事故产生实质后果(轻微/重大事故)时,AS被指责更多;险情场景中,AS与HD的指责程度无显著差异。
第三方指责模式:部分第三方(公交车司机、国家公园管理方)的指责程度与驾驶主体呈负相关(AS组指责弱于HD组),但横穿马路的行人等第三方无此规律。
信任度与指责的关联:两者呈显著负相关,AS组r=-0.31~-0.49(p<.01),HD组r=-0.46~-0.49(p<.001),HD组相关性更强;“公交车场景”中,AS与HD的信任度差异小于其他场景,但未反转。
预存态度的影响:指责程度与预存态度无显著相关性,主要由场景情境决定;信任度与预存态度强相关,AS组r=0.502~0.619(p<.001),HD组相关性较弱(r=0.117~0.286)。
实验2
1.研究假设
H1:当事故发生前存在弱因果线索(事故突然发生、无任何预警)时,公众认为机器在响应速度和准确性上优于人类,因此自动驾驶系统(AS)将承受更多责任归责,且获得更少信任。推导逻辑:弱线索场景依赖“快速反应/精准操作”能力,公众对AS的该类能力预期更高,未达预期则归责更重。
H2:当事故发生前存在强因果线索(事故有明显预警、可被预见)时,公众认为人类更擅长理解情境并预判行动(尤其复杂环境中),因此人类驾驶员(HD)将承受更多责任归责,且获得更少信任。推导逻辑:强线索场景依赖“因果推理/风险预判”能力,公众对HD的该类能力预期更高,未达预期则归责更重。
H3:因果线索强度通过调节对AS/HD的归责程度,进而影响公众对其的信任度,归责越重,信任度越低,且该调节效应在不同线索强度下表现不同。推导逻辑:责任归因是信任形成的核心前因,线索强度通过改变归责方向与程度,间接作用于信任判断。
2.实验设计
整体设计:2(驾驶主体:AS/HD)×2(事故严重度:险情/重大事故)×2(因果线索强度:强/弱)×4(场景)混合设计。
新增变量:因果线索强度(被试内变量),通过场景描述操纵:强线索(事故可预见,如行人面向道路张望、两人激烈争吵);弱线索(事故突发,如行人背对道路、两人平静交谈)。
简化变量:事故严重度保留险情和重大事故两个水平(实验1中差异最显著);场景筛选为4个核心场景(行人、对话行人、公交车/货车、儿童)。
其他变量:驾驶主体为被试间变量,测量工具与实验1一致。
3.实验材料
沿用图文结合形式,核心修改Part A(前置条件)以区分因果线索强度,例如:
行人场景(强线索):“行人面向道路、左右张望后步入车道”;
行人场景(弱线索):“行人背对道路、左右张望后后退步入车道”。
新增1个练习场景(与实验场景无关),帮助被试熟悉任务逻辑,其余材料与实验1一致。
4.实验流程
与实验1流程基本一致,新增“练习场景任务”(完成后无评分,仅熟悉流程)。
实验任务为32个(2驾驶主体×2严重度×2线索强度×4场景),其余步骤(知情同意、问卷填写、预存态度测量、注意力检验)均与实验1相同。
5.实验结果
注意力检验:平均正确率95.69%,数据可信度高。
因果线索强度的核心调节效应:
指责程度:因果线索弱(事故突发)时,AS被指责更多;因果线索强(事故可预见)时,HD被指责更多,验证“能力假设”。
信任度:因果线索弱时,对HD的信任度显著高于AS;因果线索强时,两者信任度差异缩小,但未反转(信任还受预存态度影响)。
交互效应:
驾驶主体×事故严重度:与实验1一致,重大事故中驾驶主体的指责/信任差异大于险情场景。
因果线索强度×场景:调节效应在不同场景中存在差异,但整体规律一致。
第三方指责:因果线索强时,对第三方的指责程度整体低于弱线索场景,但驾驶主体与因果线索强度无显著交互效应。
实验结论
公众对AS和HD的责任归因与信任判断存在系统性差异,但并非“普遍对AS更苛刻”,而是依赖场景特征。
因果线索强度是关键调节变量:事故可预见(强线索)时,人类因未履行预判义务被更多指责;事故突发(弱线索)时,AS因未发挥速度/精准度优势被更多指责。
信任构建机制存在人机差异:对AS的信任依赖技术整体认知,对HD的信任依赖个体驾驶表现;指责与信任呈负相关,但AS组相关性更弱。
事故严重程度影响:仅当事故产生实质性后果(轻微/重大事故)时,AS与HD的归责和信任差异才显著显现,险情场景中二者差异极小,且后果越严重,AS的归责劣势越明显。
理论贡献与实践启示
理论贡献
实践启示
开展针对性教育宣传活动,向公众普及AV技术能力与局限性,纠正认知偏差;通过立法强制措施明确AV相关责任划分标准,规范行业发展;要求汽车制造商/开发者及时、准确披露产品实际能力,同时推行强制性用户培训,确保用户理性认知并正确使用AV,最终实现公众对AV认知与预期的合理校准,推动自动驾驶技术的健康普及。
✨本期分享人聂玉杰,浙江工商大学市场营销专业二年级本科生,来自甘肃武威,研究兴趣聚焦于自动驾驶汽车领域的人机互动。
✨智研前沿Human-AI Inquiry是由浙商大 Insight & Interaction Lab 研究小组运营管理的公众号,聚焦商科语境下人工智能与人类社会的交汇研究,分享学术文献精读与研究洞察。关注我们,洞见智能时代的商业与人文前沿。