定责任鸿沟的可能性,即否定立场;试图解决责任鸿沟困境,即解决主义。尽管三种立场
截然不同,但其共通之处在于都依据道德责任归属的控制条件和主体条件(以下简称条件
1和条件2)以及对道德责任概念的理解来回答人工智能的道德责任归属问题。其中,控
制条件是明示条件,“自主体(agent)只有在了解其行为的特定事实,并且能够自由做出决
定采取行动,并根据这些事实选择一套合适的替代行动时,才能被视为负有责任”[1]。主
体条件是隐含条件,传统道德责任理论是人类中心主义立场的,默认人类具备道德责任主
体资格。
除马提亚外,肯定立场的另一位重要支持者是罗伯特·斯派洛(RobertSparrow)。
他认为完全自主军用机器人居于道德上模棱两可的空间:具有足够的独立行动能力;又不
能成为道德谴责或赞扬的备选对象。当这类机器人出现问题时,我们“不可能追究任何人
的责任”[2]。刘博韬和金香花进一步解释,人工智能的责任鸿沟源自操纵情境下道德责任
归因过程的平行叙事。在操纵情境下,人工智能的行动明显受到人类的操纵;而人类的操
纵方式又不影响人工智能对自身的控制能力。因此,在回溯因果关系时,道德责任归因无
法聚焦于其中任何一方[3]。总体来看,持肯定立场的学者认为责任鸿沟是智能技术发展
引发传统责任归属条件不匹配、不适用的结果:人类缺乏对人工智能的控制能力(不符合
条件1);人工智能不具备承担责任的主体条件(不符合条件2)。
持否定立场的学者针锋相对地认为责任鸿沟的提法是错误的。但丁·马里诺(Dante
Marino)与古列尔莫·塔姆布里尼(GuglielmoTamburrini)较早地对这一观点作出回应。
他们深入分析机器学习的一种理论方法———“概率近似正确”(probablyapproximately
correct)模式,指出人类设计师丧失对机器的控制是其自主选择的结果。他们继而又将责
任解释为赔偿责任(liability)。既然人类设计师试图从失控的可能风险中获益,那么受害
者也可以根据风险—收益评估向他们求取赔偿。“(控制条件)对于责任归属而言是不必
要的,所谓的责任鸿沟仅取决于它涉及的道德责任归属”[4]。既然赔偿意义上的道德责任
归属是明确的,就不存在责任鸿沟。
计算机伦理学家黛博拉·约翰逊(DeborahG.Johnson)认为所谓的责任鸿沟来自对
技术发展和责任概念的双重误解[5]。就技术发展而言,这一观点错误地认为技术发展是
由技术自身特性线性决定的,完全自主、不为人类所理解的人工智能的出现无法避免;但
它忽略了技术发展同样受多重社会因素的影响,是人类选择的结果,不存在丧失控制的情
况(符合条件1)。就责任而言,这一观点可能存在争议的责任是问责(accountability),而
问责植根于规范或期待所带来的关系中,特定的技术或技术的某些特性并不影响对问责
责任的分配。基于前述分析,约翰逊在不动摇传统责任理论的前提下否定了责任鸿沟。
当然,约翰逊也试探性提出开放性责任理论的多种可能性,其中包括将责任部分分配给人
工智能(向条件2提出挑战)。
丹尼尔·泰格德(DanielW.Tigard)将责任分解成三个次级概念以便确定不同的责
任主体及责任分配,从而证明不同含义上的责任鸿沟均不存在。就问责而言,如果追究某
人的责任是恰当的,就无须再确认是否有合适的问责对象。在技术道德事件中,问责的备
选对象可能是主动(或疏忽)冒着伤害风险开发或应用该技术的人,也可能是对损害事件
做出了最小因果贡献的所有人。就辩护责任(answerability)而言,我们可以要求智能系
统为自身辩护,即便这需要人类专家的帮助。不管是否收到令人满意的辩护,辩护责任还
可以进一步激发起额外的责任实践,如追究流氓系统及其人类同伙的责任。就责任归因
146