广西师范大学学报(哲学社会科学版)2024年第5期

发布时间:2024-9-26 | 杂志分类:其他
免费制作
更多内容

广西师范大学学报(哲学社会科学版)2024年第5期

定责任鸿沟的可能性,即否定立场;试图解决责任鸿沟困境,即解决主义。尽管三种立场截然不同,但其共通之处在于都依据道德责任归属的控制条件和主体条件(以下简称条件1和条件2)以及对道德责任概念的理解来回答人工智能的道德责任归属问题。其中,控制条件是明示条件,“自主体(agent)只有在了解其行为的特定事实,并且能够自由做出决定采取行动,并根据这些事实选择一套合适的替代行动时,才能被视为负有责任”[1]。主体条件是隐含条件,传统道德责任理论是人类中心主义立场的,默认人类具备道德责任主体资格。除马提亚外,肯定立场的另一位重要支持者是罗伯特·斯派洛(RobertSparrow)。他认为完全自主军用机器人居于道德上模棱两可的空间:具有足够的独立行动能力;又不能成为道德谴责或赞扬的备选对象。当这类机器人出现问题时,我们“不可能追究任何人的责任”[2]。刘博韬和金香花进一步解释,人工智能的责任鸿沟源自操纵情境下道德责任归因过程的平行叙事。在操纵情境下,人工智能的行动明显受到人类的操纵;而人类的操纵方式又不影响人工智能对自身的控制能力。因此,在回溯因果关系时,道德责任归因无法聚焦于其中任何一方[3]。总体... [收起]
[展开]
广西师范大学学报(哲学社会科学版)2024年第5期
粉丝: {{bookData.followerCount}}
文本内容
第151页

定责任鸿沟的可能性,即否定立场;试图解决责任鸿沟困境,即解决主义。尽管三种立场

截然不同,但其共通之处在于都依据道德责任归属的控制条件和主体条件(以下简称条件

1和条件2)以及对道德责任概念的理解来回答人工智能的道德责任归属问题。其中,控

制条件是明示条件,“自主体(agent)只有在了解其行为的特定事实,并且能够自由做出决

定采取行动,并根据这些事实选择一套合适的替代行动时,才能被视为负有责任”[1]。主

体条件是隐含条件,传统道德责任理论是人类中心主义立场的,默认人类具备道德责任主

体资格。

除马提亚外,肯定立场的另一位重要支持者是罗伯特·斯派洛(RobertSparrow)。

他认为完全自主军用机器人居于道德上模棱两可的空间:具有足够的独立行动能力;又不

能成为道德谴责或赞扬的备选对象。当这类机器人出现问题时,我们“不可能追究任何人

的责任”[2]。刘博韬和金香花进一步解释,人工智能的责任鸿沟源自操纵情境下道德责任

归因过程的平行叙事。在操纵情境下,人工智能的行动明显受到人类的操纵;而人类的操

纵方式又不影响人工智能对自身的控制能力。因此,在回溯因果关系时,道德责任归因无

法聚焦于其中任何一方[3]。总体来看,持肯定立场的学者认为责任鸿沟是智能技术发展

引发传统责任归属条件不匹配、不适用的结果:人类缺乏对人工智能的控制能力(不符合

条件1);人工智能不具备承担责任的主体条件(不符合条件2)。

持否定立场的学者针锋相对地认为责任鸿沟的提法是错误的。但丁·马里诺(Dante

Marino)与古列尔莫·塔姆布里尼(GuglielmoTamburrini)较早地对这一观点作出回应。

他们深入分析机器学习的一种理论方法———“概率近似正确”(probablyapproximately

correct)模式,指出人类设计师丧失对机器的控制是其自主选择的结果。他们继而又将责

任解释为赔偿责任(liability)。既然人类设计师试图从失控的可能风险中获益,那么受害

者也可以根据风险—收益评估向他们求取赔偿。“(控制条件)对于责任归属而言是不必

要的,所谓的责任鸿沟仅取决于它涉及的道德责任归属”[4]。既然赔偿意义上的道德责任

归属是明确的,就不存在责任鸿沟。

计算机伦理学家黛博拉·约翰逊(DeborahG.Johnson)认为所谓的责任鸿沟来自对

技术发展和责任概念的双重误解[5]。就技术发展而言,这一观点错误地认为技术发展是

由技术自身特性线性决定的,完全自主、不为人类所理解的人工智能的出现无法避免;但

它忽略了技术发展同样受多重社会因素的影响,是人类选择的结果,不存在丧失控制的情

况(符合条件1)。就责任而言,这一观点可能存在争议的责任是问责(accountability),而

问责植根于规范或期待所带来的关系中,特定的技术或技术的某些特性并不影响对问责

责任的分配。基于前述分析,约翰逊在不动摇传统责任理论的前提下否定了责任鸿沟。

当然,约翰逊也试探性提出开放性责任理论的多种可能性,其中包括将责任部分分配给人

工智能(向条件2提出挑战)。

丹尼尔·泰格德(DanielW.Tigard)将责任分解成三个次级概念以便确定不同的责

任主体及责任分配,从而证明不同含义上的责任鸿沟均不存在。就问责而言,如果追究某

人的责任是恰当的,就无须再确认是否有合适的问责对象。在技术道德事件中,问责的备

选对象可能是主动(或疏忽)冒着伤害风险开发或应用该技术的人,也可能是对损害事件

做出了最小因果贡献的所有人。就辩护责任(answerability)而言,我们可以要求智能系

统为自身辩护,即便这需要人类专家的帮助。不管是否收到令人满意的辩护,辩护责任还

可以进一步激发起额外的责任实践,如追究流氓系统及其人类同伙的责任。就责任归因

146

第152页

(attributability)而言,将行为的责任归因于某种态度或价值观通常被认为是合适的。由

于人工智能技术在隐喻或象征意义上“表达”了某种价值观,它在归因方面负有松散的责

任(向条件2提出挑战)[6]。总体来看,否定立场提出的反对理由不尽一致:或者重新解释

责任概念及归属条件,或者侧重分析智能时代的人机关系,或者考虑非人类责任主体的可

能性。

解决主义将研究重点放在如何弥合责任鸿沟上。菲利波·桑托尼·德西奥(Filippo

SantonideSio)与朱利奥·麦卡奇(GiulioMecacci)认为责任鸿沟是由罪责(culpability)、

(道德的和公共的)问责及积极责任意义上的鸿沟所构成的一组问题。为此,他们提出一

个被称为 MHC的整体性解决方案,给予人工智能“有意义的人类控制”(符合条件1),从

而最大限度减少责任鸿沟[7]。该方案主张社会技术系统(包括人工智能)的设计应满足以

下两个条件:追查(tracking)和追踪(tracing)。追查要求系统能够对人类的理由和环境信

息进行明确回应,而追踪要求人类与社会技术系统在设计、开发和使用链条上具有牢固的

一致性。二者使人机在理由和行动上保持一致性,这自然解决了道德责任归属困境。德

西奥等人提出一种系统责任或集体责任以替代人类中心的传统责任。与之相似,郭菁也

主张通过建构“关系性、交互性和动态性”的人机联合责任体共同承担责任。[8]她认为行动

原因的可控制性而非行动事件的可控制性是责任归因的充要条件(重新解释条件1)。在

人工智能技术事件中,行动原因不是单独出自人或机器,而是出自人机联合责任体。

马克·钱帕尼(MarcChampagne)和瑞安·汤肯斯(RyanTonkens)提出“自由处置

权”责任(“blankcheck”responsibility)。他们认为在不动摇斯派洛两个基本论点(即人类

设计师与人工智能都不承担责任,符合条件1和条件2)的前提下,可以引入一个第三

者———一个地位足够高的使用者———来承担责任,例如,如果最高指挥官乐于部署能做出

不道德行为的自主机器人,并公开承认这些机器人不能承担责任,她在“行使未经理性同

意的特权”的同时,也自动接受了相应的责任[9]。上述解决主义或者通过强化过程控制,

或者创新责任分配方式来解决无人负责的道德困境。

可见,人工智能的道德责任归属问题的争论可以更精确地表述为:将何种道德责任依

据何种条件归属于谁。其中,何种责任涉及对道德责任概念的理解,如问责、责任归因、辩

护责任、赔偿责任等。何种条件与我们对传统道德责任归属条件的理解有关,同时面临人

工智能技术带来的挑战。归属于谁则涉及责任归属的备选对象,某个(些)人类自主体、社

会组织、人工智能机器抑或是人机技术系统,也可能根本没有合适的备选对象。能否合理

回应上述问题,是化解责任鸿沟争论的根本所在。

二、人工智能技术的两重性

当前人工智能日益呈现出自主性、适应性等自主体特征,能够独立实施机器行为

(machineaction),确实动摇了道德责任归属的传统观点(向条件2提出挑战);与此同时,

人工智能的实质仍是可编程机器,机器行为的背后离不开人类的参与,人工智能并未从根

本上摆脱人类的控制(符合条件1)。这两方面从表面上看是相互矛盾的。但如果我们接

受人工智能在快速发展过程中兼有的两重技术特性[3],那么,人类和人工智能均与机器行

为存在着清晰的因果关系,都可以成为道德责任归属的备选对象。

先从机器行为开始分析。机器行为不是一个科学或哲学论断,而是一种可普遍观察

147

第153页

到的技术现象。包括图像识别技术、智能语音软件、自动驾驶系统、专家系统等在内的智

能机器可以看、可以听、可以说话、可以行走、可以思考和决策,一言以蔽之,可以实施机器

行为。机器行为不同于传统意义上的机器运行。传统机器是由人类设计制造并在人类严

格操控下运行的,其运行过程和结果都由人类决定。有时人类通过升级程序或调整技术

指标的参数来调整机器运行的结果,但这不会改变机器运行的方式。相反,机器行为是人

工智能在没有人类直接干预的情况下自主实施的行为。人工智能在与特定操作环境的交

互作用中学习正确的行为模式,同时根据对外部环境信息的判断做出相应的决策和行动。

在这里,人工智能的行动规则在其运行过程中不断变化,而非人类事先设计好的。人工智

能做出何种判断、采取何种行动是它自主做出的,而非人类直接决定的。与机器运行相

比,人工智能的运行方式更接近于人类行为,故被称作机器行为。

机器行为的出现带来了一个急需回答的问题:即机器行为的道德责任归属。在传统

观点中,即便机器是造成某一技术事件的直接原因,它也仅作为判断责任归属的背景条件

或框架性因素。例如,人们判定设备短路是造成某次生产事故的直接原因;还将进一步追

查设备短路的原因是系统故障、零件老化还是操作错误,从而将责任归属于设计安装人

员、检修人员、生产工人或其他相关人员。机器和人类都是原因归属的备选对象,但只有

在不同环节上操控机器的人类才是责任归属的备选对象。米夏·H.维尔纳认为责任可

以分为标准的责任①和因果责任。因果责任是基于“经验性事实认定”的原因归属,可通

过排查所有因果条件加以确定。而某一因果条件之所以被挑选出来又取决于它所涉及的

规范要求。在上述案例中,厂房空气潮湿是造成该事故的因果条件之一,但它是否具有因

果责任,取决于它是否与安全生产规范有关。正如维尔纳所言:“关于原因归属的讨论有

时仅是一个表象,而真正所讨论的是关于标准规范的问题。”[10]67道德责任归属不仅涉及

道德规范要求,更直接表达了道德规范要求。道德责任归属离不开原因归属,它要依据后

者判断谁构成某一事件的行为者原因。在此基础上,道德责任归属还要求存在着一种道

德规范关系:某一行为者或者因违反了道德规范要求,或者因带有故意或过失的主观意

图,或者可能对预期行为产生调节作用,才能成为道德责任归属的备选对象。

假设人工智能的错误决策造成了上述生产事故,它是否有资格进行道德责任归属呢?

这取决于人工智能的自主体特征,也取决于其承担道德责任的能力。自主体特征是人工

智能基于自身特性所表现出来的实施有意义行为的能力,包括行动自主性和环境适应性。

行动自主性表现为它像人类一样具有行为选择能力以及它会“犯错误”的能力。“人工智

能系统通常被视为在某种程度上是自主的。人工智能研究人员使用术语‘自主性’作为隐

喻来指代各种不同类型的计算行为”[11]。“对于智能机器来说,其自主性并不体现在行为

选择上,而是体现在行为偏差概率上”[12]。从这个意义上说,行为自主性也是机器行为的

代名词。环境适应性表现为人工智能的交互能力,即它在与外部环境的交互中习得新的

行为模式、做出行为选择。基于此,人工智能不再是纯粹的技术工具,开始“扮演着自主体

(agent)的角色”[13]。当然,人工智能的自主体特征是随着技术发展而逐渐增强的,它不

是甚至在较长时间内无法成为真正意义上的自主体,但这不妨碍它以准自主体或类自主

体的身份自主实施有道德意义的机器行为并产生不容忽视的道德影响。

承担道德责任的能力使道德责任归属具有实际意义。普通机器不能进行道德责任归

148

① 即规范意义上的责任,以下仅讨论其中的道德责任。

第154页

属,原因在于后者既不能对机器运行形成规范性约束,也不能对机器运行产生调节性影

响。人工智能有能力进行道德责任归属,取决于:(1)是否处在道德规范约束下;(2)是否

“展示他所代表的价值观”[6];(3)是否对机器行为产生调节作用。针对(1),只要承认人工

智能并非道德中立的技术,它就可以并且应该纳入道德规范的约束下。当前人工智能道

德规范发展相对滞后在一定程度上造成无人负责的道德困境,但这些困境将随着相关道

德规范的完善而得以解决。针对(2),可以给出一些支持性证据而非确定性结论。人工智

能按照最初被编程的价值观以及它在大数据中学习的价值观实施机器行为,它以“功能性

道德”[14]20的方式展示出自己的价值观;与此同时,机器伦理也试图将更为明确的价值观

置入人工智能。针对(3),人工智能可以在人类的控制下被动接受道德的调节作用。人工

智能缺乏感受性,但它拥有能够接受惩罚的身体[15],通过优化算法、程序升级、暂停或永

久停止使用等方式被动承担道德责任[16]。人工智能承担道德责任的能力,同样受其自主

体特征的影响,因此,它仅能以准自主体或类自主体身份承担有限的道德责任。

人工智能有资格成为道德责任归属的备选对象,向主体条件(条件2)提出了挑战。

与之相应,人类是否丧失了对机器行为的控制(条件1)呢? 这仍需对人工智能的技术特

征加以分析。事实上,人工智能日益增长的自主体特征与它作为可编程机器的特征是不

相矛盾的。机器行为离不开人类的参与和影响,仍在人类控制能力之内。这里以机器学

习方法为例。机器学习是“从数据当中挖掘出有价值信息的重要手段”[17],计算机从大数

据中提取出怎样的特征量,就连其设计师也不清楚,更无法直接干预其结果。深入分析发

现,机器学习是以概率统计为基础的编程技术,它在所有结果中取概率最大的结果作为输

出。所谓输出结果的不可预测性归根结底来自概率统计结果的不确定性。此外,机器学

习强调结果导向,计算机在不断试错的过程中自行优化和完善算法。在此过程中,错误是

不可避免的而且是被允许的,这必然会造成不良事件或后果的出现。马里诺与塔姆布里

尼对“概率近似正确”学习模型的分析也证明了这一点。由此可见,所谓人类丧失对人工

智能的控制能力并非是人工智能基于对自身的身份认同主动摆脱人类的控制,如同许多

科幻作品所想象的那样;相反,这是人类为快速发展和应用人工智能,从而设计制造出这

种特殊的机器学习方法所造成的。

人工智能的双重技术特征使原来的人机关系变得更加复杂了:人工智能是实施机器

行为的直接行为者,与机器行为有直接的因果关系;但与此同时,机器行为全过程的每一

个环节同样离不开人类的参与。不同人类自主体在不同阶段对机器行为做出了不同程度

的贡献:设计师负责开发前沿算法(研发者)、学习模型的架构(建模者)、对数据进行训练

和测试(测试人员)、产品运行和维护(运营人员),使用者负责规划和安排人工智能的实际

应用。人类自主体与机器行为之间存在着内容有别但清楚明确的因果关系。当然,这种

因果关系不是直接的,而是间接的、链条式的,它是以人工智能作为中介,由不同的人类自

主体向人工智能委托授权(即允许人工智能实施机器行为),而在机器行为的不同阶段形

成的纵向传递的因果链。不同的人类自主体在机器行为的因果关系中具有传递效应,形

成了由开发—设计—测试—使用的因果关系链条。由于不同的人类自主体在因果关系链

条中所处的环节不同,他们对因果关系的贡献也有显著差异。

事实上,很多学者都已注意到机器行为是“多手(manyhand)”共同实施的。例如,约

翰逊和托马斯·鲍尔斯(ThomasM.Powers)主张技术道德行为是由计算机系统的使用

者、系统设计师(开发人员、程序员、测试人员)和计算机系统共同实施的,故而技术道德行

149

第155页

为的责任问题必须将上述所有行为者都考虑其中[18]。他们认识到人类与人工智能在机

器行为中都发挥着重要的因果作用,但他们没有明确区分多手之间的横向协作关系(如社

会技术系统、人机联合责任体等)①与纵向传递关系(因果关系链)。马里诺等人意识到机

器行为不能脱离人类,但他们同样没有指出人类在机器行为中的主体作用以及经由人工

智能为中介所形成人类与机器行为之间的更为复杂的因果关系链条。本文认为人工智能

和人类(通过委托授权给人工智能的方式)均与机器行为存在着清晰的因果关系,均可视

为行为者原因。

三、道德责任概念的复杂性

前文笼统地使用了道德责任归属的提法,但严格地讲,从因果关系角度回溯机器行为

的原因属于道德责任归因。后者只是道德责任众多相互关联的概念中的一个,甚至也不

是判断其他道德责任归属的必要条件。“责任是一个复杂的概念。它是一组联系松散且

相互重叠的道德概念中的一个。‘责任(responsibility)’、‘负责任的(responsible)’、‘道德

上负责 任 的 (morallyresponsible)’、‘有 道 德 过 错 的 (blameworthy)’、‘应 被 问 责 的

(accountable)’和‘赔偿责任(liable)’有时可以互换使用,有时则以不同的方式使用。考

虑到术语的多样性及其相互重叠的含义,当涉及人工行为者等新技术时,责任是一个争论

点,这也许并不奇怪”[5]。本部分将围绕道德责任的一系列含义,进一步分析道德责任归

属问题。

马提亚在责任鸿沟中所讨论的是责任归属问题,目的是正确地判断由谁为机器行为

负责。但他并未进一步解释,判断由谁负责的目的是希望某个行为者以某种方式(如道德

的、法律的或政治的方式)为不良后果承担责任,还是将机器行为及后果合理地归因于某

个行为者从而认定他具有道德过错或过失,抑或是指出他以另一种方式行动的可能性。

这也为争论埋下了伏笔。从直观意义来看,当我们让某人为某行为负责时,我们希望他能

为该行为所造成的不良后果承担相应的惩罚、赔偿或补偿责任(以下有时简称赔偿责任)。

如果有人能够为机器行为及后果承担起上述责任,责任归属问题似乎可以迎刃而解了,即

便“没有明确的因果关系链将其与损害事件联系起来”[4]。赔偿责任避免了回答谁对机器

行为负有道德过错的难题,也避免了直接回应道德责任归属的两个条件。但是,它忽略了

惩罚、赔偿或补偿责任经常是谁负有道德过错的附带结果,如果不能证明这些责任分配在

道德上是正当且合理的,那么,备选对象如何心甘情愿地接受惩罚或做出赔偿或补偿呢?

责任的语义至少还包括过错责任(blame)、问责、辩护责任等含义。其中,过错责任

是严格意义上的善恶责任,它根据行为者是否具有主观上的过错或过失来判断谁应受谴

责。过错责任依赖于行为者的自由意志或者说意向性,“也就使自己承担起证明的重

担”[19]14。问责即责任追究,不仅要追究谁负有过错责任,还表达了“更公开形式的谴责,

比如直接的愤怒”[6]的意思。问责来自某一行为及后果的受害者、利益相关者乃至整个社

会的道德控诉,并要求被问责者(不一定都是行为者)提供“对一个带有控诉性质的问题的

答复”[19]13。在问责中,被问责者处于被动的地位,他可以提出证据解除控诉但不能直接

150

① 本文并不否定人类行为者与人工智能通过协作性方式所构成的系统责任、集体责任或分布式责任,同时也认

为责任鸿沟主要涉及的不是这类责任。

第156页

摆脱控诉。问责是责任鸿沟争论的焦点。“责任鸿沟提出了一个问题,即是否存在无人能

够问责的技术。当一项技术的行为方式超出了我们的预期时(尤其是当非预期行为导致

事故或灾难时),我们通常想知道为什么以及谁负有道德过错”[5]。问责允许被问责者进

行辩护。辩护责任要求他人提供解释,以便评估他们的判断并理解他们采取行动的理

由[6]。如果被问责者提供了充分的辩护理由,他将被免除责任;如果辩护失败的话,作为

结果,他将承担惩罚、赔偿或补偿责任。从责任鸿沟争论来看,学者们很少直接回应过错

责任,争论主要聚焦于问责、辩护责任和赔偿责任上。

责任的不同含义均有一定的逻辑联系,从道德责任归属角度来看可以理解为一条“责

任链”:问责是道德责任归属的始点,其目的或明确责任归因或指出过错责任或确定赔偿

责任;责任归因是其他道德责任归属的重要判断依据,尽管它又不作为道德责任归属的充

分条件或必要条件[20];过错责任是依据行为者内部状态(信念、欲望、动机)所做的道德责

任归因;辩护责任是道德责任归属的重要环节;赔偿责任是道德责任归属的结果。在“责

任链”中,不同含义的责任本质上都属于同一类型的衍生责任,是从首要责任派生出来的

二级责任和三级责任。① 它们的功能和作用也具有较强的相似性和可替代性。因此,“责

任链”上只要保留其中任何一种责任,道德责任归属就有意义。相较而言,责任归因重在

提供道德责任归属的事实依据;过错责任重在道德责任归属的正当性及合理性(即道德责

任是否确实为某人所应得);问责、辩护责任和赔偿责任重在责任分配的过程和结果的正

当性和合理性(即相关各方是否能够合理地接受)。过错责任是道德独有的;而责任归因、

问责、辩护责任和赔偿责任是道德、法律及政治通用的。

此外,责任还可以从前向和后向两方面加以认识。前向责任(即前瞻性责任)关注如

何“分配未来将要完成的任务和职责”,以及采取何种措施以改变现有局面;而后向责任

(即回溯性责任)关注“意外事件出现后对发生的情况进行说明”[18]。道德责任归属对已

发生的人工智能技术事件及后果开展回溯性研究,进行正确的责任归因,判断责任产生的

“正确位点”,其核心是回溯性道德责任。道德责任归属还可以积累道德经验,进一步向人

工智能、人类行为者或其他社会组织提出责任要求、改进技术、评估技术的道德风险和利

益,这又属于前瞻性道德责任。

综上所述,道德责任在不同语境下往往意味着非常不同但又有一定逻辑联系的意思。

道德责任归属需要解决如何在恰当的意义上将何种责任———问责、过错责任、辩护责任、

赔偿责任、回溯性责任、前瞻性责任———归属于谁的问题。在理想情况下,同一事件的不

同责任都可以归属于同一备选对象。如某人因酗酒造成生产事故,他不仅负有严重道德

过错,还将面临问责,同时承担辩护、赔偿责任。② 社会生活中还存在着许多将同一事件

的不同责任归属于不同对象的情形,如备选对象是不完全行为者,或者他是被胁迫的,或

者没有相关规范要求等。在责任归属同一的情形下,备选对象完全满足责任归属条件,且

不能提供辩护理由。在责任归属分离的情形下,备选对象部分满足或完全不满足责任归

属条件,或者能够提供辩护理由。如果其中一个备选对象被豁免某一类道德责任,我们不

会认为出现了责任鸿沟,而是会继续寻找其他的备选对象或按照“责任链”依次适用其他

151

首要责任即行为责任或职务责任,是“人所承担的责任”;衍生责任包括二级责任(追究责任和辩护责任)和三

级责任(赔偿责任),是“被连带到的责任”[19]12-13、257。

虞法、朱菁对道德责任概念的完备性说明,也涵盖了道德责任的上述含义[20]。

第157页

类型的道德责任。只有当所有可能的备选对象都不满足责任归属的条件,或者均能提供

充分的辩护理由时,责任鸿沟才真正出现。显而易见,与人工智能相关的事件属于道德责

任归属分离的情形,但是否存在责任鸿沟取决于是否存在至少一个备选对象能够承担至

少一种类型的责任。

四、道德责任归属及对责任鸿沟的回应

对于人工智能的道德责任归属问题,我们最好按照“责任链”依次讨论。在通常情况

下,当人工智能技术事件发生后,人们进行问责,以表达对该事件及后果的倾向性态度。

问责的归属条件和备选对象比较宽泛:设计、开发、使用人工智能技术,对技术事件或后果

做出了哪怕是最低贡献,因运气或偶然性因素被卷入技术事件之中都可以作为问责的依

据;人工智能,设计师、制造商、使用者等人类自主体,企业、社会组织等利益相关方都是被

问责的对象。问责的目的之一是进行责任归因。诚如前文所言,人工智能与人类都是责

任归因的备选对象。“机器智能对人类智能的模拟是一个无限逼近的过程”[21],在这一过

程中,应依据自主体特征分级(如有限自主级、高自主级、完全自主级)进行责任归因。目

前普遍应用的人工智能大多属于有限自主级,道德责任主要归因于人类,极少部分责任归

因于人工智能;对于高自主级人工智能(如 L3有条件的自动驾驶和 L4高度自动驾驶),

道德责任可以按照一定比例(如8∶2或7∶3)归因于人类和人工智能;对于完全自主级

人工智能(如 L5完全自动驾驶),道德责任归因可根据实际情况适度调整比例(如6∶4

或5∶5)。无论何种级别,人类在责任归因中始终发挥关键作用,这需要加强人类对人工

智能的控制,开发并选用人类可控的算法,增加算法的透明性和可解读性。

在责任的一系列涵义中,过错责任的归属条件最为严格,它根据行为者的主观意图进

行道德责任归属。这就给行为者推卸责任提供了理由:既然人工智能没有意志能力,不存

在所谓的道德过错;如果人类没有故意制造出“邪恶”机器,同样不存在道德过错。那么,

在过错责任上,道德责任归属可能出现没有合适的备选对象的情况,这将道德责任归属撕

开了一个裂缝。但就此认为出现责任鸿沟,还为时尚早。在当前研究中,如何使智能机器

具有意向性是一个关键的瓶颈问题,“带有工程学的性质”[22]。在意向性问题得到根本解

决之前,人工智能仅在隐喻或象征意义上具有过错责任。例如,微软开发的人工智能少女

TAY 在社交网站 Twitter上线不久,就学会骂脏话、发表种族主义言论以及煽情的政治

宣言[23]。虽然人们知道 TAY 是从网络环境中学习“恶”的,但对于她“学坏不学好”的行

为(对一些严肃话题不感兴趣),仍会认为她变成“坏女孩”,是有道德过错的。在现实生活

中,这类例子并不罕见,人们偶尔会用一种拟人化思维对待自己依赖的机器。特别是

TAY 被冠以少女形象在社交网络亮相,那么,人们以拟人化的方式对她进行道德评价似

乎也无可厚非。这种拟人化的道德过错最终将通过因果关系链条传递给相关的人类自主

体。人类设计师、运营商等对于他们没有充分预见开发和在社交平台上实验此类人工智

能将引发的道德风险,存在着不可否认的道德疏忽,他们作为一个“邪恶”机器的创造者是

有道德过错的。当然,涉及人工智能的大部分责任没有主观上的道德过错或过失,因而要

指明谁在道德上负有过错并应受谴责还是相当困难的。

在道德责任归属时,辩护责任、赔偿责任与问责具有逻辑上的先后顺序,归属条件都

比较宽泛。这三类责任将关注点由行为者的内在动机转移到技术事件及后果上,责任就

152

第158页

此获得了客观基础。如奥特弗利德·赫费所言,责任是客观的,即便行为者不存在任何主

观过错,也需要承担道德责任[19]17。按照客观性原则对人工智能技术事件进行责任归属,

主要考查行为与后果之间的因果关系即可,不必再关注行为者的主观意图。这样,所有与

人工智能技术事件存在哪怕一点因果关系的对象,都可能被问责。面临问责,被问责者承

担辩护责任,要求解释自己在行动中所发挥的作用,也可以为自己提供辩护理由,如前文

提到的缺乏控制能力、不具备道德意图、不符合主体条件等。当然,人工智能只能在人类

专家的协助下做出辩护或回应,这进一步要求设计回溯算法或增加可视化处理,使机器行

为变得可追溯。辩护失败后,赔偿责任就会适时出现。人工智能在隐喻和象征意义上被

动接受惩罚责任,而其余的惩罚、赔偿或补偿责任仍由人类承担。对于问责、辩护责任和

赔偿责任来说,归属的过程和结果必须是各方可接受的,即造成损害与承担责任之间是对

等的或者说风险与收益是匹配的。如果责任远超过收益,可能会影响个体参与人工智能

发展和应用的积极性;如果责任远低于收益,可能造成有人无视人工智能发展过程中的消

极影响,盲目扩张,最终造成不可弥补的损失。基于风险—收益进行道德责任归属,进一

步从前瞻性意义上对如何开发、部署和使用人工智能提出了道德责任要求,从而使“责任

链”构成了一个循环运动的逻辑闭环(参见表1)。

表1 道德责任归属的“责任链”

道德责任归属

首要

责任

衍生责任或“责任链”

二级责任 三级责任

问责 责任归因 过错责任 辩护责任

惩罚、赔偿或

补偿责任

是否有明确归属

人类行为者

人工智能

是 是 存疑 是 是

是 是 可能 是 是

是 是

否(隐喻意义

上可能)

有条件

部分(隐喻意义

上惩罚责任)

1.首要责任涉及人类、人工智能体等承担实质性的道德责任,本文暂不做分析,另撰文专门讨论。

综上所述,人工智能确实造成了道德责任归属的分离,也造成了过错责任、赔偿责任

上的某些撕裂。但道德责任归属问题并不是单独出现的,而是以“责任链”的方式出现,而

且这些责任还具有一定程度的可替换性,因此,只要在“责任链”上至少有一个备选对象可

以明确地进行道德责任归属,就不存在所谓的责任鸿沟。

[参 考 文 献]

[1] MatthiasA.Theresponsibilitygap:ascribingresponsibilityfortheactionsoflearningautomata[J].Ethicsand

InformationTechnology,2004,6(3):175-183.

[2] SparrowR.Killerrobots[J].JournalofAppliedPhilosophy,2007,24(1):62-77.

[3] 刘博韬,金香花.人工智能的责任鸿沟———基于归因过程的分析[J].道德与文明,2021(6):115-131.

[4] MarinoD,TamburriniG.Learningrobotsandhumanresponsibility[J].InternationalReview ofInformation

Ethics,2006,6:46-51.

[5] JohnsonDG.Technologywithnohumanresponsibility[J].JournalofBusinessEthics,2015,127(4):707-715.

[6] TigardD W.Thereisnotechno-responsibilitygap[J].Philosophy& Technology,2021,34(3):589-607.

[7] SioFSde,MecacciG.Fourresponsibilitygapswithartifcialintelligence:Whytheymatterandhowtoaddress

them[J].Philosophy& Technology,2021,34(4):1057-1084.

[8] 郭菁.基于人机联合行动体的责任归因[J].自然辩证法研究,2020(11):54-60.

[9] ChampagneM,TonkensR.Bridgingtheresponsibilitygapinautomatedwarfare[J].Philosophy & Technology,

153

第159页

2015,28(1):125-137.

[10] [德]阿明·格伦瓦尔德.技术伦理学手册[M].吴宁,译.北京:社会科学文献出版社,2017.

[11] JohnsonDG,VerdicchioM.AI,agencyandresponsibility:theVWfraudcaseandbeyond[J].AI& Society,

2019,34(3):639-647.

[12] 张正清,黄晓伟.作为“他者”而承担道德责任的智能机器———一种人工智能成为道德能动者的可能性[J].道德与

文明,2018(4):26-33.

[13] WaldropM M.Aquestionofresponsibility[J].AIMagazine,1987,8(1):29-39.

[14] [美]温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,主译.北京:北京大学出版

社,2017.

[15] AsaroP M.Robotsandresponsibilityfrom alegalperspective[EB/OL].(2007-01-20)[2023-07-31].

http://citeseerxi.st.psu.edu/viewdoc/download;jsessionid=78F466B9A56488D53D5CE75F6431A29B? doi=10.

1.1.475.809&rep=rep1&type=pdf.

[16] 曲蓉.人工智能责任伦理的可能性条件[J].自然辩证法研究,2021(11):50-56.

[17] 李德毅.人工智能导论[M].北京:中国科学技术出版社,2018.

[18] JohnsonDG,PowersT M.Computersystemsandresponsibility:Anormativelookattechnologicalcomplexity

[J].EthicsandInformationTechnology,2005,7(2):99-107.

[19] [德]奥特弗利德·赫费.作为现代化之代价的道德———应用伦理学前沿问题研究[M].邓安庆,朱更生,译.上海:

上海译文出版社,2005.

[20] 虞法,朱菁.道德责任的四重根[J].中国高校社会科学,2017(4):86-97.

[21] 蔡曙山.哲学家如何理解人工智能———塞尔的“中文房间争论”及其意义[J].自然辩证法研究,2001(11):18-22.

[22] 高新民,沈学君.人工智能的瓶颈问题与意向性的“建筑术”[J].科学技术哲学研究,2009(6):18-24.

[23] 智能机器人与人聊天学会骂脏话 微软忙纠偏[EB/OL].(2016-03-15)[2023-07-31].https://tech.china.

com/news/prnasia/11082256/20160325/22298938.html.

AttributionofMoralResponsibilityforArtificialIntelligence

—ResponsibilityChasm ArgumentandResponse

QURong

(SchoolofMarxism,NanjingUniversityofInformationEngineering,Nanjing210044,China)

Abstract:Theresponsibilitygap,uponitsintroduction,hastriggeredanextensiveandheatedmoral

debateintheacademia,which mainlyincludesthree majorpositions:affirmation,denialand

resolutionism.ThisdebateiscloselyrelatedtothedualityofAItechnologyandthecomplexityofthe

conceptofresponsibility.Ontheonehand,thedualcharacteristicsofAIasbothaself-subjectanda

technologicaltooldeterminethatbothhumanself-subjectsand AIhaveacausalrelationship with

machinebehaviors,andbothcanberegardedastheperpetratorsofmachinebehaviors.Ontheother

hand,moralresponsibilityoftenmeansverydifferentbutsomewhatlogicallyconnectedmeaningsin

differentcontexts.ThedevelopmentofAIhascreatedaseparationofdifferenttypesofresponsibility

attribution,aswellasatearinitsattributionofcertainresponsibilities.However,intermsofthe

chainofresponsibilityofartificialintelligence,thechainisalwayscompleteandthereisnoso-called

responsibilitygap.

Key words: responsibility divide; artificial intelligence; moral responsibility; responsibility

attribution;machinebehaviour

[责任编辑 赵立庆]

154

百万用户使用云展网进行网页电子书制作,只要您有文档,即可一键上传,自动生成链接和二维码(独立电子书),支持分享到微信和网站!
收藏
转发
下载
免费制作
其他案例
更多案例
免费制作
x
{{item.desc}}
下载
{{item.title}}
{{toast}}