文(wén) | 孙良(liáng)国 大连海事大学法学院(yuàn)教授
人(rén)工智(zhì)能(néng)的(de)治理是一项复杂的系统工程,也是人类(lèi)面对(duì)的(de)核心(xīn)问题之一。我国(guó)人工智能的发展要引领世(shì)界,就必须设(shè)计能够支撑人(rén)工智能可持续发(fā)展的治理机(jī)制。其中,法律(lǜ)作为治国之重器,应当在(zài)人工智能的治理中发挥重要作用。在(zài)人工智能的法律治理(lǐ)中,一个重要议题是,人工智(zhì)能(néng)是否应当成为法律主(zhǔ)体。在世界(jiè)范围内,此问题引起了巨大的(de)学术争论和社会争议(yì),不同甚或对(duì)立的观(guān)点不断登场(chǎng),远未(wèi)达(dá)成共识。笔者的观点是,人工智能不应当成为法律主体。
从实证法的角度看,立法机(jī)关可以(yǐ)通过法(fǎ)律认可任何(hé)组织、实体或者其他事物作为法律(lǜ)主体。任何突破传统法(fǎ)律制度(dù)的新制度,都必须是经过价值判断后的恰当结果(guǒ)。人工智能是(shì)否(fǒu)应当(dāng)成(chéng)为法律主体,取决于如下价值判断:既能(néng)够促进人工(gōng)智能的发(fā)展,同时也能(néng)够(gòu)消除(chú)人工(gōng)智能(néng)的不当风险。技(jì)术变革(gé)往往(wǎng)会伴随风险,但只要风险可(kě)控且(qiě)不会对人类价值产生不可接受的影响,那么法律就应采取最优措(cuò)施来抑制风险(xiǎn)。考虑当(dāng)下功用,兼顾长远影响,总体来看,维持(chí)目前法律制度,不赋予人(rén)工智(zhì)能(néng)以(yǐ)法律主体地位,是(shì)人工智能法(fǎ)律(lǜ)治(zhì)理的最优解。
人(rén)工(gōng)智能的发展并不(bú)需要其成为法律主体(tǐ)
人工智能是概括性术语(yǔ),从机器学习到大(dà)规模(mó)语言模型等均包括在内。人工智(zhì)能是否(fǒu)需要成为法律主体,可(kě)以从法律主体的历史演进(jìn)规律获(huò)得启(qǐ)示。
整体而言,法律主(zhǔ)体(tǐ)演进的基本规律可(kě)概括为从(cóng)“人(rén)可非人”到“非人可人”。即(jí)使(shǐ)到近(jìn)代社会(huì),自(zì)然人(公民)之间的权利也是有差(chà)别的(de)。只有在(zài)现(xiàn)代法治国家,自然人才享有平等的民事权利。不(bú)仅如此,法律主体也(yě)已经(jīng)不再限于生(shēng)物学意义上的人,公司等实体(tǐ)也(yě)获得了法律的明确(què)承(chéng)认(rèn),同时附之以股东或者出资(zī)人以自己对公司的出资为限承担责任。此种承(chéng)认促进了现(xiàn)代科学技(jì)术和组织(zhī)形式的跨越式变革,推进了人类的文明进步。尽管部分学(xué)者列(liè)举或(huò)者(zhě)设想了目前人工智能应当作(zuò)为法(fǎ)律(lǜ)主体的具体场景,然而经过(guò)仔细分析,这些(xiē)场景都没(méi)有显示出人工(gōng)智能(néng)需(xū)要作(zuò)为(wéi)法律主(zhǔ)体(tǐ)的真正客观(guān)需求,也没有显示出(chū)既有的(de)法律制度(如代(dài)理、公司法等)阻碍了人工智能的发展而通过(guò)使人工(gōng)智能成为法律主体会扫清该障碍(ài)。
有学者认为,对社会生活的参(cān)与是判断是否(fǒu)设定法律主体的重要因素。这一说法值得商(shāng)榷(què)。因(yīn)为(wéi)参与(yǔ)社会(huì)生活的身份有主体和客体之分,人工(gōng)智能(néng)是作为客体(tǐ)如机器、软件、程序或系统而参与的。即使客体很智能,甚至(zhì)可以在(zài)既有技术(shù)设计下做出独立判断(duàn),但此种独立(lì)判断(duàn)所归责的(de)主(zhǔ)体仍旧是设置、控(kòng)制或(huò)使用该机器的主体,所代(dài)表的依然是设置、控制或使(shǐ)用该客体的(de)主体的意志。事物很(hěn)重要与法律赋(fù)予其法律主体资(zī)格是两个完全不同的(de)问题。例如,对很多人来说,宠物已(yǐ)经成为社会生(shēng)活的重要部分,其中部分(fèn)人对宠物的依赖性(xìng)要(yào)远高于(yú)其他事物,但这并不能证成(chéng)宠物(wù)成为法(fǎ)律主体。同理,虽然人工智能非常重要,但(dàn)法律仍然没有使之成(chéng)为法律(lǜ)主体的内在需求。
从责任能力视角看,人工智(zhì)能不能成为法律主体
在民法上赋予法律主体(tǐ)资(zī)格的一(yī)个重(chóng)要条件是责任能力。承担责任(rèn)意味着,法(fǎ)律主体承受不利(lì)的财产负担(dān),而且该法律主(zhǔ)体通常应当(dāng)是最终的责任承担者。责任能力(lì)的一个前提条件是,法(fǎ)律主体必须有独立的(de)财产。如果(guǒ)没(méi)有独立(lì)的财产(chǎn),那么使人(rén)工智能承担(dān)责任(rèn)就没有实(shí)质意义。到(dào)目前为止甚或是(shì)在相当长(zhǎng)的未来,我们都很难设想人工智能(néng)需要或者能(néng)够拥有独立财(cái)产(chǎn)。由于(yú)这一前提条件并不具备,那么人工智能成(chéng)为法律主(zhǔ)体也就没有必要或者可能(néng)。从既(jì)有的媒体公开报道的人(rén)工智能(néng)导致人身(shēn)或(huò)者财(cái)产损害的案件中,我们均可以根据既有法律规定找到需要承担责任(rèn)的主体——开发人、设计者(zhě)、所有者(zhě)或(huò)使用(yòng)者等。换言之,既有的法律制度能够解决(jué)目前人工智能所引发(fā)的人(rén)身或财(cái)产损害问题。
进一步(bù)说(shuō),人工智能(néng)成为法律主体甚至有潜(qián)在的不可预(yù)计的风险。人(rén)工智能成为(wéi)法律主体的(de)一个自然推论是,它能够(gòu)独立承担责任。由(yóu)于(yú)人工智能的(de)确会导致伤害(hài)甚或大规模(mó)伤害,如隐私泄(xiè)露、数据毁(huǐ)坏、人身损害等——到目前为止,即(jí)使(shǐ)是专家也很难完全了解大规模模型的内在运行机(jī)制,并准确(què)预测未(wèi)来(lái)可能发生的(de)伤害及其规模,而(ér)且对如何抑制(zhì)未来的(de)大(dà)模型(xíng)伤害尚未形(xíng)成共识。不仅如此,更危险(xiǎn)的情形可(kě)能是,人(rén)工智能会有意或无意生成执行危险行为(wéi)的能力(lì),甚至“学(xué)习掌握”如何影响(xiǎng)人类(lèi)使用者,进而(ér)鼓(gǔ)动特定(dìng)群体以破坏(huài)性甚或毁灭(miè)式方式行动。此时,人工(gōng)智能承担责任(rèn)就(jiù)意味(wèi)着开发、设(shè)计、运(yùn)行、使用人工智能(néng)的(de)主体将(jiāng)可以逃避法律制裁,这(zhè)是极不(bú)可取(qǔ)的结(jié)果,必须予以避免。尽管“刺穿人工智能面纱”制度可以减(jiǎn)缓上述不利后果(guǒ),但是该制(zhì)度应当有严格的适用要件,不可常(cháng)规性地使(shǐ)用(yòng),否(fǒu)则就有违人(rén)工智能作为法律主体(tǐ)的设(shè)计初衷(zhōng)。
情(qíng)感、理性(xìng)、意(yì)志不证成(chéng)人工智能(néng)成为法律(lǜ)主体
情(qíng)感、理性、意志与人工智能(néng)的(de)法律主体问题有内在关(guān)联。一种(zhǒng)观点认为,赋(fù)予(yǔ)法律主体的一个传统要素(sù)是,其必须能够有(yǒu)情感(gǎn)、理性、意志。尽管人工智(zhì)能是以深(shēn)度(dù)学习为基础,然而,既有的人(rén)工智(zhì)能(néng)大(dà)都(dōu)不存在情感。尽管有些人工(gōng)智能的技术(shù)领导者认为,人(rén)工智能很快就向有情感(gǎn)的方向发展。然而,即使有情感,甚或是自主(zhǔ)情感,人工智能也不应当成为(wéi)法律主体。因为相比(bǐ)很多人工智能而言,很多动物已(yǐ)经具有丰富的情感甚至一定的自我意识。尽管动物可以(yǐ)获(huò)得某些权(quán)利(lì),然(rán)而从主导价值观审视,动物依然不(bú)能获(huò)得和人一样(yàng)完(wán)全相同(tóng)或者高度相似(sì)的法律主体身(shēn)份(fèn)。我国民法典(diǎn)也(yě)采(cǎi)纳了此(cǐ)种立场(chǎng)。从规(guī)范意义(yì)上评价,情感、理性、意志并非赋予(yǔ)法律(lǜ)主体的必备要素。与此相关的是,即使人工智能的推(tuī)理能力已经超过了人类,也无(wú)法(fǎ)证(zhèng)成赋予其法律主体地位是一种必备或者最优(yōu)的解决方案。
在(zài)比较法上(shàng),的确有(yǒu)一些事物尤其是自然资源被赋予了法(fǎ)律主体资格,如(rú)部分国家通过立法(fǎ)赋予了珊瑚礁、河流或机器人以法律主体资格。然而我们发现,这些特(tè)殊(shū)事物都(dōu)没有在民事法律中成(chéng)为法律(lǜ)主(zhǔ)体,更(gèng)没有(yǒu)在民(mín)事基础性法律——民法典中成为法律主体。2017年新西兰(lán)通过立(lì)法赋予(yǔ)了旺格(gé)努伊河的法律主(zhǔ)体资格,该法是与旺格(gé)努伊河毛利人妥协的一部分,是因为毛(máo)利人一直认为该(gāi)河有生(shēng)命力,该法(fǎ)的通(tōng)过能够给毛利(lì)人带(dài)来希望。在特别的(de)法律中赋予其某(mǒu)些特殊利益或(huò)者(zhě)权(quán)利,并不能在一般(bān)意义(yì)上证成其应当成为法(fǎ)律主体。
人工智能不作为(wéi)法律主体并不影响人工智(zhì)能法律制度的变革
可以预见的是,人工智能已经或者在未来(lái)可能(néng)会经受伤害。基(jī)于人类的价值判断以及现代(dài)法治(zhì)文明(míng),法律(lǜ)制度也不应故步自封(fēng),一个(gè)可(kě)能(néng)的预备(bèi)解决方案是,尽管人工智能不应当成为或者不是法律主体,但是有情感的人工(gōng)智能机器人或者其他产品未来可能会受到法律的(de)特殊规制(zhì),以保护人类对它们的某些情感利(lì)益(yì)和(hé)其(qí)他(tā)利益(yì)。
人工智能的复杂性也会产生一些(xiē)现行法很难有(yǒu)效解(jiě)决的问题。例(lì)如,大多数人工智能系统都是诸多开发人、设计者、所有人、经营者、用(yòng)户(hù)之间通过复(fù)杂的(de)跨国协议产(chǎn)生的产品(pǐn),在这一相互独立(lì)的(de)关系的国际化(huà)网络中,确定某(mǒu)个或者某几(jǐ)个(gè)主体来承担责任几乎不可能。不(bú)仅如此,基于不透明性以及一些人工智能系统的自我学(xué)习性,伤害的(de)风(fēng)险可能是以(yǐ)一种负责开发的主体所不(bú)可预见的方式导致的,确定特定(dìng)实体来承担责任更是难上加难。这就需(xū)要人工智能法律(lǜ)制(zhì)度的持(chí)续变革。更好拥抱人工智能的方式是设定适应性的(de)治理框架,以保护(hù)人(rén)类的文(wén)明成果。人工智能促进(jìn)人类(lèi)向好的方(fāng)向发(fā)展,就需(xū)要(yào)通过多层次制度(dù)为基础的有效治理来促使其具(jù)有可解释性、可预测性、可(kě)信(xìn)赖(lài)性。