在(zài)人(rén)工智能呈现一番欣(xīn)欣(xīn)向荣的景象之时,这项技术的问题和(hé)潜在威(wēi)胁也正在显现。是时候认真探(tàn)讨一下AI技术的(de)“价值观(guān)”问题(tí)了。
很多人最近一定注意(yì)到,有关AI的负(fù)面新闻频频上头条,而(ér)且还带有很强的魔幻(huàn)色彩。
11月20号(hào),韩国13岁的天才围棋少女金恩持承认了(le)她在(zài)9月(yuè)底的(de)一场(chǎng)在线围棋比赛中(zhōng)作弊,使用了AI推荐的棋谱,约(yuē)等于断送了自己(jǐ)的(de)职业生涯。11月27日,伊朗核武(wǔ)器专家法赫里扎遭(zāo)到一挺由AI控制(zhì)的自(zì)动机枪的袭击(jī)而身亡(wáng),这意味着精准的人脸识(shí)别技术作为AI武器已经(jīng)参与到人间的杀戮当中。
说(shuō)回国内(nèi),前一段时间有人带头盔去售楼处看房,就(jiù)是为避免(miǎn)被(bèi)房(fáng)地(dì)产(chǎn)商进行精准的人脸识别(bié)而被(bèi),当做“熟客”来“宰杀”,人(rén)脸(liǎn)识(shí)别滥(làn)用问题(tí)已摆在(zài)我们面前。更荒诞的是,最近(jìn)曝出一个房产中(zhōng)介就(jiù)利用(yòng)政府机构(gòu)的在(zài)线服(fú)务的流程(chéng)流动,轻而易举地让售房(fáng)者在不知情的状况下通过人脸识别系统把房子过户给了买(mǎi)家,自(zì)己套取了(le)交(jiāo)易款。原本为民提供(gòng)便(biàn)利(lì)的AI服务成了(le)别有用心(xīn)者的帮凶。
“杀人者人也,非刀(dāo)也”,这是我们为“工具无道德价值”做(zuò)辩(biàn)护(hù)的古老理由,也是(shì)人(rén)类确证自己具有独(dú)一无(wú)二的道德价值的傲(ào)娇说辞。同样这一理由似乎也可以(yǐ)为上面这(zhè)些AI的负面案例(lì)做(zuò)解释,可以说这里的(de)AI技术也都只是人类应用的工(gōng)具,真(zhēn)正(zhèng)始作俑者的还(hái)是人类。
这样说似乎无可(kě)厚非,正如(rú)一(yī)切技术的发明带给人类巨大福祉的同时(shí)也(yě)可能带来可能的(de)灾祸一样,反之亦然。比如(rú)诺贝尔发明(míng)的炸药(yào)可以开矿搬山(shān)也可以投入战场屠(tú)戮(lù)生灵,核技术可以用来制造原子弹(dàn)毁天灭地也可以用(yòng)来做核电站造福大众(zhòng)。理性乐观派总是(shì)相信(xìn)人(rén)类可以(yǐ)通过技术进步(bù)创造一个美丽新世(shì)界,并克服技术(shù)产生的种种负面效应。
不过,我们(men)需要注意的是,这一次人工智能技术革(gé)命(mìng)的(de)不同之(zhī)处在于它将真正重塑人类。以(yǐ)往的任何一场技术(shù)革命只是增强了人类在体力、脑(nǎo)力等方面的专项能力,但这(zhè)一次AI将(jiāng)直接抵达人的核心(xīn)本质——那个(gè)所(suǒ)谓撑(chēng)起(qǐ)人(rén)尊(zūn)严和价值的“自由意(yì)志”。
大多(duō)数人会将这种(zhǒng)宏大议题当作杞人忧天的无稽之谈,因为“狼来了”的故事人们已(yǐ)经(jīng)听过(guò)多次。很多大(dà)人物对于人(rén)工智能威胁人(rén)类地位的告诫,也有种“口(kǒu)嫌体正直”的意味,无不在自己的领域内推动AI技术(shù)的进化(huà)和使用。
但是作(zuò)为人类社(shè)会基石的“自(zì)由意志”本(běn)身已经从脑神(shén)经科(kē)学(xué)和(hé)社会学上被严(yán)重(chóng)挑战,而人工智能在(zài)模拟和指(zhǐ)导人(rén)类决策的能力又在大幅(fú)提升,这样我们就将接近(jìn)这(zhè)个人类命运改变的交(jiāo)汇点:人的自由被还原(yuán)为一种可计算的生理(lǐ)机(jī)制(zhì),AI的计算能力又超过(guò)人类的计算能力。
这时,我们也就如同温水中的青蛙(wā),只能黯然(rán)接受“被(bèi)煮熟”的命运安排。幸而在AI技术正在日渐(jiàn)暴(bào)露出(chū)这些无(wú)伤大雅的问题之时,我们仍然要有一(yī)种(zhǒng)对AI的警惕。
那就是AI拥有“自(zì)由意志”之时,可以做到价值中立吗?
技术的价(jià)值中立难(nán)成立,AI亦然
在关于“技术是否价值(zhí)中立”的探讨中,现实的人们大多会倾向于“技术中(zhōng)立”的观点(diǎn)。
我们通常认为一项(xiàng)技术的(de)道德价值在于使用(yòng)它的人(rén),比如决定一(yī)把刀(dāo)是(shì)用来烹饪还是用来行(háng)凶的关键是手握这把刀的那(nà)个人的想法;而一项技术的价值大小也(yě)不在于(yú)它自身(shēn)而在于使用它(tā)的人的用(yòng)途,比如在(zài)电影《上(shàng)帝(dì)也疯狂》里(lǐ),非洲原始部落的人们获得(dé)了一个完整的可乐玻璃瓶,这个在现代社会平平无奇的消费(fèi)品,从(cóng)一开始被当做无所不能(néng)的神物到(dào)后面变成引发(fā)族群纷争的魔鬼。这(zhè)个可乐瓶(píng)的价值在土著人手里(lǐ)就经历了(le)天壤之别的变(biàn)化。
这一假设(shè)的(de)好(hǎo)处就(jiù)是(shì)维护了人的尊严,选择什么样的技术用来(lái)做什(shí)么样的事情,都(dōu)是我们自己(jǐ)的选择,最终的后果都要由我们来负责。
但(dàn)实(shí)际上真的如(rú)此(cǐ)吗?
从最初(chū)的人类开(kāi)始掌握生火和(hé)放(fàng)火这一项最初级技术的时候,一个(gè)部落(luò)中的女性(xìng)就能释放出超出她体力数以万倍(bèi)的能量,因为(wéi)一把火就能烧(shāo)出一大片森(sēn)林(lín),他们就能收获这片土地里没有来得及逃跑的生灵的肉类,后面还可以开(kāi)垦出(chū)一片又一(yī)片(piàn)的农田。想(xiǎng)想今天(tiān)的亚(yà)马逊雨林(lín),在全球(qiú)化的(de)消费贸易网(wǎng)络中(zhōng),被巴西农民几乎烧毁(huǐ)殆尽来该种粮食(shí)作物(wù)。火本身是无(wú)目的的(de),但是使用(yòng)火(huǒ)的(de)人是(shì)知晓火的特性和(hé)威力,也能控制火的范围和用途。人类之火,与天然之(zhī)火的不同之(zhī)处在(zài)于,火本身已经包含(hán)了人类的意志和目的。
可(kě)以想(xiǎng)见,人类此后发(fā)明(míng)的任何一(yī)个(gè)工具或技术都或多或少包含(hán)着发明者(zhě)本身(shēn)的目的。一(yī)把锋(fēng)利(lì)的石刀既(jì)带有了切割了(le)功用,也(yě)带有了杀戮的能力(lì),而一把枪(qiāng)发明(míng)出来,自然(rán)就有着更(gèng)高(gāo)效(xiào)地杀戮(lù)的(de)功效在里面,不管买它的人(rén)是(shì)用来防身还是用来害人,都是深(shēn)知这一(yī)点的。一项(xiàng)技术(shù)的发明(míng)总是有原因的,而原因背后一(yī)定是(shì)有目的方向(xiàng)性的,暗(àn)含了其(qí)主观价(jià)值。
随着人类的技术工具越来(lái)越复杂和高级(jí),技术的目的性(xìng)对于使用者的影响也就越大。而且我们已经(jīng)越发习惯这些技(jì)术(shù),就(jiù)如同我们须臾(yú)离不(bú)开电池和网络一样,这些技(jì)术(shù)已(yǐ)经(jīng)在潜移默化(huà)地改变(biàn)着我们的选(xuǎn)择和判断。当(dāng)我们以为自己的选择是自由选择的时候,其实大多数都是被(bèi)工具所训练(liàn)和改变了的。
最典型(xíng)的现代技术莫过于各种(zhǒng)互联网应用(yòng)和(hé)游(yóu)戏(xì),以短视频最为典型。依托沉浸式展示、无限下滑换页和偏(piān)好推荐算法,短视频成为(wéi)手机用户(hù)的“杀(shā)时间”神器,很多人不知(zhī)不觉就会在其中花费数(shù)十(shí)分钟时(shí)间。如果稍加反省,我(wǒ)们就会发(fā)现(xiàn)这套推荐技术当中所包含的利(lì)用人性弱点和上瘾机制来获取用户时间的价值倾向。
虽然我们(men)清楚这些公司和他们的聪明无比的工程师未必有操纵人心的恶意,而只是有(yǒu)取(qǔ)得商业成功的(de)动机(jī),就会不断地(dì)加入操纵人心的技术。而这一次,工程师(shī)们(men)有了一个最好的助手,那就是人工(gōng)智(zhì)能(néng)。
AI算法的最(zuì)初目标一定是体现了人类的某一目的(de),比如在对抗学习中(zhōng)拿(ná)到最(zuì)高的分数、在图像识别中得到最高(gāo)的识别率,在(zài)偏好推荐上要不断(duàn)满足用户喜好,找到尽(jìn)可能多(duō)的(de)相似(sì)内容(róng)。人工(gōng)智能不(bú)仅(jǐn)在某些方面表(biǎo)现不错,而且还有了赶超人类决策的计算能力。
从“不够好”的(de)AI到“被(bèi)用坏”的AI
AI威胁论,很多人已(yǐ)经讲了(le)很多次,但我们这里并不是再重复这种大众所理解的“AI统治人类”“AI取(qǔ)代人类(lèi)工作”的(de)观(guān)点。因为(wéi)这种观点也仿佛再(zài)说AI会(huì)成为一个独立于人的新的物种存在,而如今来看,这样的AI不(bú)知(zhī)要到猴年马月才实现,或者根本无法实现。
我们这里强调(diào)的是,不同(tóng)于以往任何力学的、化学的(de)、生物的(de)技(jì)术,仅仅(jǐn)提高人类的(de)局部性的(de)能力,这一次AI技(jì)术这次要替代的是(shì)人的感知、判(pàn)断和决(jué)策能力,是对人的理性(xìng)行为的一种“复刻”。
AI技术的这种“非中立”特(tè)性(xìng)难免会导致以下结(jié)果(guǒ):
一(yī)、AI算法(fǎ)在数(shù)据(jù)训练中由于模型设(shè)计和数据(jù)样本不(bú)足等问题会(huì)难以避免地(dì)出现偏见。
比如,2018年的一(yī)则报道中,亚马逊的AI招聘系(xì)统被(bèi)指出(chū)系统性地歧视女性,在发(fā)现简历中出现“女性”字样(yàng)就(jiù)会(huì)降低应聘(pìn)者(zhě)的分数,而(ér)且还被发现,标注某两所女子大(dà)学的简历也会(huì)在排(pái)序上被降(jiàng)级。而人工智(zhì)能的(de)这一权重决策正是来自(zì)于学(xué)习了亚马逊此前10年的简历数据。显然,这十年中,大部(bù)分被录(lù)用的候选人都是男性,人类HR在招募(mù)技术岗位上的偏好也教会(huì)了人工(gōng)智能采用同样的策略(luè)。
而在更常见的人脸识别领域,则出现了明显的(de)性(xìng)别和种族歧视的算法偏见。根据(jù)美(měi)国NIST(国家标准及技术研究院)在2019年(nián)12月的一份报(bào)告(gào),在美国人脸(liǎn)识别系统(tǒng)中,黑人的人脸识别错误率是白种人的100倍,与黄种人相比(bǐ),黑人人脸的识(shí)别错误率也是前者的10倍,而在执法机关的(de)人脸图片库中,识别错误(wù)率(lǜ)最高的(de)是美国原(yuán)住民(mín)。另外(wài),女性(xìng)和老(lǎo)人的(de)脸(liǎn)部(bù)也更难(nán)以识别(bié)。这一研究的数据来源是美国签(qiān)证申请和过境数(shù)据库中的1800万(wàn)张(zhāng)人脸(liǎn)照片,并测试了189种人脸识别(bié)算(suàn)法(fǎ),研(yán)究结(jié)果(guǒ)代(dài)表了绝大部分(fèn)商业应用算法的结果。
今年(nián)上映的(de)一部《编码(mǎ)偏见》的流媒体影片正揭(jiē)露了这一问(wèn)题,人工智能正在接(jiē)管着关于人们(men)的信息(xī)、安(ān)全、机会甚至自由(yóu)等(děng)权力的时候(hòu),如果人们(men)不改(gǎi)正这些算法中(zhōng)存在的偏见和歧视,那么(me)AI技术会必然创造一(yī)个(gè)更加糟糕的世(shì)界,比如被错误识(shí)别并逮捕的少(shǎo)数族裔(yì)青(qīng)年、被算法判断为能力不足的女性员工,被垃圾信息所(suǒ)包围的少(shǎo)年。
当然,这还只是AI技术不(bú)够好的一种表现。很多人觉(jiào)得我(wǒ)们可以不断调整算法,增大数据样本就可以解决这些低级错误、算法歧视等问题。假如偏(piān)见可以消除、算法可以优化,我们又将迎来一个怎样的(de)局面呢?
二、AI技术(shù)很(hěn)可(kě)能会由于数据的规(guī)模聚集(jí)和(hé)技(jì)术竞赛的排(pái)他性中,掌(zhǎng)握在少数技术(shù)公司和政府手中,帮助拥有技术特权的(de)人群和组织获得难以撼动的权力和财富,从而巩固这一(yī)趋势(shì)。
我们不能说AI技(jì)术一定会(huì)助长极权和垄(lǒng)断,但是我们正在看到这(zhè)样的苗头(tóu)出(chū)现。
普通大众不仅通过在互(hù)联网上的各种操作交出了(le)自己的习惯偏好和消费数据,而且现在还在通(tōng)过可(kě)穿戴设备(bèi)等信息来获取(qǔ)我(wǒ)们的生理指标数(shù)据。如果任何一个AI算法系(xì)统(tǒng)能够同(tóng)时拥有这(zhè)两种数(shù)据,并且对其建立起相对应(yīng)的(de)相关性,那么(me),这一系统将(jiāng)真正全面(miàn)获得操纵(zòng)人(rén)心的(de)能力。
正由于我(wǒ)们人类的(de)任(rèn)何决策可(kě)以转化为各种生理、心理和行为的各种数据,而我们又(yòu)想(xiǎng)通过AI技(jì)术来洞(dòng)悉这一(yī)切背后的因果链(liàn)条,那(nà)么AI将(jiāng)有极大(dà)地(dì)可能(néng)完成人(rén)类(lèi)的这一(yī)使命,如果往好(hǎo)处走,AI将(jiāng)代替(tì)人类的智力(lì)释放出前所未有的生产力,如(rú)果(guǒ)往坏(huài)处走(zǒu),AI技术也将产生无法想象的破坏力。
比如,在核冬天的威慑之后,AI武(wǔ)器的发展将使(shǐ)得精准(zhǔn)杀戮成为(wéi)可能(néng),虽然(rán)在一定意(yì)义上可以避免大规模的(de)热武器冲突,但(dàn)是每个(gè)国家都将(jiāng)在这种无孔(kǒng)不入的AI武器或杀手机器人的(de)威胁下产生十足的敌意。如果这些AI武器一旦被极(jí)端组织掌握,更有可能成为(wéi)挑起事端的大杀器。再比如更有可能的一个趋势是,AI算法只是代(dài)表了少(shǎo)数特权阶层(céng)的意志,而(ér)大部分(fèn)人沦(lún)为(wéi)供AI进化的数据源(yuán)。
尽管来说,AI直接统治人(rén)类既无(wú)可能(néng),但AI被人类用坏,成为塑造人类不平等的帮凶是极有可能的。
现在,我们(men)更(gèng)重要(yào)的是,放弃(qì)对AI技术客观中立(lì)性的幻想,也要警惕AI算法对(duì)于我(wǒ)们决策的强大(dà)操纵力,同时又得(dé)致(zhì)力于推动人工智能的普惠,才是接(jiē)下来要做的事情。
对AI的自由(yóu)意志保(bǎo)留拒绝的权利
我们(men)这里只(zhī)是(shì)指(zhǐ)明了一个问题:人工(gōng)智能是存在价值观的,其(qí)价值观的来源(yuán)并非来自于突然的“自(zì)我觉醒”,而是从人这里继承了相应的价值(zhí)观(guān),“复刻”了人的所谓“自由(yóu)意志(zhì)”。
当AI算法不够强大的时候,其可能继承人类的认(rèn)知错误和偏见,但当AI算法足够强大的时(shí)候,其也并不会变得“客观中立(lì)”,而是体现了人类工具理性推向极致的价值观,那(nà)就是更(gèng)集中的权力(lì)、更多的财富、不断自(zì)我强化(huà)和升级。
这(zhè)一价值观(guān)反作(zuò)用到普通的人(rén)类个体(tǐ)身上,可能有两个(gè)结果,一种是与AI算法协(xié)同进化,在(zài)智识上甚(shèn)至生理上不断升(shēng)级自己,成为掌(zhǎng)控AI的发展趋向的超级人类(lèi);一种(zhǒng)是无法理(lǐ)解AI技术运行逻辑,也没有办法参与自主决策的(de)大众(zhòng),将(jiāng)自(zì)己的生活决策交给(gěi)算法(fǎ)。
因为人的(de)生(shēng)物学的进化速(sù)度实(shí)在难以赶上(shàng)AI计算能力(lì)的增长,人类的(de)知识只(zhī)能以(yǐ)线(xiàn)性(xìng)循环(huán)的方式一(yī)代又(yòu)一(yī)代(dài)传(chuán)授,而AI则是(shì)以指数级方式(shì)累计增长,这就决定了大多(duō)数(shù)人只能(néng)交付出自己的决策(cè)机制,而由AI来判断我们(men)的各种想法的成功概率。
而在今天,这一(yī)问题已以(yǐ)种(zhǒng)很隐蔽的(de)方式呈现着。正(zhèng)如很(hěn)多(duō)人认为自己要听(tīng)从自己内(nèi)心的声(shēng)音,但是我们却(què)并(bìng)不知道这(zhè)些内心的需求哪些(xiē)是我们的“自(zì)由意志”想要的,哪些是(shì)被各种价值(zhí)体系所塑造的。而我们知(zhī)道AI算法已经开始从每一个广告推(tuī)荐、每一个内容筛选、每一(yī)次自拍美颜、每一次你的行(háng)为追踪(zōng)下,就(jiù)已经开始为你(nǐ)进行需(xū)求的植入(rù)了。
在人工智能狂飙(biāo)突进的这几年(nián)当中,我们(men)其(qí)实已经过分站在“AI将造福(fú)人类”的宏大叙(xù)事(shì)当中,毕竟我们对于这一(yī)新型技术产业寄予了太多的希望。但是我们看到现(xiàn)在针对个人(rén)隐私(sī)领域上马的AI应用,正在竭尽所(suǒ)能地掌握人们的全方位数据,但其(qí)实我们并未对(duì)这一趋势做好(hǎo)准备。
最(zuì)近我们也注(zhù)意到,由于一些(xiē)行业(yè)和场景中人脸(liǎn)识别技术被大量(liàng)滥用,一(yī)些地方的相关部门开始推出整治规范,要求拆除这些AI设备。未来,这场(chǎng)关于人工智能(néng)的应用边界博(bó)弈(yì)的拉锯战还将(jiāng)一(yī)直持续(xù)下(xià)去(qù)。
但未来的长期博弈中,我(wǒ)们哪怕牺牲一点便利(lì)性,也要在让度自己(jǐ)的选择(zé)权,交给人工(gōng)智能来处理的时候,保持(chí)足(zú)够的冷静,同(tóng)时对AI有拥有“Say No”的(de)力量。