網(wǎng)站首頁 | 網(wǎng)站地圖

人民論壇網(wǎng)·國家治理網(wǎng)> 前沿理論> 正文

科技倫理治理的社會心理取向

——以人工智能為例

摘 要:對于科技倫理治理來說,最簡單直接的方式就是制定規(guī)則。但現(xiàn)有的無論是國家政府還是組織機構(gòu)等制定的規(guī)條均還不具有普適性,同時,缺乏對“知行合一”的有效約束是“規(guī)條式”治理的突出問題。今后進一步充實科技倫理治理,首先要認(rèn)清人工智能倫理考察的是人工智能和人之間的關(guān)系規(guī)律,而面向人的人工智能應(yīng)該考慮普通人是如何看待人工智慧并進行交互的。此外,將人類抽象道德規(guī)范轉(zhuǎn)化為具體的規(guī)則,即幫助科技“習(xí)得腳本、鍛造美德”,是科技倫理治理的另一方面。

關(guān)鍵詞:科技倫理治理 科技向善 人工智能 科技道德

中圖分類號B82 文獻標(biāo)識碼A

科技倫理治理現(xiàn)狀:尚在羅列規(guī)條、以規(guī)為宗

若論科技倫理治理,也許最直接的方式就是制定規(guī)則,這種規(guī)則可能包括政策、法規(guī)、準(zhǔn)則、倫理守則等(為簡化表述,下文一律將之簡稱為“規(guī)條”)。制定這些規(guī)條的主體可能是各國政府或各國政府的聯(lián)合體(如歐盟、聯(lián)合國等)、可能是國際或者國內(nèi)的行業(yè)協(xié)會、研究機構(gòu)或者研究組織(如美國計算機學(xué)會ACM),也可能是相關(guān)人工智能頭部企業(yè)(如谷歌、騰訊等)。應(yīng)該沒有人不同意制定這些規(guī)條的最終目的都是為了進行科技倫理治理,或者更進一步創(chuàng)造出道德的人工智能體等科技載體,但如此之多的倫理規(guī)條本身已經(jīng)說明了各個層面的規(guī)則制定者本身對人工智能的倫理風(fēng)險沒有達成普遍一致,也沒有形成一個通用普適的倫理風(fēng)險防范守則。

以人工智能規(guī)條為例,Jobin等人(2019)統(tǒng)計了現(xiàn)存的用英、法、德、意等語言寫就的84個政府規(guī)條,發(fā)現(xiàn)確實有一些得到多數(shù)共識的倫理原則,如果將其進行排名,則為:透明、公正、無傷、負(fù)責(zé)、隱私、受益、自主、信任、可持續(xù)、尊嚴(yán)以及團結(jié)等。Zeng等人(2019)在其構(gòu)建的人工智能規(guī)條數(shù)據(jù)庫之基礎(chǔ)上,增加了中、日等亞洲規(guī)條和業(yè)界規(guī)條,用自然語言處理的語義相似性也確定了具有多數(shù)共識的倫理原則,即:人性、合作、共享、公平、透明、隱私、安全、可歸責(zé)以及強人工智能。科技倫理規(guī)條的計數(shù)與語義聚類結(jié)果甚至并不相同。當(dāng)然我國也有較為重要的人工智能規(guī)條,比如2019年6月國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則。這些規(guī)條看似全面,但其是否真實能用于人工智能實踐呢?科技倫理要“塑造科技向善的文化理念和保障機制”,那么完成此目標(biāo)便需要行勝于言??萍紓惱碇卫頉]有規(guī)條寸步難行,但只有規(guī)條并不能讓科技向善。

原因之一在于規(guī)條是抽象的。道德心理學(xué)的研究發(fā)現(xiàn),抽象道德原則并不能指導(dǎo)實際道德行為,這中間有巨大的鴻溝[1]。譬如小學(xué)生守則里有這樣的規(guī)條,即“尊敬師長、團結(jié)同學(xué)”,而實際上一個特定的學(xué)生在路上碰到了老師他可能還是不知道怎么辦,因為在心理上不知道如何行為。多數(shù)倫理規(guī)條均存在此問題,其過于抽象和泛化,而非實際可操作的規(guī)則。因此,要讓小學(xué)生做出“尊敬師長”的行為結(jié)果,不僅需要讓他們背下道德規(guī)條,同時還要告訴他們在不同的情境下應(yīng)當(dāng)如何做的具體實踐腳本,比如“當(dāng)老師迎面走來時,你要停下來,鞠躬說:老師好!”。道德教育不能只是講授道德原理和原則、灌輸?shù)赖滤枷?,讓學(xué)生練習(xí)應(yīng)該怎么做才是正確的[1]。同理,對于人工智能來說,我們不只要列出倫理規(guī)條,還應(yīng)設(shè)置大量具體情境的倫理腳本,這一點不僅是對人工智能的設(shè)計者、使用者來說如此,對人工智能本身也一樣。即我們不能只設(shè)置一條“透明度”原則,我們需要告訴人工智能設(shè)計者,類似:“第一,每一個數(shù)據(jù)點的來源都必須登記和審查;第二,對每一個數(shù)據(jù)點的來源審查應(yīng)該……”,只有這樣具體的規(guī)則才是具體可行、可以用于風(fēng)險防范的。

另一個原因是規(guī)條沒有解決知行分離的問題。就如人工智能倫理問題,確實可以立下非常具體的規(guī)條,哪怕即使是抽象的規(guī)條,也存在人是否可能遵守的現(xiàn)實情況。誠如Müller(2020)所言,人工智能倫理問題的最大現(xiàn)實困難是切實加強政府以及個體的調(diào)控,而非制定政策。倫理規(guī)條和政策制定是相對前期的工作,而政策的落地執(zhí)行以及每個人工智能利益相關(guān)者的切實執(zhí)行才是切實有效的。只用規(guī)條來進行科技倫理治理容易造成知行不一。很多時候我們看到很多人能大談倫理原則,但卻經(jīng)常做出不道德的行為。以應(yīng)該習(xí)得了最多倫理規(guī)范的倫理學(xué)家作為研究對象,心理學(xué)家發(fā)現(xiàn),受過良好和長期道德教育、從事道德相關(guān)的研究、探討道德問題的倫理學(xué)家并不比普通人更加道德(Schwitzgebel&Rust,2009,2010,2013;Schwitzgebel&Cushman,2012;Schwitzgebel,Rust,Huang,Moore,&Coates,2012)。在美國頂尖的學(xué)術(shù)圖書館中,當(dāng)代倫理學(xué)圖書的丟失率要比非倫理學(xué)圖書的丟失率高50%,而經(jīng)典倫理學(xué)著作的丟失率則要高出2倍。這些倫理學(xué)專業(yè)圖書的閱讀者和借閱者通常為倫理學(xué)教授或者研究生。同時,國外倫理學(xué)教授也沒有像人們直覺的那樣履行更多的道德責(zé)任,他們在美國選舉時的投票率并不比其他專業(yè)的教授要高。倫理學(xué)家比其他人擁有更多的道德知識、受過更多的道德教育,但是他們卻并不會比他人更多地表現(xiàn)出道德行為,這是道德問題上知行不一的體現(xiàn)。

科技倫理治理應(yīng)當(dāng)以人為本、治心為上

為什么盡管規(guī)則沒有用,但是大部分做法仍在羅列規(guī)范呢?答案是,因為規(guī)條確實非常重要,也確屬先導(dǎo)工作。而羅列規(guī)條較之“做出道德的人工智能體”這樣的具體實踐問題要更易解決。深層次答案則是,規(guī)條的產(chǎn)生乃考察精英智慧的結(jié)晶。羅列規(guī)條的抽象工作通常情況下由哲學(xué)社會科學(xué)家以及計算機科學(xué)家商討而定。而事實上,由于學(xué)者關(guān)心精英智慧而忽視普通人想法,專家洞見和哲學(xué)家智慧不一定正確,而面向人的人工智能應(yīng)該考慮普通人的感覺,考慮普通人是如何看待人工智慧并進行交互的。從精英智慧轉(zhuǎn)向人民群眾的實踐智慧才是科技倫理治理之要義。事實上,人工智能以人為本也是學(xué)術(shù)界和業(yè)界共識。2019年,斯坦福大學(xué)便成立以人為本的人工智能研究院(HAI),其院長李飛飛前一年便撰文闡述以人為本的人工智能的基本思想,即讓人工智能更好地反映人類的深層智能;人工智能應(yīng)幫助人類變得更強,而不是替代人類;以及確保人工智能在發(fā)展過程中對人類的影響得到正確的引導(dǎo)。以人為本便是要考察普通人在現(xiàn)實生活中與科技的交互與認(rèn)知,而這是典型的社會心理學(xué)研究對象。遺憾的是,社會心理學(xué)幾乎在科技倫理治理中被遺忘。

還以人工智能為例。智能本身是心理學(xué)的獨有研究對象,一度被認(rèn)為是認(rèn)知科學(xué)的核心。而事實上的認(rèn)知科學(xué)已經(jīng)接近被心理學(xué)大量侵蝕的境地,不僅認(rèn)知科學(xué)之父George Miller(2003)斷言在2035年認(rèn)知科學(xué)可能全部會被心理學(xué)占領(lǐng),現(xiàn)今對認(rèn)知科學(xué)雜志上發(fā)表的文章進行統(tǒng)計也可以發(fā)現(xiàn),心理學(xué)論文對比哲學(xué)、語言學(xué)、人類學(xué)等占巨大優(yōu)勢,甚至遠(yuǎn)遠(yuǎn)超過一半比例[2]。事實上,古老的人工智能方法采用的更多是基于人類認(rèn)知過程的模擬,比如進行決策樹的選擇等。而現(xiàn)今廣泛使用的人工智能方法則是深度學(xué)習(xí),這種方法也完全基于心理學(xué)的理論。深度學(xué)習(xí)采用的是基于大數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模型。它來源于David Hubel和Torsten Wiesel(2004)視覺認(rèn)知上的特征覺察器理論,表明不同的神經(jīng)元對視覺的不同特征做反應(yīng)。這就導(dǎo)致了深度學(xué)習(xí)的分層模式識別過程,即在刺激的輸入層和識別層中加入很多層來識別不同的對象特征,層越多就越深度,且效果就越好。這種模式加上大量數(shù)據(jù)便可以進行訓(xùn)練,將特定的輸入和輸出關(guān)聯(lián)起來。這是現(xiàn)在大部分人工智能生產(chǎn)過程所采取的模式。可以簡單理解為一系列輸入和對應(yīng)輸出間基于大量數(shù)據(jù)訓(xùn)練出的中間有結(jié)構(gòu)的數(shù)學(xué)統(tǒng)計模型,這是以深度學(xué)習(xí)為基礎(chǔ)的人工智能的本質(zhì)。

這種方式可能造成兩點誤解,其一是人工智能似乎和神經(jīng)科學(xué)有關(guān),但這只是因為名義上的混淆,其實它幾乎與大腦神經(jīng)結(jié)構(gòu)以及當(dāng)前神經(jīng)科學(xué)研究并無太多關(guān)系。外界和心理學(xué)界均普遍認(rèn)為,認(rèn)知神經(jīng)科學(xué)才做人工智能。而事實上,人工智能倫理考察的是人工智能和人之間的關(guān)系規(guī)律,這種社會心理學(xué)才是以人為本的人工智能。其二是現(xiàn)存人工智能方法是在人類智能研究上的倒退。細(xì)究早期人工智能做法,是將人類認(rèn)知方式進行一步一步邏輯推理并將其用于人工智能,這種方法更像研究人類智慧的心理學(xué)中的認(rèn)知主義。而深度學(xué)習(xí)這種只管輸入和輸出,而不管中間黑箱過程的做法,更像心理學(xué)中的行為主義。行為主義深信刺激反應(yīng)的聯(lián)結(jié)足以解釋一切人類行為,而心理過程絕非必要,這是一種非常結(jié)果導(dǎo)向的實用傾向。而認(rèn)知主義需要打開刺激和反應(yīng)之間的黑箱,看看人類心理究竟如何運作,要知其然還要知其所以然。心理學(xué)的發(fā)展是從行為主義向認(rèn)知心理學(xué)的發(fā)展,而人工智能的發(fā)展是相反且倒退的,其發(fā)展是從認(rèn)知主義向行為主義的發(fā)展,現(xiàn)在以解決實際問題為主,而幾乎不去考慮中間的原理。深度學(xué)習(xí)算法造成的問題是人工智能實際上沒有心理,也就是說,人工智能離人反而越來越遠(yuǎn)了。它確實可以在有限制的框架下運用強大的計算能力很好地解決問題,比如圍棋領(lǐng)域。但這是因為圍棋相對封閉,規(guī)則固定。一旦用它和人進行交互,則倫理問題便很快顯現(xiàn)。比如自動駕駛汽車很難進行道德決策,是不是只要前面出現(xiàn)五位行人,汽車都要選擇寧愿撞死車?yán)锏囊粋€乘客來保住行人的安全?如果是這樣,那么誰會買這輛汽車呢,這里明顯存在很難解決的社會心理學(xué)悖論[3][4][5]。當(dāng)然自動駕駛汽車還有很多技術(shù)不是使用深度學(xué)習(xí),還使用了原有的決策模型,但其結(jié)果還尚且如此。遠(yuǎn)期來說,我們預(yù)期在人類解決了最初的實用性問題后,還是會將人工智能的技術(shù)轉(zhuǎn)向借鑒人類認(rèn)知,打開黑箱來進行處理,這樣的科技才更有人心的意味。

科技倫理治理可以習(xí)得腳本、鍛造美德

科技倫理治理的目標(biāo)如果是科技向善,而道德規(guī)條重要又無法僅依靠自身實現(xiàn)有效應(yīng)用,社會心理學(xué)如何幫助我們有效進行呢?簡單來說,讓科技理解規(guī)條,或至少按照規(guī)條內(nèi)容產(chǎn)生行為甚為重要。人類已有的價值系統(tǒng)對新興科技來說適用嗎?實際上這個問題的答案非常簡單:不適用。因為人類價值觀系統(tǒng)是一種抽象、盡量簡約化的系統(tǒng),而人工智能所輸入的必須是一種可以轉(zhuǎn)化為變量或者代碼表征的極其具體的行為規(guī)則。這種規(guī)則如果可以,最好表述為“如果…那么…”(if…then…)的形式,這符合認(rèn)知情感人格系統(tǒng)對于行為發(fā)生的定義[1]。而如果將人類總結(jié)的抽象道德規(guī)范系統(tǒng)轉(zhuǎn)化為具體的規(guī)則,這是一個演繹的過程,而具體需要演繹出多少特異化的規(guī)則,也就是說人工智能學(xué)習(xí)材料中需要包含究竟何種程度多樣化的場景,這需要社會心理學(xué)。通常情況下,人工智能科學(xué)家面對這樣的問題會進行一個粗略的估計,如李飛飛等人在ImageNet中對于圖片的人工標(biāo)注數(shù)量也只是在進行粗略估計后看其識別率變化[6]。圖片容易獲得,而道德情境卻很難編制或者估計其數(shù)量。一個可能的途徑是使用近期心理學(xué)對情境的分類模型[7]重新對道德情境進行分類、演繹、編制、提取特征等過程,從而來制作人工智能學(xué)習(xí)材料。

腳本是一個“如果……那么……”(If…Then…)的規(guī)則,它指導(dǎo)人的行為,并告訴一個人如果你處于某種情境下,那么你就要做某種行為,這也就是自上而下的算法運算所遵循的規(guī)則。先前自下而上的深度學(xué)習(xí)方式在解決科技倫理問題時均是規(guī)范倫理學(xué)式的,而如果一旦運用腳本方式自上而下地進行人工智能倫理學(xué)習(xí),則可以采用美德倫理學(xué)方案[1]。因為美德即道德人格,人格表現(xiàn)在對情境的反應(yīng)上,而如果這些聯(lián)接是穩(wěn)定的,我們就可以把它看作特質(zhì),特質(zhì)就是這樣一定的規(guī)則。但是并不是每一個聯(lián)接或者每一個規(guī)則都是特質(zhì),特質(zhì)應(yīng)該表現(xiàn)為一套相近的聯(lián)接的集合。比如:如果在電梯里有一個陌生人,那么我就與他攀談;以及如果我在和人談話,那么我不會主動停下來。這是兩個腳本,但是這兩個腳本以及其他類似腳本合起來會構(gòu)成一個特質(zhì),那便是外向性人格。所以賦予人工智能以美德,實際上便是讓人工智能習(xí)得一套道德行為腳本,這種腳本可能是創(chuàng)造者自上而下直接賦予它的,也可能是給它正確的輸入輸出、由它自下而上自行習(xí)得的,前者對應(yīng)于傳統(tǒng)基于認(rèn)知主義的人工智能模型,而后者對應(yīng)于基于行為主義的人工智能模型。由于人工智能無法學(xué)習(xí)遷移,這種道德行為腳本的獲得必須具體到某種情境,而非泛化的原則;如何制作出如此細(xì)致的腳本,便需要基于理論的哲學(xué)、倫理學(xué)以及基于普通人信念和知覺的心理學(xué)共同協(xié)作。

先考慮后者,即基于行為主義的人工智能自下而上的學(xué)習(xí)模型。這在現(xiàn)實生活中是否可行?實際上是困難的,現(xiàn)實例證便是大多數(shù)聊天機器人都以被人類教壞學(xué)習(xí)到歧視、惡語后慘淡結(jié)束,那么如何避免其習(xí)得人類并不喜歡的道德規(guī)則呢?似乎至少有三種途徑可以選擇[8]:一種是,這些道德人工智能已經(jīng)在誕生之初便學(xué)習(xí)得特別順暢,已然具有了明辨是非的能力,它知道選擇何事可為、何事不可為;一種是,限制其今后進行訓(xùn)練迭代的材料,制定一套專門挑選日后迭代訓(xùn)練材料的規(guī)則,讓其主動選擇合適的向善的迭代學(xué)習(xí)材料、主動放棄可能會習(xí)得作惡的迭代學(xué)習(xí)材料;再有一種是,訓(xùn)練一種可能的自我控制能力,來約束人工智能自身,而這時人工智能已然具有人性了。這三種方式均不太可能在現(xiàn)在發(fā)生,而真實可以發(fā)生之事還是需要以行為腳本形式自上而下地呈現(xiàn)。

因此,人工智能倫理問題的解決最終一定需要包容社會心理學(xué)方式。對于人工智能來說,不要列出具體的倫理規(guī)條,應(yīng)該用美德倫理學(xué)方法做出負(fù)責(zé)任、道德的人工智能體,應(yīng)該設(shè)置大量具體情境,把它設(shè)置成倫理腳本。我們不能只設(shè)計一條所謂透明度的原則,還要明確規(guī)定每個數(shù)據(jù)來源必須登記和審查等。只有把它設(shè)計成規(guī)則,即如果怎么樣、那么怎么樣,自上而下地列出規(guī)則,讓人工智能知道它如何做才有用。這和現(xiàn)在的底層往上的數(shù)據(jù)驅(qū)動的、深度學(xué)習(xí)的方法是相反的。心理學(xué)的情境研究實際上已經(jīng)把情境做了分類。應(yīng)該進行社會心理學(xué)研究把人工智能會面臨的情境識別出來,對每個情境寫出道德行為腳本,自上而下地解決科技倫理治理問題。

【本文作者為武漢大學(xué)哲學(xué)學(xué)院教授;本文系國家社科基金項目“擬人化人工智能的道德責(zé)任歸因研究”(項目編號:20CZX059)階段性成果】

注釋

[1]喻豐、彭凱平、董蕊、柴方圓、韓婷婷:《道德人格研究:范式與分歧》,《心理科學(xué)進展》,2013年第12期,第2235—2244頁。

[2]Núnez,R.,Allen,M.,Gao,R.,Rigoli,C. M.,Relaford-Doyle,J.,& Semenuks,A. What happened to cognitive science?. Nature Human Behaviour,2019,3(8),728-791.

[3]Awad,E.,et al.,The Moral Machine experiment. Nature,2018,563(7729),59-64.

[4]Awad,E.,et al.,Drivers are blamed more than their automated cars when both make mistakes. Nature Human Behaviour,2020,4(2),134-143.

[5]Rahwan,I.,Cebrian,M.,Obradovich,N.,Bongard,J.,Bonnefon,J. F.,Breazeal,C.,... & Jennings,N. R. Machine behaviour. Nature,2019,568(7753),477-486.

[6]Deng,J.,Dong,W.,Socher,R.,Li,L. J.,Li,K.,& Li,F(xiàn). Imagenet: A large-scale hierarchical image database. In Computer Vision and Pattern Recognition,2009 IEEE Conference,248-255.

[7]Rauthmann,et al., The situational eight DIAMONDS: A taxonomy of major dimensions of situation characteristics. Journal of Personality and Social Psychology,2014,Vol. 107,677-718.

[8]喻豐、許麗穎:《如何做出道德的人工智能體?——心理學(xué)的視角》,《全球傳媒學(xué)刊》,2018年第4期,第24—42頁。

責(zé)編: 李 懿/美編:石 玉

The Psychosocial Aspect of Governance over Ethics in Science and Technology: A Focus on Artificial Intelligence

Yu Feng

Abstract: The simplest and most direct way for governance over ethics in science and technology is to make rules. However, the existing rules and regulations made by the central government and organizations are not yet universally applicable. Meanwhile, the lack of effective constraints to achieve "unity of knowledge and action" is a prominent problem of "rule-based" governance. To further enrich the governance over ethics in science and technology in the future, we should first recognize that the ethics of artificial intelligence examines the relationship between artificial intelligence and human beings, and that human-oriented artificial intelligence should consider how ordinary people view and interact with artificial intelligence. In addition, translating abstract moral norms of humans into concrete rules, i.e., helping technology "acquire human virtues," is another aspect of governance over ethics in science and technology.

Keywords: governance over ethics in science and technology; technology for social good; artificial intelligence; science and technology ethics

聲明:本文為《國家治理》周刊原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)國家治理周刊微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。

責(zé)任編輯:羅婷