【摘要】人工智能在眾多行業(yè)領(lǐng)域掀起顛覆性革新的同時,也在科技倫理方面引發(fā)了一些爭議與憂慮??萍紓惱碇卫砑纫盐湛萍及l(fā)展規(guī)律,又要防止科技發(fā)展過程中可能出現(xiàn)的違反道德倫理的行為。應(yīng)聚焦人工智能發(fā)展應(yīng)用面臨的數(shù)據(jù)隱私、算法偏見和責(zé)任規(guī)則等科技倫理挑戰(zhàn),在推動人工智能創(chuàng)新發(fā)展的同時,完善數(shù)據(jù)保護(hù)與隱私立法,優(yōu)化算法設(shè)計與公平性審查,提高人工智能決策的透明度與可解釋性,明確責(zé)任主體,提高監(jiān)管水平,防范和規(guī)制人工智能技術(shù)的濫用。
【關(guān)鍵詞】人工智能 科技倫理 科技法治 【中圖分類號】D923 【文獻(xiàn)標(biāo)識碼】A
“現(xiàn)代計算機(jī)、博弈論之父”約翰·馮·諾依曼(John von Neumann)曾說:“技術(shù)日新月異,人類生活方式正在快速轉(zhuǎn)變,這一切給人類歷史帶來了一系列不可思議的奇點。我們曾經(jīng)熟悉的一切,都開始變得陌生。”當(dāng)前,人工智能(AI)的快速發(fā)展正在眾多行業(yè)領(lǐng)域掀起一場顛覆性的行業(yè)革新。2024年政府工作報告提出,深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用,開展“人工智能+”行動,這是我國政府工作報告首次提出“人工智能+”。“人工智能+”的概念,旨在鼓勵各行各業(yè)重視人工智能技術(shù)的應(yīng)用和落地。
自1956年約翰·麥卡錫(John McCarthy)首次提出“人工智能”概念以來,人工智能已經(jīng)取得了重大發(fā)展。對于AI帶來的發(fā)展機(jī)遇以及與之相伴的科技倫理治理挑戰(zhàn)應(yīng)給予辨證的理解。一方面,AI技術(shù)應(yīng)用展現(xiàn)出巨大的商業(yè)價值,在降低成本、提升效率、加快創(chuàng)新等方面發(fā)揮了重要作用,許多企業(yè)將其視為尋求突破、改變競爭格局的新途徑。另一方面,隨著AI的發(fā)展和應(yīng)用,人們面臨的科技倫理挑戰(zhàn)也日益增多,譬如,AI“復(fù)活”已故明星視頻在互聯(lián)網(wǎng)各大視頻平臺爆火, AI“復(fù)活”親人業(yè)務(wù)的網(wǎng)絡(luò)熱度急速飆升。從動態(tài)圖片到“可以對話的視頻”,再到能提供情感交互的虛擬體驗,這些圍繞AI技術(shù)新應(yīng)用的社會現(xiàn)象也引發(fā)了一些倫理憂慮。數(shù)字人作為AI技術(shù)率先落地的重要使用場景,仍存在法律與倫理上的爭議,亟需重新思考科學(xué)技術(shù)的倫理底線與合法性邊界。
當(dāng)前,我國科技倫理治理存在體制機(jī)制尚不健全、領(lǐng)域發(fā)展不均衡等問題,難以適應(yīng)AI科技創(chuàng)新發(fā)展的現(xiàn)實需要。在從實驗室技術(shù)研發(fā)走向商業(yè)化和社會化的過程中,AI發(fā)展應(yīng)用“數(shù)字公地”(digital commons)屬性逐步增強(qiáng),設(shè)定科技倫理法律規(guī)則的必要性愈發(fā)凸顯。AI科技倫理法治體系的構(gòu)建需厘清科技開發(fā)應(yīng)用、科技倫理設(shè)定、法律規(guī)則介入三者之間的關(guān)系,尋求科技發(fā)展、倫理引導(dǎo)及法律實現(xiàn)之間的平衡點,提升科技倫理法治能力,有效防范科技倫理風(fēng)險,不斷推動科技向善、造福人類。
AI技術(shù)發(fā)展與科技倫理的關(guān)系
人工智能是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù)。我國人工智能的應(yīng)用場景豐富、用戶群體規(guī)模和數(shù)據(jù)量龐大、產(chǎn)業(yè)需求與消費(fèi)需求旺盛,政府高度重視AI產(chǎn)業(yè)創(chuàng)新發(fā)展,大力促進(jìn)人工智能與實體經(jīng)濟(jì)深度融合。推動AI技術(shù)創(chuàng)新發(fā)展,對于培育新質(zhì)生產(chǎn)力具有重要作用。科技倫理是科技活動必須遵循的價值理念和行為規(guī)范,不僅要把握科技發(fā)展規(guī)律,同時應(yīng)約束科技發(fā)展可能出現(xiàn)的違反道德倫理的行為。當(dāng)下,AI科技倫理是一項復(fù)雜的實踐活動,貫穿于AI全生命周期的技術(shù)設(shè)計、產(chǎn)品行為、應(yīng)用場景等一系列環(huán)節(jié),涉及諸多實施行為主體、技術(shù)路線開發(fā)者、基礎(chǔ)設(shè)施所有者以及社會公眾等多方參與者的利益訴求和多種利益沖突?;诖?,AI的技術(shù)設(shè)計與應(yīng)用全周期應(yīng)遵守科技倫理規(guī)范??萍及l(fā)展與科技倫理之間并不是“二元對立”的關(guān)系,科技倫理通過防止科技發(fā)展的復(fù)雜性給社會帶來的倫理沖擊,更好地實現(xiàn)數(shù)字科技與人類、數(shù)字科技與自然、科技創(chuàng)新與科技倫理之間的和諧共生。
2022年3月,中共中央辦公廳、國務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見》,明確強(qiáng)調(diào)人工智能等是科技倫理治理的重點領(lǐng)域,充分表明國家對AI科技倫理治理的高度重視。不僅提出了“倫理先行、依法依規(guī)、敏捷治理、立足國情、開放合作”的治理要求,還提出了“增進(jìn)人類福祉、尊重生命權(quán)利、堅持公平公正、合理控制風(fēng)險、保持公開透明”的治理原則。2023年7月,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務(wù)管理暫行辦法》,為科技倫理治理指明了發(fā)展方向。2023年9月,科技部等十部門聯(lián)合研究起草、經(jīng)中央科技委員會同意并印發(fā)了《科技倫理審查辦法(試行)》,將人工智能列入應(yīng)設(shè)立科技倫理(審查)委員會的科技活動單位范圍內(nèi),在7大類需要實行清單管理的重大風(fēng)險新興科技活動中,有4大類涉及人工智能倫理審查。這些規(guī)范性文件凸顯了AI科技倫理治理的必要性、緊迫性和重要性。與快速迭代的技術(shù)相比,AI科技倫理治理落地實施的制度尚不完善,合規(guī)底線不夠明確,倫理審查與監(jiān)管存在空白,配套的懲戒措施缺乏力度。對此,一方面,要秉持科技向善的人文理念和倫理先行的價值觀念,將倫理道德融入AI全生命周期,增強(qiáng)全社會的AI科技倫理意識與行為自覺。另一方面,要加強(qiáng)科技倫理治理,尤其需要加強(qiáng)法律監(jiān)管,明確責(zé)任主體,強(qiáng)化倫理審查,推進(jìn)依法治理,實現(xiàn)科技發(fā)展與倫理治理相互促進(jìn)、動態(tài)調(diào)適。
AI發(fā)展應(yīng)用面臨的主要科技倫理挑戰(zhàn)
一是數(shù)據(jù)隱私。AI的本質(zhì)之一是數(shù)據(jù)驅(qū)動,數(shù)據(jù)往往包含用戶個人信息,是隱私與AI之間的重要連接要素。隨著AI技術(shù)的應(yīng)用,數(shù)據(jù)隱私和個人信息安全成為重要課題,需要正視數(shù)據(jù)隱私風(fēng)險,平衡技術(shù)發(fā)展與隱私保護(hù)之間的關(guān)系。
第一,數(shù)據(jù)不正當(dāng)收集與數(shù)據(jù)過度收集風(fēng)險。在通過自動識別算法、網(wǎng)絡(luò)爬蟲等技術(shù)方式獲取數(shù)據(jù)時,AI模型對于個人數(shù)據(jù)的收集邊界是模糊的。在網(wǎng)上公開數(shù)據(jù)源和商務(wù)采購時,由于目前數(shù)據(jù)共享、交易和流通的市場化機(jī)制不健全,存在非法數(shù)據(jù)、違規(guī)買賣數(shù)據(jù)、暗網(wǎng)數(shù)據(jù)等不正當(dāng)收集行為和一些未經(jīng)授權(quán)的收集行為。這些數(shù)據(jù)的獲取缺乏用戶知情同意,實際并沒有獲得采集權(quán)限,存在侵害用戶數(shù)據(jù)隱私的風(fēng)險。
第二,數(shù)據(jù)存儲的隱私泄露風(fēng)險。一方面,在對數(shù)據(jù)進(jìn)行存儲時,如果沒有對數(shù)據(jù)采取充分的技術(shù)安全防護(hù),且沒有明確的隱私界定與標(biāo)注,則可能會出現(xiàn)涉及隱私的數(shù)據(jù)被用于公開的AI訓(xùn)練的情況,或通過網(wǎng)絡(luò)攻擊等黑客行為竊取數(shù)據(jù)而導(dǎo)致個人隱私泄露。另一方面,在AI數(shù)據(jù)處理使用的過程中,涉及眾多數(shù)據(jù)處理、存儲等環(huán)節(jié)。對于種類多、數(shù)據(jù)量大的數(shù)據(jù)集,數(shù)據(jù)的頻繁讀取、傳輸、存儲等環(huán)節(jié)難以真正實現(xiàn)全環(huán)節(jié)監(jiān)控和管理,存在被非法使用者利用、拷貝等安全隱患。
第三,數(shù)據(jù)流通的隱私泄露風(fēng)險。由于大量AI企業(yè)會委托第三方公司或采用眾包的方式實現(xiàn)海量數(shù)據(jù)的采集、標(biāo)注、分析和算法優(yōu)化,數(shù)據(jù)將會在供應(yīng)鏈的各個主體之間形成復(fù)雜、實時的交互流通,可能會因為各主體數(shù)據(jù)安全能力的參差不齊,產(chǎn)生數(shù)據(jù)泄露或濫用的風(fēng)險。此外,在全球數(shù)字經(jīng)濟(jì)發(fā)展不均衡的背景下,大型科技巨頭將AI的數(shù)據(jù)資源供給、數(shù)據(jù)分析能力、算法研發(fā)優(yōu)化、產(chǎn)品設(shè)計應(yīng)用等環(huán)節(jié)分散在不同的國家,數(shù)據(jù)跨境流動的場景增多也會對國家安全和個人信息保護(hù)造成不可控的風(fēng)險。
二是算法偏見。算法模型是AI運(yùn)算階段的核心技術(shù)特征,但算法并不具有絕對中立性,它的客觀性僅僅體現(xiàn)在算法運(yùn)行中。算法不僅具有內(nèi)在錯誤或無意識偏見,而且算法偏見產(chǎn)生的負(fù)面影響抑制著AI的創(chuàng)新發(fā)展與應(yīng)用,存在損害多方主體權(quán)益、固化社會偏見的風(fēng)險。
算法偏見的本質(zhì)是AI時代社會偏見的一種體現(xiàn),這種偏見可能源自數(shù)據(jù)、模型或者算法設(shè)計人員。AI系統(tǒng)訓(xùn)練數(shù)據(jù)本身可能記錄了社會中存在的偏見?;谀P偷膹?fù)雜性,它可以捕捉到微小的數(shù)據(jù)模式,甚至是噪音,在不斷的優(yōu)化迭代中強(qiáng)化學(xué)習(xí)效果,可能在學(xué)習(xí)中產(chǎn)生偏見。算法設(shè)計人員的主觀意識總是有意或無意地融入整個運(yùn)行過程,他們的知識背景和立場是否受過專業(yè)訓(xùn)練,是否有足夠的背景知識及理念的構(gòu)成,都會對算法的公正性、客觀性造成挑戰(zhàn)。
算法偏見可能造成實質(zhì)不平等。譬如,商家為吸引更多用戶,通過給予新人優(yōu)惠、回歸補(bǔ)貼等差異化定價手段,造成“大數(shù)據(jù)殺熟”,侵害用戶利益。算法偏見還可能造成就業(yè)招聘時排除特定地域、特定性別的人群,在金融信貸行業(yè)錯誤識別信用不良人士或給予特定人群優(yōu)待,在公共服務(wù)領(lǐng)域給特定人士錯誤地打上危險標(biāo)簽。這些算法偏見容易導(dǎo)致人們對AI應(yīng)用產(chǎn)生信任危機(jī)。
“可信”是AI產(chǎn)業(yè)健康持續(xù)發(fā)展的內(nèi)在要求,AI是否可信不僅會影響社會治理體系的運(yùn)行,也關(guān)乎AI的創(chuàng)新發(fā)展。在醫(yī)療、金融、司法等應(yīng)用領(lǐng)域,算法的不公平性甚至可能對生命、財產(chǎn)和自由產(chǎn)生威脅,使得人智協(xié)同發(fā)展難以實現(xiàn)。因此,應(yīng)審慎對待算法偏見風(fēng)險,充分尊重人的主體性,將人類社會價值體系、倫理道德、法律法規(guī)、生態(tài)環(huán)境等內(nèi)在需求納入AI生態(tài)全盤考量,確保AI生態(tài)系統(tǒng)的健康有序、和諧共生與可持續(xù)發(fā)展,避免出現(xiàn)與人類社會價值相悖的負(fù)面應(yīng)用。
三是責(zé)任劃分。隨著AI應(yīng)用的規(guī)?;褂?,實踐中造成損害的事例屢見不鮮,包括但不限于創(chuàng)造性成果歸屬、刑事犯罪規(guī)制、人格權(quán)及知識產(chǎn)權(quán)侵權(quán)損害救濟(jì)等,AI侵權(quán)爭議的增多與責(zé)任主體的模糊之間形成了巨大的“責(zé)任鴻溝”,AI的法律責(zé)任承擔(dān)問題尚不明確。在此背景下,亟待厘清AI責(zé)任主體及其責(zé)任分配,解決無人擔(dān)責(zé)的困境。
從理論層面出發(fā),學(xué)界對于“AI法律主體地位”“AI是不是法律意義上的人”“AI能不能成為權(quán)利義務(wù)的最終歸屬”等問題的看法尚未統(tǒng)一。根據(jù)現(xiàn)有的法律體系設(shè)置及實踐,AI尚沒有法律意義上的權(quán)利與義務(wù)內(nèi)容,難以成為民事法律主體。然而一些學(xué)者認(rèn)為,部分AI已經(jīng)具備類人化意識與行為能力的基本形態(tài),在擬制主體對人類經(jīng)濟(jì)社會發(fā)展發(fā)揮巨大作用的前提下,可以考慮由AI自身承擔(dān)部分責(zé)任,但由于其責(zé)任能力的限制以及以人為本的倫理基礎(chǔ),對該責(zé)任能力應(yīng)當(dāng)進(jìn)行明確限定。
從實踐層面出發(fā),AI侵權(quán)案件與傳統(tǒng)侵權(quán)案件引發(fā)的損害和風(fēng)險的形式不同,AI的不透明性、不可預(yù)測性對傳統(tǒng)責(zé)任歸因機(jī)制產(chǎn)生了沖擊。以往構(gòu)成責(zé)任的前提條件通常包括“控制條件”和“認(rèn)知條件”兩方面,然而,一方面,AI的不透明性和不可解釋性導(dǎo)致結(jié)果的不確定性,在某種情況下會超出人類的控制范圍;另一方面,囿于AI使用情境和使用者的不同產(chǎn)生的多重穩(wěn)定性,使得對AI的認(rèn)知以及相應(yīng)責(zé)任的追究更為困難。譬如,根據(jù)《中華人民共和國侵權(quán)責(zé)任法》的規(guī)定,制造商和銷售商是主要責(zé)任主體,但在AI情景下,還應(yīng)當(dāng)明確開發(fā)者的安全注意義務(wù),建立新的AI侵權(quán)責(zé)任機(jī)制,促使發(fā)展“負(fù)責(zé)任的AI”成為符合人類共同利益的選擇。
構(gòu)建與完善AI發(fā)展應(yīng)用的科技倫理法治化進(jìn)路
AI發(fā)展日新月異,面臨諸多變量,應(yīng)對AI科技倫理挑戰(zhàn)則應(yīng)把握這些變化中的“不變”,把握好堅守技術(shù)創(chuàng)新前沿動態(tài)的科學(xué)觀、充滿人本主義情懷的倫理觀、兼顧技術(shù)發(fā)展與制度進(jìn)步的法治觀以及預(yù)判評估技術(shù)并進(jìn)行決策的治理觀。
一是明確AI規(guī)制目標(biāo)與重點。AI技術(shù)的發(fā)展邏輯顛覆了傳統(tǒng)的社會治理模式,全新的治理模式期待全新的規(guī)制和監(jiān)管路徑。當(dāng)前的規(guī)制目標(biāo)在于實現(xiàn)以規(guī)制促發(fā)展,堅持安全可信的法治之維、科技向善的倫理之維、創(chuàng)新發(fā)展的技術(shù)之維,圍繞“社會—人類—機(jī)器”等要素,從“法律—倫理—技術(shù)”等維度展開規(guī)制,在法治軌道上鼓勵技術(shù)創(chuàng)新。
首先,從法治維度出發(fā),應(yīng)建立負(fù)責(zé)任的AI治理機(jī)制,建立AI安全可信的標(biāo)準(zhǔn)和評價體系,筑牢安全底線,促進(jìn)AI健康發(fā)展。AI大模型訓(xùn)練及AI場景應(yīng)用中的數(shù)據(jù)濫用、隱私泄露、算法偏見以及侵權(quán)責(zé)任等問題不時出現(xiàn),筑牢安全底線刻不容緩。當(dāng)前,針對AI應(yīng)用立法仍存在不足和空白,應(yīng)對AI應(yīng)用的安全性、可信性、倫理合規(guī)性等方面進(jìn)行量化評估,為AI技術(shù)的發(fā)展提供明確的方向和參考。在此背景下,為進(jìn)一步推進(jìn)AI治理法治化,應(yīng)樹立完善的技術(shù)發(fā)展與應(yīng)用理念,保證AI應(yīng)用在面對攻擊和威脅時能夠保持正常運(yùn)行和數(shù)據(jù)安全,加快推動完善針對AI的法律地位、AI成果權(quán)利歸屬、AI損害后果的責(zé)任劃分、AI風(fēng)險的法律控制等重點問題的法律規(guī)范,著力平衡AI產(chǎn)業(yè)發(fā)展和社會安全,保證AI輸出結(jié)果是可預(yù)測的、可解釋的,并且符合人類的價值觀和倫理準(zhǔn)則,防止技術(shù)在利益的裹挾下無序應(yīng)用,以法治保障AI健康發(fā)展。
其次,從科技倫理維度出發(fā),應(yīng)建立一整套相對完整的制度規(guī)范體系,這一體系應(yīng)基于增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確??煽乜尚?、強(qiáng)化責(zé)任擔(dān)當(dāng)以及提升倫理素養(yǎng)這六項基本倫理要求,推動AI朝著通用、可信、負(fù)責(zé)任的方向發(fā)展。一方面,應(yīng)為AI產(chǎn)品研發(fā)設(shè)計人員制定道德規(guī)范和行為守則;另一方面,應(yīng)構(gòu)建多層次的倫理道德判斷結(jié)構(gòu)以及人機(jī)協(xié)作的倫理框架。在AI等數(shù)字科技倫理治理過程中,應(yīng)堅持以人民為中心的發(fā)展思想,踐行科技向善的人文理念,并結(jié)合不同的數(shù)字化應(yīng)用場景,確保AI應(yīng)用的合理合規(guī)、公開透明。
最后,從技術(shù)維度出發(fā),應(yīng)在確保AI安全可信、科技向善、符合倫理的前提下,積極鼓勵A(yù)I技術(shù)的融合與創(chuàng)新,不斷拓展其應(yīng)用場景,并努力嘗試跨學(xué)科交叉融合,以推動AI應(yīng)用的可持續(xù)發(fā)展。具體而言,AI技術(shù)應(yīng)進(jìn)一步與物聯(lián)網(wǎng)、云計算、大數(shù)據(jù)等深度融合,構(gòu)建更加智能、高效、便捷的服務(wù)體系。同時,還應(yīng)不斷拓展AI在智能家居、自動駕駛、醫(yī)療診斷、金融分析等多個領(lǐng)域的應(yīng)用,加強(qiáng)跨學(xué)科交叉融合。例如,在醫(yī)療診斷領(lǐng)域,AI技術(shù)可以輔助醫(yī)生進(jìn)行疾病診斷、制定治療方案;在金融分析領(lǐng)域,AI技術(shù)可以實現(xiàn)風(fēng)險評估、優(yōu)化投資策略等功能。
二是完善AI相關(guān)制度設(shè)計與實踐進(jìn)路??萍挤ㄖ问枪膭钆c規(guī)范科技創(chuàng)新的基石,而科技倫理則致力于優(yōu)化和改善科技創(chuàng)新。無論是科技倫理還是科技法治,都旨在推動科技創(chuàng)新的同時,遏制科技不端行為和科技濫用違法現(xiàn)象。為此,應(yīng)完善相關(guān)法律制度的設(shè)計與實踐路徑,加強(qiáng)行業(yè)監(jiān)管,明確行為底線,多方協(xié)作,對AI應(yīng)用中的不法行為進(jìn)行有效監(jiān)管,確保AI技術(shù)的健康與可持續(xù)發(fā)展。
首先,加強(qiáng)數(shù)據(jù)保護(hù)與隱私立法。應(yīng)完善數(shù)據(jù)相關(guān)法律法規(guī),明確數(shù)據(jù)收集、存儲、處理和共享的規(guī)范,為AI技術(shù)開發(fā)與應(yīng)用中的數(shù)據(jù)相關(guān)行為提供法律指引?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》對數(shù)據(jù)安全和隱私保護(hù)作出了具體規(guī)定,包括服務(wù)提供者需確保數(shù)據(jù)來源的合法性,以及關(guān)于訓(xùn)練數(shù)據(jù)的特性、個人信息與知識產(chǎn)權(quán)的保護(hù)規(guī)定。該辦法還將相關(guān)監(jiān)督檢查和法律責(zé)任納入我國網(wǎng)絡(luò)安全和數(shù)據(jù)隱私保護(hù)的基礎(chǔ)性法律框架內(nèi)。在不斷完善法律規(guī)范的同時,還應(yīng)加大監(jiān)管執(zhí)法力度,嚴(yán)厲打擊侵犯個人隱私的行為,確保法律的有效實施。此外,面對經(jīng)濟(jì)全球化背景下數(shù)據(jù)跨境流動帶來的發(fā)展機(jī)遇與數(shù)據(jù)安全挑戰(zhàn),應(yīng)加強(qiáng)在數(shù)據(jù)保護(hù)和隱私立法方面的國際合作,消除數(shù)據(jù)跨境傳輸過程中存在的數(shù)據(jù)泄露和隱私侵犯的隱患,共同維護(hù)全球數(shù)據(jù)安全和隱私權(quán)益。
其次,優(yōu)化算法設(shè)計與公平性審查。算法是AI發(fā)展的核心技術(shù)工具,只有合規(guī)、良善的算法才能更好地促進(jìn)AI的安全、可信、負(fù)責(zé)任發(fā)展。第一,優(yōu)化法律體系配置,重點關(guān)注算法偏見問題,并加強(qiáng)法律法規(guī)間的協(xié)同,構(gòu)建全方位、多層次、立體化的算法偏見規(guī)制體系,涵蓋法律、行政規(guī)章及地方性法規(guī),為個人提供充分的數(shù)據(jù)權(quán)利保障,為抵御算法偏見侵害提供堅實法律支撐。第二,實施算法分類分級管理,細(xì)化《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中的分類標(biāo)準(zhǔn),并制定相應(yīng)的風(fēng)險等級和監(jiān)管舉措,完善基于算法分類分級的算法備案、算法評估、算法安全風(fēng)險監(jiān)測和算法審計制度,提升制度的明確性和可操作性。第三,探索建立算法偏見公益訴訟制度,結(jié)合民事與行政公益訴訟,完善救濟(jì)途徑,保障公共利益,引導(dǎo)算法在法治框架內(nèi)有序發(fā)展,推動數(shù)字化進(jìn)程更加成熟完善。
再次,提高AI決策的透明度與可解釋性。透明度是AI確保其內(nèi)部算法可見性的關(guān)鍵屬性,包括公開數(shù)據(jù)、特征、模型、算法、訓(xùn)練方法和質(zhì)量保證程序,以便外部監(jiān)督和審查??山忉屝缘哪繕?biāo)是增強(qiáng)理解,使目標(biāo)受眾更好地理解AI的行動與決策。因此,應(yīng)建立公開透明、可解釋的AI監(jiān)管體系。第一,提升AI模型技術(shù)和數(shù)據(jù)源的透明度,公開AI在系統(tǒng)開發(fā)、數(shù)據(jù)收集、管理、結(jié)果可操作化等過程的信息,使用戶了解AI模型決策的過程、依據(jù)和規(guī)則,打破黑箱壁壘,增強(qiáng)用戶對模型的信任。第二,強(qiáng)化公眾審查和監(jiān)督,落實算法備案、算法審計等制度,協(xié)助用戶追溯數(shù)據(jù)輸入、輸出、運(yùn)行過程與自動化決策結(jié)果間的因果關(guān)系,全面審視數(shù)據(jù)收集方法、自我審核流程、價值承諾及利益相關(guān)者參與等過程。當(dāng)利益相關(guān)者的權(quán)益可能因自動化決策受損時,可解釋性能及時解答疑問,提供救濟(jì)。第三,完善AI備案制度,優(yōu)化互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng),拓展備案信息范圍,要求備案主體公開更多技術(shù)要素,如運(yùn)作原理、系統(tǒng)架構(gòu)、數(shù)據(jù)集、訓(xùn)練模型及參數(shù)等,并闡述其價值觀和要解決的技術(shù)問題。同時,也要將相關(guān)外國主體納入備案范疇,確保其遵守我國相關(guān)規(guī)定。
最后,明確責(zé)任主體與加大監(jiān)管力度。雖然AI應(yīng)用帶來了傳統(tǒng)“主體—行為—責(zé)任”理論下的“責(zé)任鴻溝”問題,但AI算法技術(shù)的應(yīng)用,如算法的設(shè)計與部署,都蘊(yùn)含了價值觀和主觀意圖,這是法律追責(zé)的核心,也是判定法律責(zé)任的關(guān)鍵。因此,應(yīng)尊重技術(shù)邏輯,構(gòu)建機(jī)器/人—機(jī)聯(lián)合體,并根據(jù)侵權(quán)場景的類型化,確立多方責(zé)任主體的識別路徑,聚焦行為正當(dāng)性的判斷。以AI算法設(shè)計部署中的主觀過錯作為追責(zé)的基礎(chǔ),結(jié)合聯(lián)合體內(nèi)的責(zé)任與經(jīng)濟(jì)利益的關(guān)聯(lián),實現(xiàn)責(zé)任分配的公正性。此外,還需增強(qiáng)《中華人民共和國民法典》《中華人民共和國刑法》等法律在AI應(yīng)用場景中對主體責(zé)任和產(chǎn)品質(zhì)量缺陷等問題的適用性,強(qiáng)化對AI設(shè)計和應(yīng)用監(jiān)督的雙重監(jiān)管。在責(zé)任判定中,應(yīng)綜合考慮行為人和AI服務(wù)提供商在侵權(quán)行為及損害后果中的實際作用。如果發(fā)生損害,可參考《中華人民共和國民法典》中的產(chǎn)品生產(chǎn)者責(zé)任條款,即產(chǎn)品缺陷造成他人損害的,生產(chǎn)者應(yīng)承擔(dān)侵權(quán)責(zé)任,被侵權(quán)人有權(quán)向產(chǎn)品提供者索賠。這要求AI提供者,通常是平臺主體,履行高度注意義務(wù)。賦予AI提供者相應(yīng)責(zé)任義務(wù),有助于規(guī)范生成內(nèi)容的合法性。當(dāng)然,若平臺已履行其義務(wù),鑒于其對創(chuàng)新發(fā)展的貢獻(xiàn),在責(zé)任承擔(dān)上不宜過于嚴(yán)苛,以免阻礙AI技術(shù)發(fā)展和未來商業(yè)應(yīng)用。
隨著AI技術(shù)發(fā)展和應(yīng)用場景的縱深拓展,AI治理面臨著道德倫理約束和法律規(guī)制的雙重現(xiàn)實困境。我國AI的科技倫理規(guī)范和相關(guān)立法應(yīng)秉持包容審慎的態(tài)度,既不能只建立回應(yīng)型立法,也不能推行過于嚴(yán)苛的制度限制AI的發(fā)展應(yīng)用。因此,應(yīng)繼續(xù)探索合理的AI科技倫理及合法性邊界,堅持科技倫理與法律規(guī)范雙管齊下,在有序的制度框架內(nèi)完善數(shù)據(jù)算法的糾偏功能,推動AI技術(shù)與產(chǎn)業(yè)向安全、可信、負(fù)責(zé)任的方向發(fā)展。
(作者為南開大學(xué)法學(xué)院副院長、教授、博導(dǎo),南開大學(xué)競爭法研究中心主任)
【注:本文系2023年度最高人民法院司法研究重大課題“數(shù)據(jù)權(quán)益知識產(chǎn)權(quán)司法保護(hù)問題研究”(項目編號:ZGFYZDKT202317-03)及教育部人文社會科學(xué)重點研究基地重大項目“全球數(shù)據(jù)競爭中人權(quán)基準(zhǔn)的考量與促進(jìn)研究”(項目編號:19JJD820009)階段性成果】
【參考文獻(xiàn)】
①岳平、苗越:《社會治理:人工智能時代算法偏見的問題與規(guī)制》,《上海大學(xué)學(xué)報(社會科學(xué)版)》,2021年第6期。
②陳兵:《生成式人工智能可信發(fā)展的法治基礎(chǔ)》,《上海政法學(xué)院學(xué)報(法治論叢)》,2023年第4期。
③陸小華、陸賽賽:《論生成式人工智能侵權(quán)的責(zé)任主體——以集體主義為視角》,《南昌大學(xué)學(xué)報(人文社會科學(xué)版)》,2024年第1期。
責(zé)編/銀冰瑤 美編/楊玲玲
聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。