【摘要】人工智能技術兼具戰(zhàn)略性、通用性及軍民兩用性特點,因而在國家安全領域得到了廣泛應用并帶來極大的賦能效應,甚至對現(xiàn)代戰(zhàn)爭形態(tài)產生了重要影響。但是,在提升國家安全能力與效率的同時,人工智能也因其自身的技術特性,為國家安全治理帶來了風險來源多樣化、系統(tǒng)安全脆弱性、治理邊界模糊及威脅認知不確定性等挑戰(zhàn),由此重塑了國家安全治理的范式和邏輯。當前亟需建立一套健全的監(jiān)管機制與倫理規(guī)范,并積極構建風險韌性社會,以確保人工智能在促進國家安全與社會穩(wěn)定的同時,實現(xiàn)健康、可持續(xù)的發(fā)展。
【關鍵詞】人工智能 國家安全 技術治理 敏捷治理
【中圖分類號】D631;TP18 【文獻標識碼】A
人工智能(AI)作為一項具有戰(zhàn)略性、通用性和軍民兩用性特點的技術,其與國家安全之間的復雜關聯(lián)愈發(fā)引人關注。歷史經驗表明,戰(zhàn)略性技術如核武器、太空技術和互聯(lián)網,往往與國家安全密不可分,它們不僅推動了技術的進步,也在軍事、情報和政治領域發(fā)揮了巨大作用。烏克蘭危機中,人工智能技術在認知戰(zhàn)、情報戰(zhàn)、無人機、無人作戰(zhàn)車輛、巡飛彈、衛(wèi)星圖像識別、決策輔助和網絡對抗等領域的廣泛應用,凸顯了其在國家安全中的重要地位。同時,人工智能的通用性特征使其成為類似電力般的革命性技術,能夠在醫(yī)療、金融、制造、教育、交通等多個領域帶來創(chuàng)新和優(yōu)化。這種廣泛的應用潛力使得人工智能不僅在民用領域大有作為,而且對軍事應用也產生了深遠影響。與此同時,人工智能的軍民兩用性也導致其在國家安全中出現(xiàn)泛安全化問題。
隨著人工智能技術的不斷發(fā)展,國家安全進入了數(shù)字化和智能化時代,技術安全風險也在深刻塑造和改變國家安全的性質與特點。因此,我們需要深入思考人工智能將如何塑造未來的國家安全,并探討國家安全治理體系的變革趨向。
人工智能賦能國家安全
人工智能作為一項革命性的通用技術,正以前所未有的速度和廣度滲透到國家安全的各個領域,對傳統(tǒng)的國家安全邏輯和政策版圖帶來了全面而深刻的影響。人工智能不僅通過其強大的技術賦能,改變了國家安全的內容和政策實踐,使得傳統(tǒng)的安全觀念與治理策略面臨前所未有的挑戰(zhàn);同時,它還通過重塑戰(zhàn)爭形態(tài),顛覆了人們對國家安全認知的傳統(tǒng)框架,使國家安全的內涵和外延發(fā)生了重大變化。
隨著私營部門在人工智能技術領域的崛起,越來越多的尖端科研成果出自企業(yè)之手,而非傳統(tǒng)的國家實驗室。這一變化不僅為國家安全帶來了新的機遇和活力,也造成了諸多復雜而棘手的問題。因此,深入探討人工智能對國家安全的影響,不僅有助于我們更好地理解這一技術革命帶來的挑戰(zhàn)和機遇,更有助于我們?yōu)閲野踩珣?zhàn)略和政策制定提供科學依據(jù)和有力支撐。
? 人工智能重塑公民國家安全認知:戰(zhàn)爭形態(tài)與信息戰(zhàn)。
隨著人工智能技術的飛速進步,未來的戰(zhàn)爭模式正醞釀著一場根本性的變革。傳統(tǒng)的人力密集型軍事任務,如前線偵察、物資運輸及直接火力支援等,正逐步被高度智能化的機器人與無人機系統(tǒng)取代。這一轉變不僅顯著降低了軍事行動中的人員傷亡風險,還極大地提升了作戰(zhàn)的效率與精確打擊能力,使得戰(zhàn)爭形態(tài)向更高效、更精準的方向發(fā)展。掌握先進人工智能技術的國家在信息戰(zhàn)中占據(jù)顯著的優(yōu)勢地位。人工智能技術憑借其強大的數(shù)據(jù)處理與分析能力,能夠迅速識別敵方的戰(zhàn)略弱點與作戰(zhàn)意圖,為決策層提供精確、及時的情報支持,從而在戰(zhàn)爭中贏得先機。此外,人工智能技術還通過模擬與預測戰(zhàn)爭進程,為軍事戰(zhàn)略與戰(zhàn)術的制定提供科學依據(jù)。通過構建復雜的戰(zhàn)爭模型,人工智能可以模擬不同戰(zhàn)略選擇下的戰(zhàn)爭發(fā)展態(tài)勢,幫助指揮員作出更為明智的決策。這種基于數(shù)據(jù)的戰(zhàn)爭規(guī)劃方式,無疑將極大地提升戰(zhàn)爭的勝算。
2022年烏克蘭危機作為近年來全球范圍內爆發(fā)的重大沖突之一,被普遍認為是首次大規(guī)模應用人工智能技術參與作戰(zhàn)的現(xiàn)代戰(zhàn)爭。在這場沖突中,雙方不僅利用社交媒體平臺傳播虛假信息,以干擾對方的士氣與決策,還借助先進的衛(wèi)星圖像分析軟件,實時追蹤敵軍動向,為精確打擊提供有力支持。這些實例充分展示了人工智能技術對未來戰(zhàn)爭形態(tài)的深刻影響,預示著在未來的戰(zhàn)爭中,人工智能技術將發(fā)揮越來越重要的作用,成為決定戰(zhàn)爭勝負的關鍵因素之一。因此,應高度重視人工智能技術在軍事領域的應用與發(fā)展,加強相關研究與投入力度,以確保國家安全。
? 人工智能全面賦能國家安全能力:情報分析能力躍升。
在國家安全這一關鍵領域內,人工智能技術的應用正逐步深化,其影響力從最初的簡單分類任務擴展至復雜的決策支持過程。在情報分析的前沿陣地,人工智能技術以其卓越的數(shù)據(jù)處理能力,對源自社交媒體、新聞報道、衛(wèi)星圖像等多維度的海量數(shù)據(jù)進行深度掃描與智能分析,能夠精準捕捉異?;顒盂E象,及時預警潛在的安全威脅。這一能力的躍升,不僅極大提高了情報分析的精確度與時效性,更為決策層提供了全面、準確的信息。隨著生成式人工智能的突破,通過高效整合文本、圖像、音頻等多模態(tài)信息,實現(xiàn)了內容信息生產方式的變革,為國家安全戰(zhàn)略的實施提供了更為靈活多變、全面深入的支持框架。
? 人工智能打破國家安全資源壟斷:私營部門的角色與國際合作。
在全球范圍,人工智能不僅引發(fā)了軍事和情報領域的革命,更打破了政府對于國家安全的壟斷。長期以來,政府作為國家安全事務的主導者乃至唯一合法參與者,掌握著安全領域的先進技術、威脅情報、高端人才等資源。然而,隨著人工智能技術的迅猛發(fā)展,這一傳統(tǒng)格局正經歷著前所未有的變革。科技企業(yè)在人工智能技術領域展現(xiàn)出強大的研發(fā)實力與創(chuàng)新能力,成為推動人工智能技術進步不可或缺的力量。大型國際科技企業(yè)的崛起,無疑對國家安全格局產生了深遠且復雜的影響。從積極層面看,科技企業(yè)的參與為國家安全注入了新鮮血液,帶來了更多的技術創(chuàng)新與支持,有助于提升國家安全的整體效能。然而,私營企業(yè)的利益訴求與價值取向往往與國家安全目標存在潛在的沖突與矛盾,如何在保障國家安全的同時兼顧私營企業(yè)的合理利益,已成為亟待解決的重要議題。
面對這一挑戰(zhàn),國際社會開始積極探索建立更為開放、包容的合作框架,以期在人工智能技術與國家安全之間找到平衡點。與此同時,各國政府也在積極尋求與私營企業(yè)的深度合作,通過政策引導、資金扶持等多種手段,鼓勵私營企業(yè)積極參與國家安全領域的研發(fā)與應用。這種政府與企業(yè)攜手并進的合作模式,不僅加速了人工智能技術的迭代升級,還提升了國家安全的整體水平與應對能力,為構建更加穩(wěn)固的國家安全體系奠定了基礎。
人工智能技術安全對國家安全的深層次影響
賦能國家安全僅為人工智能的影響之一,其更為深刻且廣泛的效應在于人工智能自身所蘊含的技術安全性對國家安全本質與特性的重塑。隨著人工智能與國家安全的全面深度融合,人工智能技術中潛藏的安全風險亦隨之滲透至國家安全的各個維度與環(huán)節(jié),形成了一種復雜的映射關系。若缺乏對人工智能技術安全性的深刻理解,便難以準確把握國家安全所面臨的新態(tài)勢與新特征。
人工智能技術安全(AI Safety),其核心在于確保人工智能系統(tǒng)自身的安全性與可信賴性。基于模型算法的人工智能系統(tǒng),面臨著諸如“黑箱操作”、算法偏見、惡意誘導、認知幻覺、系統(tǒng)操縱等多重風險,直接關乎人工智能是“向善”還是“向惡”,是穩(wěn)定運行還是走向失控。從技術治理的視角出發(fā),增強算法模型的可解釋性、透明度及魯棒性,是構建人工智能安全可信框架的關鍵路徑。然而,技術治理并非“萬能鑰匙”,無法全然消解人工智能系統(tǒng)面臨的所有風險,原因在于人工智能技術與風險之間存在著一種共生共存的復雜關系。
更深層次地,人工智能在全面、顛覆性、革命性地賦能國家安全的同時,也驅動了國家安全范式的深刻轉型——從追求確定性因果機制的傳統(tǒng)模式,轉向應對不確定性相關性機制的新范式。在這一范式轉換的過程中,國家安全正面臨著風險來源多樣化、系統(tǒng)安全脆弱性加劇、治理邊界模糊化、威脅認知不確定性增加等一系列挑戰(zhàn)。這些挑戰(zhàn)要求我們在享受人工智能帶來的安全與效率提升的同時,必須深刻洞察并妥善應對由人工智能技術發(fā)展所引發(fā)的國家安全新變局。
一是風險來源多樣化。在傳統(tǒng)國家安全領域,能夠威脅到國家安全的風險來源相對明確。這使得國家只需要將有限的資源投入相對重要的領域就可以在最大程度上維護國家安全。人工智能技術廣泛應用所帶來的影響之一便是加速了國家安全風險來源的多樣化。在傳統(tǒng)國家安全框架中,軍事威脅占據(jù)主導地位,而隨著人工智能技術的滲透與融合,網絡攻擊、信息戰(zhàn)、經濟間諜活動等新型威脅日益凸顯,構成了對國家安全的復雜挑戰(zhàn)。
人工智能技術為網絡攻擊提供了更為強大的工具與手段。相較于傳統(tǒng)的人工操作,人工智能技術能夠實現(xiàn)自動化、智能化的網絡攻擊,極大地提高了攻擊的效率與規(guī)模。此外,人工智能技術在信息戰(zhàn)中的應用,使得虛假信息的制造與傳播變得更加容易與逼真。深度偽造技術(deepfake)便是其中的典型代表。通過先進的機器學習算法,深度偽造技術能夠生成高度逼真的虛假視頻與音頻,從而誤導公眾,破壞社會穩(wěn)定。不僅如此,人工智能技術還可能被用于經濟間諜活動,竊取國家重要經濟數(shù)據(jù)與商業(yè)機密。攻擊者可以利用人工智能算法對海量數(shù)據(jù)進行深度挖掘與分析,從中獲取有價值的信息與情報,進而對國家經濟利益造成損害。
二是威脅認知不確定性。人工智能系統(tǒng)的“黑箱”特性增加了威脅認知的難度。許多先進的人工智能模型,尤其是深度學習模型,其內部決策機制復雜且難以解釋,導致國家安全機構在理解人工智能系統(tǒng)行為、預測其潛在風險時面臨巨大挑戰(zhàn)。這種不透明性不僅限制了國家安全機構對人工智能系統(tǒng)安全性的全面評估,還可能為惡意攻擊者提供隱蔽的操作空間,進一步加劇威脅的不確定性。對于關鍵的國家安全設施如核控制系統(tǒng),在與人工智能系統(tǒng)相結合后不透明性增加,使得核控制系統(tǒng)在關鍵時刻的決策過程難以預測和解釋,這可能導致在緊急情況下引發(fā)對系統(tǒng)決策的質疑,進而影響整體的國家安全。
面對人工智能技術帶來的威脅認知不確定性,國家安全策略的制定與實施需進行相應調整與優(yōu)化。一方面,國家安全機構應加強對人工智能技術的深入研究與持續(xù)監(jiān)控,建立快速響應機制,確保能夠及時識別并應對新出現(xiàn)的威脅。這包括投資研發(fā)先進的檢測工具、建立跨部門協(xié)作機制以及提升人員的技術能力等。另一方面,國家安全策略應更加注重靈活性與適應性,以應對人工智能技術帶來的不確定性。這意味著需保持對人工智能技術發(fā)展趨勢的敏銳洞察,不斷調整策略方向與重點,確保國家安全體系能夠有效應對不斷變化的威脅環(huán)境。
三是系統(tǒng)安全脆弱性。人工智能系統(tǒng)的復雜性與高度互聯(lián)性如同一把“雙刃劍”,在賦予系統(tǒng)強大處理能力的同時,也無形中擴大了安全漏洞的暴露面,為潛在的安全威脅提供了可乘之機。人工智能系統(tǒng)的復雜性、快速迭代性、對數(shù)據(jù)的高度依賴以及決策過程的不透明性,共同構成了其安全脆弱性的核心要素。面對這一挑戰(zhàn),需加強人工智能系統(tǒng)安全標準的制定與執(zhí)行,推動安全技術創(chuàng)新,提升系統(tǒng)的魯棒性與自恢復能力,同時加強數(shù)據(jù)保護與治理,確保人工智能技術的健康發(fā)展,為維護國家安全與社會穩(wěn)定奠定堅實基礎。
人工智能系統(tǒng)的“機器幻覺”進一步增加了安全的脆弱性。人工智能系統(tǒng)往往由多層算法、模型及海量數(shù)據(jù)交織而成,不僅容易出現(xiàn)穩(wěn)定性差的問題,還經常會出現(xiàn)“幻覺”,包括一些情況下“一本正經的胡說八道”。對此,探索“機器幻覺”出現(xiàn)的原因以及如何對其矯正需要耗費大量的時間,并且難以保證其不會再次出現(xiàn)類似情況。在系統(tǒng)自身易出現(xiàn)幻覺的情況下,如何預防人工智能應用過程中出現(xiàn)的風險成為了高難度的挑戰(zhàn)。
人工智能系統(tǒng)對數(shù)據(jù)的高度依賴性,構成了其安全脆弱性的另一重要維度。數(shù)據(jù)作為人工智能系統(tǒng)的“血液”,其質量與完整性直接關系到系統(tǒng)決策的準確性與可靠性。然而,數(shù)據(jù)在收集、存儲、處理及傳輸過程中,面臨著被篡改、污染或竊取的風險。一旦訓練數(shù)據(jù)遭到惡意操縱,人工智能系統(tǒng)便可能基于錯誤的信息作出決策,從而引發(fā)嚴重的安全問題。例如,在自動駕駛汽車領域,若訓練數(shù)據(jù)被故意篡改,車輛可能無法正確識別道路標志、行人或其他車輛,進而在實際行駛過程中發(fā)生碰撞事故,不僅危及乘客生命安全,還可能對公共交通安全構成重大威脅。
四是治理邊界模糊性。隨著人工智能技術的迅猛發(fā)展,其跨領域、跨行業(yè)的廣泛應用正逐步重塑著國家安全的治理框架,其中最為顯著的影響之一便是治理邊界的模糊性。這一模糊性不僅體現(xiàn)在國家安全治理的傳統(tǒng)領域與新興領域的交織上,還深刻影響著國際法與國內法應對人工智能相關安全挑戰(zhàn)的適用與協(xié)調。
在傳統(tǒng)意義上,國家安全治理主要聚焦于軍事防御與情報收集,這些領域有著明確的組織架構、法律基礎及操作流程。然而,人工智能技術的廣泛應用打破了這一界限,使得國家安全議題不再局限于傳統(tǒng)的硬實力范疇,而是滲透到經濟、社會、科技等多個維度。例如,在金融領域,人工智能算法被用于風險評估、市場預測等,其決策過程與結果直接影響到國家經濟的穩(wěn)定與安全;在醫(yī)療領域,人工智能輔助診斷、藥物研發(fā)等雖提高了醫(yī)療服務效率,但也帶來了患者隱私泄露、醫(yī)療數(shù)據(jù)安全等新的公共衛(wèi)生安全問題。這些跨領域的應用使得國家安全治理的邊界變得模糊,傳統(tǒng)建立在科層制基礎之上的治理機制,由于不同部門負責專門事務, 難以有效覆蓋所有潛在風險,甚至出現(xiàn)治理失靈。
人工智能時代的國家安全治理體系
各國政府普遍對人工智能所帶來的廣泛機遇與復雜挑戰(zhàn)給予了高度重視,并據(jù)此制定了一系列相關的國家戰(zhàn)略、政策舉措,同時設立了專門的治理機構以應對這一新興領域的獨特需求。在國際安全層面,無論是聯(lián)合國等多邊國際組織,還是諸如北大西洋公約組織、上海合作組織等區(qū)域性組織,均建立了相應的治理機制,旨在規(guī)范和引導人工智能的健康發(fā)展。然而,現(xiàn)有的治理機制主要基于國際社會在核軍控、大規(guī)模殺傷性武器軍控等傳統(tǒng)安全領域的知識和經驗,在應對人工智能所帶來的風險來源多樣化、系統(tǒng)安全脆弱性、治理邊界模糊性、威脅認知不確定性等新型挑戰(zhàn)時,顯現(xiàn)出較強的不適應性。這種不適應性若未及時關注和有效解決,極易導致泛安全化和過度安全化等負面現(xiàn)象的出現(xiàn),不僅會大幅增加社會的整體成本,還可能對人工智能技術的創(chuàng)新與發(fā)展產生抑制作用。
因此,國際社會亟需從理念層面、機制構建、方法創(chuàng)新以及議程設置等多個維度出發(fā),重新構建一套適用于人工智能技術風險的國家安全治理體系。這一體系應充分考慮到人工智能技術的獨特性與復雜性,以及其對國家安全、社會穩(wěn)定和全球經濟發(fā)展的深遠影響,從而確保在保障國家安全的同時,也能促進人工智能技術的健康、可持續(xù)發(fā)展。
首先,在治理理念層面,應構建一個基于人工智能安全風險的全面認知框架。人工智能為國家和社會帶來的安全風險具有長期性、持續(xù)性特征,且不存在一勞永逸的解決方案。這些風險主要源自三個維度:技術本身的缺陷與不完善性、技術的濫用及不負責任的使用,以及社會應對機制的缺失。針對前兩者,技術治理與監(jiān)管機制的逐步建立已成為趨勢;然而,關于社會如何有效應對人工智能時代風險的探討仍顯不足。從風險韌性社會的視角出發(fā),盡管人類無法根除自然災害,但可通過多種措施減輕其影響。同理,技術缺陷、技術濫用與韌性社會之間應建立一種良性互動關系。過度聚焦于前兩者可能導致追求絕對安全與過度治理的困境。因此,構建人工智能風險韌性社會需從提升公眾與組織的技術素養(yǎng)、建立風險共擔的社會保障體系等方面著手,以實現(xiàn)技術進步與社會發(fā)展的和諧共生。
其次,在治理機制層面,應著重強調技術標準、法規(guī)政策與戰(zhàn)略舉措之間的協(xié)同與整合。人工智能作為一項前沿技術,其治理體系必須具備一定的前瞻性與適應性,以確保在技術生命周期的各個階段都能實施有效的監(jiān)管和引導。技術標準作為治理的基礎,應確保其具有科學性、合理性和可操作性,為人工智能技術的研發(fā)和應用提供明確的指導和規(guī)范。同時,法規(guī)政策應與技術標準緊密銜接,通過立法手段明確人工智能技術的合法邊界,保護個人隱私和數(shù)據(jù)安全,防止技術濫用和惡意攻擊。
戰(zhàn)略舉措則是實現(xiàn)技術標準與法規(guī)政策協(xié)同的關鍵。政府應制定長遠的人工智能發(fā)展戰(zhàn)略,明確技術發(fā)展的方向和目標,為技術標準和政策法規(guī)的制定提供宏觀指導。此外,戰(zhàn)略舉措還應包括建立跨部門、跨領域的協(xié)作機制,加強政府、企業(yè)、科研機構和社會組織之間的溝通與合作,共同推動人工智能技術的健康發(fā)展。在此過程中,敏捷治理成為一種重要的方式。面對人工智能技術的快速迭代和廣泛應用,治理機制應具備靈活性和快速響應能力,能夠及時調整和優(yōu)化治理策略,以適應技術發(fā)展的新趨勢和新挑戰(zhàn)。通過敏捷治理,可以確保治理機制與技術發(fā)展的同步性,提高治理效能,促進人工智能技術的可持續(xù)創(chuàng)新與發(fā)展。
再次,在治理方法維度,應構建政府、產業(yè)界及研發(fā)機構高效協(xié)同機制。人工智能的迅猛發(fā)展已促使國家安全領域從傳統(tǒng)安全及非傳統(tǒng)安全范疇,逐步邁向數(shù)字安全。在此背景下,企業(yè)與技術社群在國家安全體系中的地位日益凸顯,亟需建立更為高效、靈活的溝通協(xié)調機制。傳統(tǒng)的自上而下、等級化及中心化的國家安全技術、知識與信息傳遞模式已難以適應當前形勢,如何更有效地與大型科技企業(yè)及技術社群加強聯(lián)系,促進政府與企業(yè)間人員的流動與交流,成為政府重塑人工智能安全領域權威性的關鍵所在。以美國為例,其人工智能安全治理主要依托人工智能安全研究所進行。與傳統(tǒng)政府機構不同,該研究所人員精簡,主要工作通過與企業(yè)合作完成,其核心職能在于搭建政府與企業(yè)、企業(yè)與企業(yè)之間的溝通橋梁。這種定位使研究所更注重成為人工智能安全治理的核心節(jié)點,雖不具備傳統(tǒng)政府機構的命令發(fā)布權,卻能占據(jù)信息與知識的中心位置,進而提升政府在該領域的權威性與影響力。
最后,在議程設置層面,需深入關注人工智能時代國家安全所蘊含的豐富內涵,這包括但不限于生存性風險、算法模型風險、應用型風險以及廣義上的國家安全風險。作為人工智能時代最為嚴峻的挑戰(zhàn)之一,生存性風險涉及技術失控、系統(tǒng)崩潰等極端情況,可能對人類社會造成不可逆轉的損害。因此,議程設置應優(yōu)先考慮如何建立有效的風險預警與應對機制,確保人工智能技術的健康發(fā)展。算法模型風險則源于算法設計的不完善、數(shù)據(jù)偏差以及訓練過程中的不確定性,這些因素可能導致算法決策出現(xiàn)偏差,甚至引發(fā)歧視、不公平等問題。在議程設置中,應加強對算法模型的監(jiān)管與評估,確保其公正性、透明度和可解釋性。應用型風險主要關注人工智能技術在具體應用領域可能帶來的安全隱患,如自動駕駛、醫(yī)療診斷等。議程設置需針對這些領域的特點,制定具有針對性的安全標準和規(guī)范,確保技術的安全應用。此外,廣義上的國家安全風險也是議程設置不可忽視的一部分。人工智能技術的快速發(fā)展可能對國家主權、安全和發(fā)展利益產生深遠影響。因此,議程設置應充分考慮如何平衡技術發(fā)展與國家安全的關系,確保國家在人工智能時代的戰(zhàn)略利益。
(作者為同濟大學政治與國際關系學院教授,網絡空間國際治理研究基地常務副主任)
【參考文獻】
①Joseph S. Nye, Jr.,“AI and National Security”,Project Syndicate, July 31,2024.
②封帥:《國家安全學視域下的人工智能安全研究:議題網絡建構的初步嘗試》,《國際安全研究》,2023年第1期。
③薛瀾、賈開、趙靜:《人工智能敏捷治理實踐:分類監(jiān)管思路與政策工具箱構建》,《中國行政管理》,2024年第3期。
④魯傳穎:《人工智能:一項戰(zhàn)略性技術的應用及治理》,《人民論壇》,2024年第1期。
⑤Gregory C. Allen,and Taniel Chan,Artificial Intelligence and National Security,Center for a New American Security, July 2017.
⑥魯傳穎、張璐瑤:《人工智能的安全風險及治理模式探索》,《國家安全研究》,2022年第4期。
責編/周小梨 美編/王夢雅
聲明:本文為人民論壇雜志社原創(chuàng)內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。