內(nèi)容提要:據(jù)預(yù)測,2050年自主武器系統(tǒng)便有可能代替人類成為戰(zhàn)場上的主力。自主武器系統(tǒng)的發(fā)展存在人權(quán)和人道主義風險,并引發(fā)了國際法如何規(guī)范新技術(shù)的問題。從國際人權(quán)法和國際人道法兩個不同維度來看,自主武器系統(tǒng)在侵犯性、濫殺性、殘酷性、失控性幾方面構(gòu)成對人權(quán)與人道的嚴峻挑戰(zhàn)。在我國人權(quán)保障得到空前重視的背景下,應(yīng)當明確在自主武器系統(tǒng)領(lǐng)域的現(xiàn)有制度規(guī)范與基本立場,對自主武器系統(tǒng)的風險作出前瞻性思考并提出對策,以預(yù)防人權(quán)與人道主義侵害,促進這一涉及人類前途與命運的問題提前得到較好解決,實現(xiàn)人人共享人權(quán)的美好目標。
關(guān)鍵詞:自主武器系統(tǒng) 國際人道法 國際人權(quán)法 人道主義
一、問題的提出
自主武器系統(tǒng)(Autonomous Weapon System)是指任何擁有自主決策功能的武器系統(tǒng),其包括除自主武器之外的一系列輔助要素單元,例如傳感器、決策單元和彈藥等。根據(jù)定義可知其為可實現(xiàn)在沒有人類干預(yù)的情形下搜索、打擊目標以及最終實施擊打等全過程的武器系統(tǒng)。由于人工智能技術(shù)不斷被應(yīng)用到軍事方面,與軍事武器相結(jié)合,其對現(xiàn)行人權(quán)與人道法的相關(guān)原則與規(guī)定提出嚴峻挑戰(zhàn),因此部分人權(quán)倡導(dǎo)者對于濫傷性智能武器使用的合法性提出質(zhì)疑。雖然合法性問題已經(jīng)被《特定常規(guī)武器公約》(Convention on Certain Conventional Weapons,簡稱CCW)締約國所關(guān)注,并激烈討論近十年,但現(xiàn)行國際人道法的完善問題一直被作為國際社會的焦點??膳c此同時,缺乏人類決斷和審查的自主武器系統(tǒng),也形成了侵害人權(quán)的威脅。
迄今為止,所有涉及戰(zhàn)爭的法律所制約的對象最終都歸結(jié)于兩類:人和武器。但自主武器系統(tǒng)與現(xiàn)今傳統(tǒng)意義上的人和武器有著本質(zhì)的區(qū)別,它既非真正意義上的人,又非沒有頭腦的武器,它將人的思維判斷能力和武器的殺傷力高度整合,甚至具備了能夠自主決定是否殺人、何時殺人與如何殺人的能力。如果不為未來的自主武器系統(tǒng)制定人權(quán)準則和人道主義保護規(guī)則,那么人們將會面臨人權(quán)與人道主義的可怕災(zāi)難。為保護人類最根本的訴求,即生命權(quán)等基本人權(quán),并保證戰(zhàn)爭狀態(tài)下交戰(zhàn)方、中立方和平民的合法權(quán)益,預(yù)防其破壞國際人道法的體系,應(yīng)及早制定限制自主武器系統(tǒng)的人權(quán)和人道主義保護規(guī)則,并爭取國際社會的廣泛認同,加強交流與合作,共同促進這一涉及人類前途與命運的問題提前得到妥善解決。
目前,法學界關(guān)于自主武器系統(tǒng)的討論,主要集中于國際法中的國際人道法,但類似對原則的沖突也隱含在國際人權(quán)法中,后者始終保障全人類的某些人權(quán),無論其國籍或當?shù)胤蔀楹巍km然自主武器在人權(quán)領(lǐng)域的研究尚處于初級階段,但少數(shù)國外學者已有了相關(guān)思考。彼得·阿薩羅認為,有關(guān)生命和正當程序的人權(quán)以及克減上述人權(quán)的限制條件,意味著一系列與自動化和自主技術(shù)相關(guān)的具體義務(wù)??死锼雇蟹?middot;海恩認為在考慮人權(quán)背景中可能通過自主武器平臺使用武力時,不應(yīng)僅限于致命武力,而是應(yīng)考慮包括致命武力和致命性較低武力在內(nèi)的所有武力使用形式。詹姆斯·道斯使用了“推理性人權(quán)”一詞,從人權(quán)的角度出發(fā),基于對自主武器系統(tǒng)的擔憂擴展到全面預(yù)測通用人工智能將會引發(fā)的關(guān)注。相比之下,國內(nèi)學者少有從人權(quán)角度出發(fā)考慮自主武器系統(tǒng)的挑戰(zhàn)及法律應(yīng)對。徐爽從無人機作為武器在使用中給人權(quán)帶來的挑戰(zhàn)為切入點,考察了人權(quán)受到的沖擊和侵害等。雖然根據(jù)自主武器系統(tǒng)的定義,遠程遙控的無人機不屬于自主武器系統(tǒng),但徐爽依然從新興技術(shù)對人權(quán)保障帶來負面影響層面進行了有益探討。本文試圖在已有研究的基礎(chǔ)上,從國際人權(quán)法和國際人道法兩個維度出發(fā),考察自主武器系統(tǒng)對人權(quán)和人道法帶來了哪些挑戰(zhàn),并基于兩個維度就如何應(yīng)對新興技術(shù)的影響進行探索。
二、自主武器系統(tǒng)中人權(quán)與人道的關(guān)系
國際人道法和國際人權(quán)法是兩個不同的學科,但其相互關(guān)系一直是引起大量關(guān)注的法律焦點問題,特別是因為它對軍事行動的重要影響。盡管角度不同,但兩者都致力于保護個人的生命、健康和尊嚴。在武裝沖突期間,國際人道法保護某些類別的人不受交戰(zhàn)方蓄意攻擊。然而,國際人權(quán)法對使用致命武力所規(guī)定的標準比戰(zhàn)爭法更為嚴格。交戰(zhàn)各方必須保證在武裝沖突條件下不被“任意”剝奪生命,武裝部隊和有組織武裝團體必須考慮其使用自主武器系統(tǒng)是否符合國際人權(quán)法的要求。
(一)國際人權(quán)法與國際人道法的相互關(guān)系
國際人權(quán)法(International Human Rights law),一般是指促進和保證人的基本權(quán)利和自由得到普遍尊重和實現(xiàn)的國際法原則、規(guī)則和規(guī)章、制度等;國際人道法(International Humanitarian Law),則主要是指在戰(zhàn)爭或武裝沖突期間保護傷、病員、平民等戰(zhàn)爭受難者的國際法原則、規(guī)則和規(guī)章、制度等。關(guān)于兩者的關(guān)系,存在兩種主流觀點,一種認為廣義的國際人道法包括人權(quán)法,人權(quán)法僅代表一般人道法的一個較高的發(fā)展階段。另一種則認為人道法是派生于戰(zhàn)爭法的法律,且人權(quán)法作為構(gòu)成和平法重要部分的法律,優(yōu)先于國際人道法。但是從這兩者發(fā)展的過程來看,國際人道法與國際人權(quán)法之間相輔相成、交叉適用,并且這種聯(lián)系和作用還在發(fā)展。
根據(jù)國際法院的說法,國際人道法是專門設(shè)計來規(guī)范敵對行為的法律,而國際人權(quán)法發(fā)揮一般法的作用。國際法院在1996年《關(guān)于以核武器相威脅或使用核武器是否合法的咨詢意見》中首次論述了武裝沖突局勢中適用人權(quán)法的問題并且提出《公民權(quán)利和政治權(quán)利國際公約》所提供的保護在戰(zhàn)時并不停止,而且原則上不得任意剝奪人的生命權(quán)也適用于敵對行動??梢婋m然國際人道法和國際人權(quán)法屬于不同的法律體系,但它們所保護的原則和利益相似。然而實踐中,雖然人權(quán)法既適用于平時也適用于武裝沖突時期,但是在武裝沖突期間,通過國內(nèi)或國際人權(quán)機構(gòu)對人權(quán)進行保護的手段非常有限。國際人權(quán)法在國際人權(quán)條約機構(gòu)和聯(lián)合國的監(jiān)督下由締約國實施,這些機構(gòu)的決定具有權(quán)威性但缺乏法律約束力,而國際人道法的實施,在嚴重違反戰(zhàn)爭法的情況下,可以由國際刑事法庭對違反人道法、犯有戰(zhàn)爭罪的人進行懲罰。綜上,國際人權(quán)法存在武裝沖突中的適用且與國際人道法存在相互關(guān)系,其為自主武器系統(tǒng)的發(fā)展和使用塑造這種關(guān)系提供了前期基礎(chǔ)。
(二)國際人權(quán)法、國際人道法與自主武器系統(tǒng)的關(guān)系
自主武器系統(tǒng)的發(fā)展已經(jīng)引發(fā)了國際法如何規(guī)范這種新技術(shù)的問題。簡述其發(fā)展趨勢,目前的軍事機器人的技術(shù)和軍事標準都是以“人為干預(yù)”為前提,即人類仍然是最終的軍事決策者。但現(xiàn)如今,世界各地的主要軍隊正聲勢浩大地投資相關(guān)研究,發(fā)展和部署自主武器系統(tǒng)。傳統(tǒng)軍事強國在自主武器系統(tǒng)上已經(jīng)競相掀起研發(fā)、應(yīng)用自主武器系統(tǒng)的軍備競賽。目前以色列的閉環(huán)邊界防御系統(tǒng)就是借助人工智能進行監(jiān)視,該系統(tǒng)無須人類操控,便可自行操控攻擊對象與攻擊時間。此外,由于自主武器系統(tǒng)缺少明確的國際規(guī)則和有效監(jiān)管,僅停留在《特定常規(guī)武器公約》會議的研討中,且逐步進入了非國際行為體的視野,勢必加重國際安全的潛在威脅。在此基礎(chǔ)上考慮國際人權(quán)法和國際人道法的適用,應(yīng)明確武裝沖突中使用自主武器系統(tǒng)同時受到兩者的管轄,且前者在兩個法律體系直接沖突的情況下優(yōu)于后者。一方面,武裝沖突中的某些情況可能只符合國際人道法的事項,另一些可能只涉及國際人權(quán)法,還有一些則可能涉及國際法的兩個交叉領(lǐng)域。另一方面,在武裝沖突中,國際人權(quán)法和國際人道法的義務(wù)可以同時存在,不僅是因為國際法院的咨詢意見支持這一觀點,還因為國際人權(quán)法和國際人道法有一個共同的目的,即最大限度地保護個人。
具體來說,國際人權(quán)法可能在三種情況下適用于自主武器系統(tǒng):一是武裝沖突中,人權(quán)法在武裝沖突中使用武力問題上與國際人道法互補,其重點始終是使沖突雙方在武裝沖突中都能保有生命權(quán)和尊嚴權(quán)等人權(quán),盡管還會涉及自由權(quán)和人身安全權(quán)、免受非人道待遇權(quán)、獲得公正審判權(quán)等。二是反恐和其他不構(gòu)成武裝沖突處境下的行動。在未達到武裝沖突標桿的處境中,對自主武器系統(tǒng)的使用要求應(yīng)僅由人權(quán)法進行監(jiān)管,而非適用國際人道法。三是在國內(nèi)執(zhí)法中,如果技術(shù)成熟和普遍之后,國家執(zhí)法官員也可能在某個時間決定使用致命或致命性較低武器的自主武器系統(tǒng)。在這種情況下,使用武力需要人權(quán)法管轄。
就國際人道法適用于自主武器系統(tǒng)問題,該法作為維護國際和平、尊重人道的重要保障,其確定的區(qū)分原則、比例原則等均已得到國際社會的認可,因此在國際人道法的基礎(chǔ)上,自主武器只有滿足其主要原則才可能被允許應(yīng)用。當前自主武器的研發(fā)與使用極有可能與現(xiàn)行國際人道法產(chǎn)生沖突,而國際上對此問題的討論主要集中在三方面:一是其是否滿足區(qū)分原則,即區(qū)分平民與軍事目標;二是其是否滿足比例原則,即相比其與其軍事利益,最大限度限制其為平民帶來的附帶傷亡;三是是否滿足“馬爾頓斯條款”(Martens Clause),即遵守“人道原則”與“公眾良心”。
三、自主武器系統(tǒng)對人權(quán)與人道的挑戰(zhàn)
自主武器與人工智能技術(shù)發(fā)展迅猛,給國際社會的和平以及平穩(wěn)發(fā)展帶來了巨大的挑戰(zhàn)。雖然自主武器系統(tǒng)存在技術(shù)優(yōu)勢,各國通過提升自主攻擊目標的精度和有效性即可掌握戰(zhàn)場上的主動,但素有“機器人殺手”之稱的完全自主武器系統(tǒng),很難保證其不會侵犯生命權(quán)、尊嚴權(quán)等人權(quán)以至違反國際人權(quán)法。關(guān)于對人道的挑戰(zhàn),由于只有滿足國際人道法主要原則才可能被允許應(yīng)用,所以極有可能與現(xiàn)行國際人道法產(chǎn)生沖突。人類的戰(zhàn)爭既昂貴又血腥,用機器人取代大量的地面作戰(zhàn)車輛和其他武器,看似既可以節(jié)省開支,又能夠避免讓傷亡問題影響政治決策。但當自主武器系統(tǒng)能夠自行決定是否攻擊人的時候,作戰(zhàn)方式就與傳統(tǒng)作戰(zhàn)形式不再相同,其也完全可能像人們對待機器一樣對人類的生死存亡漠然置之,歸納起來,其很可能同時具有侵犯性、濫殺性、殘酷性、失控性等幾個特征,具體分析這些特征對人權(quán)與人道的挑戰(zhàn)更印證出自主武器系統(tǒng)存在明顯的反人類特征和巨大人道主義風險,倘若自主武器系統(tǒng)被恐怖主義組織所控制,無辜百姓的生命安全將會遭受更大的威脅。
(一)侵犯性的挑戰(zhàn)
自主武器系統(tǒng)侵犯性的挑戰(zhàn)主要體現(xiàn)在國際人權(quán)法中,因為對人使用武力的決定是由程序作出而不是人作出的行為,從本質(zhì)上侵犯了尊嚴權(quán)。在人與機器的關(guān)系中,所有機器都由人類制造,并為其生存和發(fā)展服務(wù)。即使機器發(fā)展到極為高級的自主智能階段,能夠認知、思考,會自我生成指令,甚至自我修復(fù)、自行繁衍,它與人類的關(guān)系歸根結(jié)底還是依附和被依附的關(guān)系。如果按照自主武器系統(tǒng)中的算法,讓人類處于一個被無人性的機器決定的位置,那將意味著死亡會被簡單地視為一種目標,人類將不再具有完整且獨立的地位。換而言之,在自主武器系統(tǒng)使用中,“人”實際上被簡化為數(shù)字0和1,而不再是有內(nèi)在尊嚴的人。
《世界人權(quán)宣言》規(guī)定:“人人生而自由,在尊嚴和權(quán)利上一律平等。”《公民權(quán)利和政治權(quán)利國際公約》提到:“按照聯(lián)合國憲章所宣布的原則,對人類家庭所有成員的固有尊嚴及其平等的和不移的權(quán)利的承認,乃是世界自由、正義與和平的基礎(chǔ),確認這些權(quán)利是源于人身的固有尊嚴。”雖然公約中沒有將尊嚴權(quán)列為一項實質(zhì)性權(quán)利,但其與其他權(quán)利交織在一起保護,人類尊嚴是國際人權(quán)法重要目標。尊嚴概念的基礎(chǔ)是強調(diào)每個人的價值是無限的,康德的尊嚴觀念賦予每個人以獨立的、獨特的、不可替代的價值,而侮辱人的行為就是無端地降低這種價值。每個人都有一個不能被侵犯的內(nèi)在核心,即使這種侵犯對公共利益有益,因為這意味著他們被用作工具。但一個沒有人性的機器無法理解對人類使用武力的意義,也無法公正地對待這一決定的嚴重性。.計算機代碼尚不能準確地描述人類生活的復(fù)雜性和豐富性,以及日常關(guān)于生活的決定,所以機器人更不能預(yù)先設(shè)定程序,以適當?shù)姆绞綄φ鎸嵣詈驼鎸嵉娜怂峁┑臒o窮無盡的情景作出反應(yīng)。此外,程序預(yù)設(shè)還存在另一個問題,即由算法決定自主武器系統(tǒng)何時被允許釋放武力,必然導(dǎo)致其建立在假設(shè)的基礎(chǔ)上。換而言之,規(guī)則制定者和程序設(shè)計人員僅基于設(shè)想的理論可能性,而非在真實而緊迫的情況下提前作出了致命性決策。但在抽象的處境下又很難提前預(yù)想每一個深遠又準確的決定。所以,脫離人類控制的完全自主武器系統(tǒng)侵犯了那些被使用武力的人的尊嚴權(quán)。如果計算機的操作處于仍然受人類控制的低層次,此時機器仍然是人類手中的工具,人們用它來增強自己的自主權(quán),尊嚴權(quán)可能不會受到威脅。因為使用武力的決定不是由完全自主武器系統(tǒng)作出的,而是由人作出的,則是以考慮人權(quán)的方式對待被攻擊的人。然而,使用武力的決定被自主的武器所接管,并且它們不再是人類手中的工具,則構(gòu)成了對國際人權(quán)法的嚴重挑戰(zhàn)。
(二)濫殺性的挑戰(zhàn)
自主武器系統(tǒng)濫殺性的挑戰(zhàn)主要體現(xiàn)在國際人道法中,雖然殺的行為導(dǎo)致受害者失去生命,但國際法學上,武器本身并不因為其致命性還是非致命性而受到禁止。濫殺側(cè)重于指不分條件、場合和對象,自動執(zhí)行殺傷任務(wù),這明顯違背了國際人道法中的區(qū)分原則。在《關(guān)于以核武器相威脅或使用核武器是否合法的咨詢意見》(1996年)中,國際法院把區(qū)分原則視為國際人道法的“首要原則”。作為具有自主攻擊能力的新型武器,且其可能造成與生物病毒類似的濫殺濫傷擴散,自主武器系統(tǒng)應(yīng)該被視為符合區(qū)分原則的武器。
《日內(nèi)瓦公約第一附加議定書》第48、51、52條均對區(qū)分原則作出規(guī)定,明確應(yīng)該對平民與戰(zhàn)斗員加以區(qū)分,因此無論是有意還是失誤對平民造成傷害均屬于違反國際人道法的行為。針對區(qū)分原則,不同學者對其持不同建議,信任自主武器分析與識別能力的學者認為其可以更好地區(qū)分平民與戰(zhàn)斗員,降低對平民的傷害,其他部分學者則認為戰(zhàn)場與人相較于編寫的程序要更為復(fù)雜,自主武器無法處理這種復(fù)雜情景,此外其也面臨一系列倫理道德問題。對人而言,人的主要作戰(zhàn)對手就是人,因此法律要求的區(qū)分也相對“簡單”即區(qū)分敵方軍事目標和平民居民、民用物體。但對于自主武器系統(tǒng),除要進行軍事目標與平民目標這一同人類士兵相一致的區(qū)分外,還要增加一層更為關(guān)鍵的區(qū)分,即應(yīng)區(qū)分對方的屬性與意圖,比如其是參與敵對行動的平民或是進行武裝自衛(wèi)的平民以及其是否屬于具有投降意圖的戰(zhàn)斗員等,對于自主武器系統(tǒng)可否正確進行更深層次的區(qū)分,部分學者對其持懷疑態(tài)度。例如,當自主武器系統(tǒng)面對已經(jīng)投降的敵方人員,由于其指令要求,機器士兵難以做到“刀下留人”的人權(quán)保護規(guī)則程序,難以立即停止攻擊、不殺害放棄抵抗的人,也難以給予傷者、病者、醫(yī)護與救援人員等應(yīng)受特別保護群體以尊重與保護。戰(zhàn)場環(huán)境遠比自主武器預(yù)設(shè)程序復(fù)雜多變,當今武裝沖突中最為典型的沖突場景是“非對稱戰(zhàn)爭”和“城市戰(zhàn)爭”環(huán)境,因此通過算法進行精準區(qū)分軍民且同時不對平民出現(xiàn)附帶傷亡,人工智能在此方面可能還未合格。
(三)殘酷性的挑戰(zhàn)
自主武器系統(tǒng)殘酷性的挑戰(zhàn)同時體現(xiàn)在國際人權(quán)法與國際人道法中,由于其對人使用武力的行為不能被人類干預(yù),回避了人類生理與情感弱點的自主武器系統(tǒng)便具有了殘酷無情的特質(zhì)。自主武器系統(tǒng)殘酷性對國際人權(quán)法的挑戰(zhàn)包括但不限于對生命權(quán)、尊嚴權(quán)的挑戰(zhàn)。無論是人類還是機器控制武力,都會有針對錯誤的人或過度使用武力的情況,但是當自主武器系統(tǒng)出錯時,會對人權(quán)造成難以逆轉(zhuǎn)的危害。
殘酷性的挑戰(zhàn)可以通過國際人道法中的馬爾頓斯條款更清晰地闡釋。作為國際人道法的重要原則之一,馬爾頓斯條款是俄羅斯國際法學家馬爾頓斯在1899年第一次海牙和平會議上提出的,且在《陸戰(zhàn)法規(guī)和慣例公約》序言中就已得到確認。該條款認為武器系統(tǒng)應(yīng)符合國際習慣、人道原則與公眾良心的要求,具體而言,馬爾頓斯條款規(guī)定:“凡遇有本條文中未規(guī)定之事項,則有種種國際法之原則,從文明人民之慣例上,從人道之原則上,自良心之要求上,發(fā)生事變之兩交戰(zhàn)國與其人民之間,應(yīng)在此原則之保護與支配下。”其填補了國際法沒有規(guī)定的情形,使得國際人道法的應(yīng)用不受其明文公約的限制。伴隨自主武器系統(tǒng)自主性的不斷提升與人工智能技術(shù)的不斷發(fā)展,在未來極有可能將擊打目標的決策交由自主武器系統(tǒng),即機器會掌控人類的生殺大權(quán)。目前國際人道法并未禁止自主武器系統(tǒng),且僅有在該系統(tǒng)觸犯戰(zhàn)爭罪或人道罪后其才會被懲處,從國際人道法精神分析,自主武器系統(tǒng)缺乏合格戰(zhàn)斗人員所需的同理心和道德品質(zhì),可能會為人類帶來未知的危險與威脅。
(四)失控性的挑戰(zhàn)
自主武器系統(tǒng)失控性的挑戰(zhàn)同時體現(xiàn)在國際人權(quán)法和國際人道法中,失控性主要源于武器系統(tǒng)的“自主性”,完全自主武器系統(tǒng)不同于半自主武器系統(tǒng)、有監(jiān)督的自主武器系統(tǒng)、將人置于其OODA循環(huán)之外,其可執(zhí)行更高層次的指令與任務(wù),可以獨立于人的操作而自主選擇目標并決定是否進行打擊。這不僅會導(dǎo)致違背國際人道法中的比例原則,也會構(gòu)成對生命權(quán)的侵犯。
一方面,戰(zhàn)爭法規(guī)定為防止戰(zhàn)爭造成過度的平民生命傷亡和財產(chǎn)損害,作戰(zhàn)手段和方法的使用應(yīng)與預(yù)期的、具體的、直接的軍事利益成比例,禁止過度的攻擊和不必要的傷害?!度諆?nèi)瓦公約第一附加議定書》第51條第5款第2項以及第57條第2款第1項也均對國際人道法中的比例要求作出規(guī)定。目前自主武器的技術(shù)遠低于長期訓(xùn)練的軍人,還無法達到人類獨有的判斷力,因此對于其是否符合比例原則還存有爭議。在比例原則下,自主武器系統(tǒng)需要對各種要素進行評估量化,并與預(yù)期軍事利益進行對比作出選擇,因此相較于區(qū)分原則,其技術(shù)要求更高,如何衡量生命的價值也會是其技術(shù)上的難題之一。此外由于機器人與人在個體能力上的巨大差異,機器士兵與人的對抗應(yīng)當存在某種意義上的不平等,即在作戰(zhàn)方法和手段的使用上,應(yīng)當盡力避免造成人的傷亡。如果機器士兵使用泰瑟槍、麻醉彈或纖維網(wǎng)等就能解除敵方人員的武裝,那么發(fā)射自動尋的靈巧炸彈、激光束或電磁炮彈從肉體上消滅人類就是非法行為。如果指令程序要求徹底消滅特定的人,那么擁有“一槍制敵”能力的機器士兵采取將人折磨致死的方法顯然不能被法律所認可。比例原則的核心是評估軍事必要性,確保預(yù)期實現(xiàn)的軍事利益不應(yīng)顯著超出造成的附帶損害,因此人道保護與軍事必要性之間的衡量與取舍是價值判斷,不是僅僅通過分析就能作出的決定,這恰恰是自主武器難以完成的任務(wù),此外其可能還需在多個軍事目標選其一時做到最小化平民附帶損害,而該項技術(shù)需要自主武器具備道德價值判斷能力。
另一方面,可以從問責制度的維度去思考自主武器系統(tǒng)對生命權(quán)的挑戰(zhàn),當然這同樣適用于相關(guān)權(quán)利?!妒澜缛藱?quán)宣言》明確規(guī)定:“人人有權(quán)享有生命、自由和人身安全。”雖然《世界人權(quán)宣言》不具備國際法約束力,卻是世界人權(quán)準則的綱領(lǐng)性文件。《公民權(quán)利和政治權(quán)利國際公約》規(guī)定:“人人有固有的生命權(quán)。這個權(quán)利應(yīng)受法律保護,不得任意剝奪任何人的生命”,這也是國家必須承擔的尊重和保障生命權(quán)的義務(wù)。生命權(quán)有兩個組成部分,一是防止任意損害生命,二是發(fā)生這種情況時應(yīng)負責任。如果侵害者造成生命損失,哪怕是包括未盡應(yīng)有的努力加以防止,即構(gòu)成對生命權(quán)的侵犯。這意味著對于非法的死亡缺乏問責制,也構(gòu)成侵犯生命權(quán)。如果人力對武力釋放控制不足,使用自主武器系統(tǒng)可能會造成問責真空,因為問責是以控制為前提的。因此,在人權(quán)法背景下自主武器系統(tǒng)存在嚴重挑戰(zhàn),因為如果沒有有意義的人類控制,機器人可能不具備按照人權(quán)法的要求使用武力或保護生命和身體安全的技術(shù)能力。即使國家或公司等非個人的機構(gòu)可能會被追究責任,且不得不支付賠償或改變其做法,但由于機器自主性的增強,人類在決策中扮演了次要的角色。因為他們?nèi)狈刂?,將很難追究到他們個人的責任。首先,優(yōu)秀的算法工程師也難以預(yù)測其復(fù)雜的決策,如果沒有目標決策的透明度,那么確定錯誤攻擊在哪發(fā)生、如何發(fā)生,以及如何防止類似錯誤再次發(fā)生,將是一項極其困難的任務(wù)。其次,自主武器系統(tǒng)作為人工智能系統(tǒng)無法全面把握設(shè)計者指令的真正含義或者缺乏某種意義的算法描述。再次,當機器進化時,即與環(huán)境交互過程中,通過自主學習,實現(xiàn)功能擴展和能力進化且超出人的預(yù)測時,責任歸于指揮官、技術(shù)人員、生產(chǎn)者還是機器本身更是難以判別。最后,《公民權(quán)利和政治權(quán)利國際公約》規(guī)定:“人人有權(quán)享有人身自由和安全。”這意味著與生命權(quán)相似,人身自由和安全等權(quán)利也可能因為未能確定問責制而受到侵犯。
四、應(yīng)對自主武器系統(tǒng)挑戰(zhàn)的中國視角
紅十字國際委員會和《特定常規(guī)武器公約》締約國曾就自主武器系統(tǒng)相關(guān)問題召開一系列會議,并達成部分基本共識,希望可以對自主武器系統(tǒng)的自主性程度進行規(guī)定。隨著中國國際地位與綜合國力的不斷提升,中國現(xiàn)有制度規(guī)范與基本立場已逐步確立,在此基礎(chǔ)上中國理當積極思考應(yīng)對策略,推進國際立法研究、完善法律審查等,降低此類武器給國際社會和平以及平民安全帶來的威脅。而且,隨著中國在國際社會話語權(quán)的逐漸加重,中國進行的規(guī)范嘗試更有可能吸引國際社會的目光,對實現(xiàn)自主武器系統(tǒng)在遵循國際人權(quán)法和國際人道法的基礎(chǔ)上穩(wěn)定發(fā)展產(chǎn)生積極影響。
(一)中國現(xiàn)有制度規(guī)范與基本立場
2017年7月,國務(wù)院公開發(fā)布《新一代人工智能發(fā)展規(guī)劃》,明確人工智能發(fā)展的不確定性帶來新挑戰(zhàn),不僅可能沖擊法律與社會倫理,也會挑戰(zhàn)國際關(guān)系準則,并就此首次提出“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”的戰(zhàn)略目標。2019年6月與2021年9月,科技部先后發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》《新一代人工智能倫理規(guī)范》等文件,前者強調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理等八條治理原則,后者在提出增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚?、強化責任擔當、提升倫理素養(yǎng)等六項基本倫理要求的基礎(chǔ)上,明確了人工智能管理、研發(fā)、供應(yīng)、使用等特定活動的18項具體倫理要求,制度上更加明確、具體、規(guī)范。2021年12月,外交部公布中國首次就規(guī)范人工智能軍事應(yīng)用問題提出的倡議,即中國向聯(lián)合國《特定常規(guī)武器公約》第六次審議大會提交的《中國關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》,其主張各國應(yīng)確保新武器及其作戰(zhàn)手段符合國際人道法和其他適用的國際法,不能利用人工智能技術(shù)優(yōu)勢危害他國主權(quán)和領(lǐng)土安全,應(yīng)建立普遍參與的國際機制,推動形成具有廣泛共識的人工智能治理框架和標準規(guī)范。2022年9月,外交部發(fā)布《中國出席第77屆聯(lián)合國大會立場文件》,再次強調(diào)關(guān)于人工智能安全治理尤其是人工智能軍事應(yīng)用的規(guī)范,應(yīng)堅持多邊主義、開放包容原則,通過對話與合作,推動形成具有廣泛共識的人工智能治理框架和標準規(guī)范。
除了國內(nèi)公開發(fā)布的政策與立場,中國同時參與2014年由《特定常規(guī)武器條約》締約國召開討論致命性自主武器系統(tǒng)的法律、道義、技術(shù)和軍事應(yīng)用方面問題的年度會議以及2017年基于前者由非正式的“專家會議”升級為正式的政府專家組(Group of Government Experts,簡稱GGE)會議,積極對外表達中國立場。以最近一次政府間專家組會議為例,2022年7月,中方提交《中國關(guān)于“致命性自主武器系統(tǒng)”問題的工作文件》,重申了2021年12月的立場文件,討論了致命性自主武器的定義和范圍、“可接受的”與“不可接受的”自主武器系統(tǒng)的區(qū)分,并“從維護人類共同安全和尊嚴出發(fā),有效管控人工智能引發(fā)的安全、法律、倫理、人道主義等風險”的人權(quán)和人道視角出發(fā)提出規(guī)范人工智能軍事應(yīng)用。以最近一次《特定常規(guī)武器公約》締約國會議為例,2022年11月,中方提交《中國關(guān)于加強人工智能倫理治理的立場文件》,再次重申了2021年12月的立場文件,并從人工智能治理應(yīng)堅持倫理先行、加強自我約束、提倡負責任使用、鼓勵國際合作四方面提出主張,積極倡導(dǎo)“以人為本”“智能向善”原則,主張增進各國理解互信,確保人工智能技術(shù)發(fā)展安全、可靠、可控,在人工智能領(lǐng)域推動構(gòu)建人類命運共同體。
(二)自主武器系統(tǒng)挑戰(zhàn)的中國應(yīng)對
當前各國政府根據(jù)《特定常規(guī)武器公約》達成部分基本共識。根據(jù)近幾年的政府專家組會議報告,已逐步確立一些指導(dǎo)原則,主要包括:(1)確保在《特定常規(guī)武器公約》框架內(nèi)開發(fā)、部署和使用任何新武器系統(tǒng),必須確定每種情況下國際法是否禁止該武器使用;(2)應(yīng)在《特定常規(guī)武器公約》的目標和宗旨范圍內(nèi),力求致命自主武器系統(tǒng)在軍事必要性和人道主義之間取得平衡;(3)國際人道法及其原則適用于致命自主武器系統(tǒng)的開發(fā)和使用,包括攻擊中的區(qū)分原則、比例原則等;(4)在《特定常規(guī)武器公約》范圍內(nèi)討論和采取的任何政策措施不應(yīng)將自主武器系統(tǒng)領(lǐng)域新興技術(shù)擬人化,也不應(yīng)妨礙智能自主技術(shù)在和平利用方面取得進展;(5)國際人道法的義務(wù)屬于國家、武裝沖突各方以及個人而非機器,在武器系統(tǒng)整個生命周期中保留對使用系統(tǒng)作出決定的人員責任;(5)人機交互應(yīng)在武器生命周期的各階段實施,以確保國際法在致命自主武器系統(tǒng)領(lǐng)域適用,其中人類的判斷至關(guān)重要;(6)在涉及《特定常規(guī)武器公約》和其他國際條約未涵蓋的自主武器系統(tǒng)領(lǐng)域新興技術(shù)的情況下,平民和戰(zhàn)斗員應(yīng)始終受到習慣國際法原則的保護,從人道主義和公眾良知的要求出發(fā);(7)國家層面對新武器、新作戰(zhàn)手段和方法的開發(fā)、獲取、使用進行法律審查是一項有效方法,各國可以自由決定法律審查的方式等。
然而即使存在一定共識,在自主武器系統(tǒng)領(lǐng)域涉及具體的國際法問題上仍留有空白,例如對于自主武器系統(tǒng)的法律地位、對于自主武器的規(guī)制等,締約國各方仍爭議不斷,尤其是相關(guān)公約與法律規(guī)則的制定等進展緩慢。分析我國現(xiàn)有制度規(guī)則,同樣由于技術(shù)發(fā)展的迅捷性和法律的滯后性,缺少該領(lǐng)域的成文法與法律實踐。而且相關(guān)共識表明,根據(jù)《日內(nèi)瓦公約第一附加議定書》締約方的法律義務(wù),各國政府在對武器進行法律審查時,必須密切關(guān)注自主武器系統(tǒng)領(lǐng)域新興技術(shù)的特殊性。綜上,為應(yīng)對該領(lǐng)域的挑戰(zhàn),參與自主武器系統(tǒng)法律規(guī)則構(gòu)建思考刻不容緩,此外我國可以從立法研究、審查問責等方面考慮自主武器系統(tǒng)的未來發(fā)展。
一是積極參與國際立法構(gòu)建,促進多邊合作。在自主武器系統(tǒng)領(lǐng)域,我國應(yīng)與相關(guān)國際組織和有關(guān)國家開展交流、對話,在相對平和的社會狀態(tài)下,積極推動國際立法構(gòu)建,例如在聯(lián)合國《特定常規(guī)武器公約》機制下達成有關(guān)自主武器系統(tǒng)的議定書。當自主武器系統(tǒng)用于戰(zhàn)爭時,需要像任何其他領(lǐng)域的活動一樣,受法律管轄,因為基于規(guī)則的國際秩序分外重要。此外,當代國際法治環(huán)境下,應(yīng)對自主武器系統(tǒng)對國際人權(quán)法和國際人道法的挑戰(zhàn),應(yīng)秉持《聯(lián)合國憲章》精神,在堅持尊重國際主權(quán),尊重各國平等參與自主武器系統(tǒng)治理等權(quán)利的基礎(chǔ)上,協(xié)調(diào)各國達成應(yīng)對自主武器系統(tǒng)帶來挑戰(zhàn)的理念認同、制度協(xié)同、行動共同。善于運用“非武力”而非“武力”,采取多邊參與、多方參與等多種方式建立完善全球自主武器系統(tǒng)治理體系。
二是完善法律審查問責機制。很多對自主武器系統(tǒng)的擔憂是基于罪行的歸責問題。從國際刑事審判實踐來看,被告人主觀上的犯罪意圖是必不可少的構(gòu)成要件。有學者認為,在國際法上,追究戰(zhàn)爭罪犯的國際責任本來就是一個復(fù)雜的問題。而在自主武器系統(tǒng)中,除了會繼續(xù)像傳統(tǒng)武裝沖突那樣,涉及戰(zhàn)斗員及其上級指揮官的責任,還將會涉及自主武器的設(shè)計者、生產(chǎn)商和銷售商的責任。當然,取得、列裝并部署自主武器系統(tǒng)的國家,也應(yīng)當承擔相應(yīng)的法律責任。
在國內(nèi)層面,根據(jù)《日內(nèi)瓦公約第一附加議定書》第36條的規(guī)定,一個國家具有自主審查新武器、作戰(zhàn)手段或方法的義務(wù),以確定是否符合國際規(guī)定。我國可據(jù)此構(gòu)建具有中國特色的武器審查模式與問責機制,如由國務(wù)院和中央軍事委員會聯(lián)合制定《中華人民共和國武器法律審查條例》。隨著自主武器系統(tǒng)技術(shù)的發(fā)展,其所造成的破壞會更加嚴重,更需要法律對其形成約束。根據(jù)我國實踐過程中的規(guī)制經(jīng)驗不斷規(guī)范我國在自主武器系統(tǒng)的研發(fā)與使用,既體現(xiàn)我國對于法律的尊重,也突顯我國在國際社會上的大國風范。
在國際層面,根據(jù)中立技術(shù)原則,應(yīng)用國際人權(quán)法和國際人道法可以被理解為采用一種特定的戰(zhàn)略框架來管理新興的軍事技術(shù),即可直接通過確定具體實施或使用這項技術(shù)是否會與國際人權(quán)法和國際人道法的基本原則相沖突來對其進行管制。自主武器系統(tǒng)的研制有助于提高一國政治經(jīng)濟地位,制衡競爭對手,形成國防優(yōu)勢,但各國對于該技術(shù)的研發(fā)均處于保密狀態(tài),難以形成自主審查機制,因此需要獨立第三方對其進行監(jiān)管控制。各國需主動向該機構(gòu)定期匯報其自主武器系統(tǒng)核心程序的研發(fā)進程與重大突破,該機構(gòu)也可對其進行臨時抽檢。
(三)自主武器系統(tǒng)挑戰(zhàn)法律應(yīng)對的思考啟示
在自主武器系統(tǒng)領(lǐng)域,我國也應(yīng)認真對待與合理應(yīng)用國際人權(quán)法和國際人道法,這不僅是一種低成本的明智選擇,而且有助于國家確立和強化其合法性,減輕其在發(fā)展進程中遇到的阻力,拓展其在國際社會的認可與支持度?,F(xiàn)有自主武器系統(tǒng)已經(jīng)配備高速傳感系統(tǒng),且可同時響應(yīng)多個輸入端的信號,對戰(zhàn)場進行全面的實時分析監(jiān)控,消除“戰(zhàn)爭迷霧”。其自主性更是不同于自動性,后者只能按照固定程序執(zhí)行重復(fù)操作與低級任務(wù),但前者可執(zhí)行更高層次的指令與任務(wù),使其可以獨立于人的操作而自主選擇目標并決定是否進行打擊。自主武器系統(tǒng)作為人工智能時代的產(chǎn)物,需保證中國在軍工行業(yè)快速發(fā)展的同時,不與“呵護人的生命、價值、尊嚴,實現(xiàn)人人享有人權(quán),是人類社會的共同追求”的價值理念相背離。在這種現(xiàn)實挑戰(zhàn)下,我國應(yīng)將國際人權(quán)法和國際人道法作為思考的出發(fā)點,繼續(xù)多維度思考應(yīng)對措施,實現(xiàn)“預(yù)防性”保障人權(quán)和消除人道災(zāi)難的目的。
一是從國際人道法出發(fā)考慮有意義的人類控制。雖然有觀點認為鼓勵自主武器系統(tǒng)的技術(shù)創(chuàng)新可以顯著降低對平民的附帶傷害,甚至對禁止自主武器系統(tǒng)的立法持反對意見,但大部分國家、學者都已就“有意義的人類控制”達成共識。“有意義的人類控制”(Meaningful Human Control)是2014年5月在日內(nèi)瓦舉辦的聯(lián)合國特定常規(guī)武器公約會議中針對自主武器系統(tǒng)所形成的新規(guī)范,可拆分為兩項要素“人類控制”與“有意義的”。首先,“人類控制”明確表明自主武器系統(tǒng)控制目標和作出擊打決定的是其操作者,其符合基本的人道主義思想;其次,“有意義的”指由人類衡量各方面因素最終作出擊打決定,可以符合國際人道法相關(guān)法規(guī)。英國學者威廉·布斯比博士肯定了預(yù)防措施的重要性,并提出可以限制軍事行動要素借以控制攻擊對象與附帶傷害。人類與自主武器系統(tǒng)的交互界面也可以為實現(xiàn)“有意義的人類控制”提供引導(dǎo),例如直接生成可采取的有意義的行動或執(zhí)行任務(wù)的實時成功率等。因此,應(yīng)明確界定“有意義的人類控制”的具體方式,并思考將“有意義的人類控制”融入相關(guān)法律,作為自主武器系統(tǒng)研制與使用中所必須遵守的法律規(guī)范。正如日內(nèi)瓦四公約共同第1條所規(guī)定的那樣,國家不僅自己要尊重國際人道法,而且要保證其他締約國尊重國際人道法。必須保留決定使用自主武器系統(tǒng)的人的責任,因為責任不能轉(zhuǎn)移給機器,且應(yīng)該在武器系統(tǒng)的整個生命周期中加以考慮。事實上,禁止不受人類控制的武器不會對技術(shù)發(fā)展產(chǎn)生反作用。相反,需要充分利用技術(shù)進步,推進人道主義保護以及維護國際和平與安全的國際法。
二是從國際人權(quán)法出發(fā)考慮創(chuàng)設(shè)依附的人權(quán)底線。早在2012年人權(quán)觀察組織就已發(fā)表報告,表示各國需采取預(yù)防措施并抵制武裝沖突過程中完全自主武器系統(tǒng)的研發(fā)與使用。因此為消除人類最終被機器滅亡的一切可能,保證生命權(quán)、尊嚴權(quán)等基本人權(quán),絕不能賦予機器人自主殺人的權(quán)力。如同適用于人的戰(zhàn)爭法則,我們要把“人類至上”作為適用于機器士兵法律的立法精神和作戰(zhàn)守則的核心要素,這也是自主武器系統(tǒng)使用中人權(quán)保障首要原則。對自主武器系統(tǒng)而言,指令模塊永不消失、永不刪改的“依附于人”的程序源代碼,可以考慮作為人類創(chuàng)設(shè)的人權(quán)底線,任何機器人不具有依附程序,都將失去存在的法律依據(jù)。此外,從武器審查的角度看,國際社會禁止使用不分皂白的武器,也禁止使用會引起過分傷害或不必要痛苦的武器。因此中國更應(yīng)在自主武器系統(tǒng)的程序設(shè)計上體現(xiàn)出人類對于其的絕對控制,為自主武器創(chuàng)設(shè)依托的人權(quán)底線,反對脫離控制的自主武器系統(tǒng)的研發(fā)與使用。
五、結(jié)語
人工智能技術(shù)的不斷成熟使得與之結(jié)合的軍事武器隨之迅猛發(fā)展,自主武器系統(tǒng)就是其代表產(chǎn)物之一,自主武器系統(tǒng)作為將人的思維判斷能力和武器的殺傷力高度整合的新型武器,對人權(quán)、人道與國際社會的和平穩(wěn)定構(gòu)成了包括但不限于侵犯性、濫殺性、殘酷性、失控性等挑戰(zhàn)。具體分析這些對人權(quán)與人道的挑戰(zhàn)印證出自主武器系統(tǒng)存在明顯的人權(quán)侵犯和人道主義風險。
2022年2月25日,習近平總書記在主持中共中央政治局第三十七次集體學習時發(fā)表重要講話,強調(diào):“呵護人的生命、價值、尊嚴,實現(xiàn)人人享有人權(quán),是人類社會的共同追求。”應(yīng)對各國競相掀起研發(fā)應(yīng)用自主武器系統(tǒng)的軍備競賽趨勢,以及人工智能技術(shù)與軍事武器結(jié)合后給現(xiàn)行國際人權(quán)法與國際人道法的相關(guān)原則與規(guī)定帶來的嚴峻挑戰(zhàn),我國需要提前研究部署,積極參與國際立法構(gòu)建、促進多邊合作,完善法律審查問責機制,并從國際人權(quán)法和國際人道法出發(fā)多維度思考應(yīng)對策略,以預(yù)防人權(quán)與人道主義侵害,促進這一涉及人類前途與命運的問題提前得到較好解決。
?。ㄍ蹴嵑?,吉林大學法學院博士研究生。)
Abstract:According to predictions,by 2050,autonomous weapon systems may potentially replace humans as the main force on the battlefield.The development of autonomous weapon systems poses risks to human rights and humanitarian concerns and raises questions about how international law should regulate new technologies.From the perspectives of international human rights law and international humanitarian law,autonomous weapon systems present serious challenges in terms of invasiveness,indiscriminate killing,cruelty,and loss of control,which impact human rights and humanitarian principles.Against the backdrop of increased attention to the protection of human rights in China,it is necessary to clarify the existing regulatory framework and fundamental stance regarding autonomous weapon systems and proactively consider and propose countermeasures to address the risks associated with such systems.This will help prevent human rights and humanitarian violations and advance the timely resolution of this issue,which affects the future and destiny of humanity,ultimately achieving the noble goal of universal enjoyment of human rights.
Keywords:Autonomous Weapon Systems;International Humanitarian Law;International Human Rights Law;Humanitarian
(責任編輯 郭 銳)
關(guān)鍵詞:自主武器系統(tǒng) 國際人道法 國際人權(quán)法 人道主義
一、問題的提出
自主武器系統(tǒng)(Autonomous Weapon System)是指任何擁有自主決策功能的武器系統(tǒng),其包括除自主武器之外的一系列輔助要素單元,例如傳感器、決策單元和彈藥等。根據(jù)定義可知其為可實現(xiàn)在沒有人類干預(yù)的情形下搜索、打擊目標以及最終實施擊打等全過程的武器系統(tǒng)。由于人工智能技術(shù)不斷被應(yīng)用到軍事方面,與軍事武器相結(jié)合,其對現(xiàn)行人權(quán)與人道法的相關(guān)原則與規(guī)定提出嚴峻挑戰(zhàn),因此部分人權(quán)倡導(dǎo)者對于濫傷性智能武器使用的合法性提出質(zhì)疑。雖然合法性問題已經(jīng)被《特定常規(guī)武器公約》(Convention on Certain Conventional Weapons,簡稱CCW)締約國所關(guān)注,并激烈討論近十年,但現(xiàn)行國際人道法的完善問題一直被作為國際社會的焦點??膳c此同時,缺乏人類決斷和審查的自主武器系統(tǒng),也形成了侵害人權(quán)的威脅。
迄今為止,所有涉及戰(zhàn)爭的法律所制約的對象最終都歸結(jié)于兩類:人和武器。但自主武器系統(tǒng)與現(xiàn)今傳統(tǒng)意義上的人和武器有著本質(zhì)的區(qū)別,它既非真正意義上的人,又非沒有頭腦的武器,它將人的思維判斷能力和武器的殺傷力高度整合,甚至具備了能夠自主決定是否殺人、何時殺人與如何殺人的能力。如果不為未來的自主武器系統(tǒng)制定人權(quán)準則和人道主義保護規(guī)則,那么人們將會面臨人權(quán)與人道主義的可怕災(zāi)難。為保護人類最根本的訴求,即生命權(quán)等基本人權(quán),并保證戰(zhàn)爭狀態(tài)下交戰(zhàn)方、中立方和平民的合法權(quán)益,預(yù)防其破壞國際人道法的體系,應(yīng)及早制定限制自主武器系統(tǒng)的人權(quán)和人道主義保護規(guī)則,并爭取國際社會的廣泛認同,加強交流與合作,共同促進這一涉及人類前途與命運的問題提前得到妥善解決。
目前,法學界關(guān)于自主武器系統(tǒng)的討論,主要集中于國際法中的國際人道法,但類似對原則的沖突也隱含在國際人權(quán)法中,后者始終保障全人類的某些人權(quán),無論其國籍或當?shù)胤蔀楹巍km然自主武器在人權(quán)領(lǐng)域的研究尚處于初級階段,但少數(shù)國外學者已有了相關(guān)思考。彼得·阿薩羅認為,有關(guān)生命和正當程序的人權(quán)以及克減上述人權(quán)的限制條件,意味著一系列與自動化和自主技術(shù)相關(guān)的具體義務(wù)??死锼雇蟹?middot;海恩認為在考慮人權(quán)背景中可能通過自主武器平臺使用武力時,不應(yīng)僅限于致命武力,而是應(yīng)考慮包括致命武力和致命性較低武力在內(nèi)的所有武力使用形式。詹姆斯·道斯使用了“推理性人權(quán)”一詞,從人權(quán)的角度出發(fā),基于對自主武器系統(tǒng)的擔憂擴展到全面預(yù)測通用人工智能將會引發(fā)的關(guān)注。相比之下,國內(nèi)學者少有從人權(quán)角度出發(fā)考慮自主武器系統(tǒng)的挑戰(zhàn)及法律應(yīng)對。徐爽從無人機作為武器在使用中給人權(quán)帶來的挑戰(zhàn)為切入點,考察了人權(quán)受到的沖擊和侵害等。雖然根據(jù)自主武器系統(tǒng)的定義,遠程遙控的無人機不屬于自主武器系統(tǒng),但徐爽依然從新興技術(shù)對人權(quán)保障帶來負面影響層面進行了有益探討。本文試圖在已有研究的基礎(chǔ)上,從國際人權(quán)法和國際人道法兩個維度出發(fā),考察自主武器系統(tǒng)對人權(quán)和人道法帶來了哪些挑戰(zhàn),并基于兩個維度就如何應(yīng)對新興技術(shù)的影響進行探索。
二、自主武器系統(tǒng)中人權(quán)與人道的關(guān)系
國際人道法和國際人權(quán)法是兩個不同的學科,但其相互關(guān)系一直是引起大量關(guān)注的法律焦點問題,特別是因為它對軍事行動的重要影響。盡管角度不同,但兩者都致力于保護個人的生命、健康和尊嚴。在武裝沖突期間,國際人道法保護某些類別的人不受交戰(zhàn)方蓄意攻擊。然而,國際人權(quán)法對使用致命武力所規(guī)定的標準比戰(zhàn)爭法更為嚴格。交戰(zhàn)各方必須保證在武裝沖突條件下不被“任意”剝奪生命,武裝部隊和有組織武裝團體必須考慮其使用自主武器系統(tǒng)是否符合國際人權(quán)法的要求。
(一)國際人權(quán)法與國際人道法的相互關(guān)系
國際人權(quán)法(International Human Rights law),一般是指促進和保證人的基本權(quán)利和自由得到普遍尊重和實現(xiàn)的國際法原則、規(guī)則和規(guī)章、制度等;國際人道法(International Humanitarian Law),則主要是指在戰(zhàn)爭或武裝沖突期間保護傷、病員、平民等戰(zhàn)爭受難者的國際法原則、規(guī)則和規(guī)章、制度等。關(guān)于兩者的關(guān)系,存在兩種主流觀點,一種認為廣義的國際人道法包括人權(quán)法,人權(quán)法僅代表一般人道法的一個較高的發(fā)展階段。另一種則認為人道法是派生于戰(zhàn)爭法的法律,且人權(quán)法作為構(gòu)成和平法重要部分的法律,優(yōu)先于國際人道法。但是從這兩者發(fā)展的過程來看,國際人道法與國際人權(quán)法之間相輔相成、交叉適用,并且這種聯(lián)系和作用還在發(fā)展。
根據(jù)國際法院的說法,國際人道法是專門設(shè)計來規(guī)范敵對行為的法律,而國際人權(quán)法發(fā)揮一般法的作用。國際法院在1996年《關(guān)于以核武器相威脅或使用核武器是否合法的咨詢意見》中首次論述了武裝沖突局勢中適用人權(quán)法的問題并且提出《公民權(quán)利和政治權(quán)利國際公約》所提供的保護在戰(zhàn)時并不停止,而且原則上不得任意剝奪人的生命權(quán)也適用于敵對行動??梢婋m然國際人道法和國際人權(quán)法屬于不同的法律體系,但它們所保護的原則和利益相似。然而實踐中,雖然人權(quán)法既適用于平時也適用于武裝沖突時期,但是在武裝沖突期間,通過國內(nèi)或國際人權(quán)機構(gòu)對人權(quán)進行保護的手段非常有限。國際人權(quán)法在國際人權(quán)條約機構(gòu)和聯(lián)合國的監(jiān)督下由締約國實施,這些機構(gòu)的決定具有權(quán)威性但缺乏法律約束力,而國際人道法的實施,在嚴重違反戰(zhàn)爭法的情況下,可以由國際刑事法庭對違反人道法、犯有戰(zhàn)爭罪的人進行懲罰。綜上,國際人權(quán)法存在武裝沖突中的適用且與國際人道法存在相互關(guān)系,其為自主武器系統(tǒng)的發(fā)展和使用塑造這種關(guān)系提供了前期基礎(chǔ)。
(二)國際人權(quán)法、國際人道法與自主武器系統(tǒng)的關(guān)系
自主武器系統(tǒng)的發(fā)展已經(jīng)引發(fā)了國際法如何規(guī)范這種新技術(shù)的問題。簡述其發(fā)展趨勢,目前的軍事機器人的技術(shù)和軍事標準都是以“人為干預(yù)”為前提,即人類仍然是最終的軍事決策者。但現(xiàn)如今,世界各地的主要軍隊正聲勢浩大地投資相關(guān)研究,發(fā)展和部署自主武器系統(tǒng)。傳統(tǒng)軍事強國在自主武器系統(tǒng)上已經(jīng)競相掀起研發(fā)、應(yīng)用自主武器系統(tǒng)的軍備競賽。目前以色列的閉環(huán)邊界防御系統(tǒng)就是借助人工智能進行監(jiān)視,該系統(tǒng)無須人類操控,便可自行操控攻擊對象與攻擊時間。此外,由于自主武器系統(tǒng)缺少明確的國際規(guī)則和有效監(jiān)管,僅停留在《特定常規(guī)武器公約》會議的研討中,且逐步進入了非國際行為體的視野,勢必加重國際安全的潛在威脅。在此基礎(chǔ)上考慮國際人權(quán)法和國際人道法的適用,應(yīng)明確武裝沖突中使用自主武器系統(tǒng)同時受到兩者的管轄,且前者在兩個法律體系直接沖突的情況下優(yōu)于后者。一方面,武裝沖突中的某些情況可能只符合國際人道法的事項,另一些可能只涉及國際人權(quán)法,還有一些則可能涉及國際法的兩個交叉領(lǐng)域。另一方面,在武裝沖突中,國際人權(quán)法和國際人道法的義務(wù)可以同時存在,不僅是因為國際法院的咨詢意見支持這一觀點,還因為國際人權(quán)法和國際人道法有一個共同的目的,即最大限度地保護個人。
具體來說,國際人權(quán)法可能在三種情況下適用于自主武器系統(tǒng):一是武裝沖突中,人權(quán)法在武裝沖突中使用武力問題上與國際人道法互補,其重點始終是使沖突雙方在武裝沖突中都能保有生命權(quán)和尊嚴權(quán)等人權(quán),盡管還會涉及自由權(quán)和人身安全權(quán)、免受非人道待遇權(quán)、獲得公正審判權(quán)等。二是反恐和其他不構(gòu)成武裝沖突處境下的行動。在未達到武裝沖突標桿的處境中,對自主武器系統(tǒng)的使用要求應(yīng)僅由人權(quán)法進行監(jiān)管,而非適用國際人道法。三是在國內(nèi)執(zhí)法中,如果技術(shù)成熟和普遍之后,國家執(zhí)法官員也可能在某個時間決定使用致命或致命性較低武器的自主武器系統(tǒng)。在這種情況下,使用武力需要人權(quán)法管轄。
就國際人道法適用于自主武器系統(tǒng)問題,該法作為維護國際和平、尊重人道的重要保障,其確定的區(qū)分原則、比例原則等均已得到國際社會的認可,因此在國際人道法的基礎(chǔ)上,自主武器只有滿足其主要原則才可能被允許應(yīng)用。當前自主武器的研發(fā)與使用極有可能與現(xiàn)行國際人道法產(chǎn)生沖突,而國際上對此問題的討論主要集中在三方面:一是其是否滿足區(qū)分原則,即區(qū)分平民與軍事目標;二是其是否滿足比例原則,即相比其與其軍事利益,最大限度限制其為平民帶來的附帶傷亡;三是是否滿足“馬爾頓斯條款”(Martens Clause),即遵守“人道原則”與“公眾良心”。
三、自主武器系統(tǒng)對人權(quán)與人道的挑戰(zhàn)
自主武器與人工智能技術(shù)發(fā)展迅猛,給國際社會的和平以及平穩(wěn)發(fā)展帶來了巨大的挑戰(zhàn)。雖然自主武器系統(tǒng)存在技術(shù)優(yōu)勢,各國通過提升自主攻擊目標的精度和有效性即可掌握戰(zhàn)場上的主動,但素有“機器人殺手”之稱的完全自主武器系統(tǒng),很難保證其不會侵犯生命權(quán)、尊嚴權(quán)等人權(quán)以至違反國際人權(quán)法。關(guān)于對人道的挑戰(zhàn),由于只有滿足國際人道法主要原則才可能被允許應(yīng)用,所以極有可能與現(xiàn)行國際人道法產(chǎn)生沖突。人類的戰(zhàn)爭既昂貴又血腥,用機器人取代大量的地面作戰(zhàn)車輛和其他武器,看似既可以節(jié)省開支,又能夠避免讓傷亡問題影響政治決策。但當自主武器系統(tǒng)能夠自行決定是否攻擊人的時候,作戰(zhàn)方式就與傳統(tǒng)作戰(zhàn)形式不再相同,其也完全可能像人們對待機器一樣對人類的生死存亡漠然置之,歸納起來,其很可能同時具有侵犯性、濫殺性、殘酷性、失控性等幾個特征,具體分析這些特征對人權(quán)與人道的挑戰(zhàn)更印證出自主武器系統(tǒng)存在明顯的反人類特征和巨大人道主義風險,倘若自主武器系統(tǒng)被恐怖主義組織所控制,無辜百姓的生命安全將會遭受更大的威脅。
(一)侵犯性的挑戰(zhàn)
自主武器系統(tǒng)侵犯性的挑戰(zhàn)主要體現(xiàn)在國際人權(quán)法中,因為對人使用武力的決定是由程序作出而不是人作出的行為,從本質(zhì)上侵犯了尊嚴權(quán)。在人與機器的關(guān)系中,所有機器都由人類制造,并為其生存和發(fā)展服務(wù)。即使機器發(fā)展到極為高級的自主智能階段,能夠認知、思考,會自我生成指令,甚至自我修復(fù)、自行繁衍,它與人類的關(guān)系歸根結(jié)底還是依附和被依附的關(guān)系。如果按照自主武器系統(tǒng)中的算法,讓人類處于一個被無人性的機器決定的位置,那將意味著死亡會被簡單地視為一種目標,人類將不再具有完整且獨立的地位。換而言之,在自主武器系統(tǒng)使用中,“人”實際上被簡化為數(shù)字0和1,而不再是有內(nèi)在尊嚴的人。
《世界人權(quán)宣言》規(guī)定:“人人生而自由,在尊嚴和權(quán)利上一律平等。”《公民權(quán)利和政治權(quán)利國際公約》提到:“按照聯(lián)合國憲章所宣布的原則,對人類家庭所有成員的固有尊嚴及其平等的和不移的權(quán)利的承認,乃是世界自由、正義與和平的基礎(chǔ),確認這些權(quán)利是源于人身的固有尊嚴。”雖然公約中沒有將尊嚴權(quán)列為一項實質(zhì)性權(quán)利,但其與其他權(quán)利交織在一起保護,人類尊嚴是國際人權(quán)法重要目標。尊嚴概念的基礎(chǔ)是強調(diào)每個人的價值是無限的,康德的尊嚴觀念賦予每個人以獨立的、獨特的、不可替代的價值,而侮辱人的行為就是無端地降低這種價值。每個人都有一個不能被侵犯的內(nèi)在核心,即使這種侵犯對公共利益有益,因為這意味著他們被用作工具。但一個沒有人性的機器無法理解對人類使用武力的意義,也無法公正地對待這一決定的嚴重性。.計算機代碼尚不能準確地描述人類生活的復(fù)雜性和豐富性,以及日常關(guān)于生活的決定,所以機器人更不能預(yù)先設(shè)定程序,以適當?shù)姆绞綄φ鎸嵣詈驼鎸嵉娜怂峁┑臒o窮無盡的情景作出反應(yīng)。此外,程序預(yù)設(shè)還存在另一個問題,即由算法決定自主武器系統(tǒng)何時被允許釋放武力,必然導(dǎo)致其建立在假設(shè)的基礎(chǔ)上。換而言之,規(guī)則制定者和程序設(shè)計人員僅基于設(shè)想的理論可能性,而非在真實而緊迫的情況下提前作出了致命性決策。但在抽象的處境下又很難提前預(yù)想每一個深遠又準確的決定。所以,脫離人類控制的完全自主武器系統(tǒng)侵犯了那些被使用武力的人的尊嚴權(quán)。如果計算機的操作處于仍然受人類控制的低層次,此時機器仍然是人類手中的工具,人們用它來增強自己的自主權(quán),尊嚴權(quán)可能不會受到威脅。因為使用武力的決定不是由完全自主武器系統(tǒng)作出的,而是由人作出的,則是以考慮人權(quán)的方式對待被攻擊的人。然而,使用武力的決定被自主的武器所接管,并且它們不再是人類手中的工具,則構(gòu)成了對國際人權(quán)法的嚴重挑戰(zhàn)。
(二)濫殺性的挑戰(zhàn)
自主武器系統(tǒng)濫殺性的挑戰(zhàn)主要體現(xiàn)在國際人道法中,雖然殺的行為導(dǎo)致受害者失去生命,但國際法學上,武器本身并不因為其致命性還是非致命性而受到禁止。濫殺側(cè)重于指不分條件、場合和對象,自動執(zhí)行殺傷任務(wù),這明顯違背了國際人道法中的區(qū)分原則。在《關(guān)于以核武器相威脅或使用核武器是否合法的咨詢意見》(1996年)中,國際法院把區(qū)分原則視為國際人道法的“首要原則”。作為具有自主攻擊能力的新型武器,且其可能造成與生物病毒類似的濫殺濫傷擴散,自主武器系統(tǒng)應(yīng)該被視為符合區(qū)分原則的武器。
《日內(nèi)瓦公約第一附加議定書》第48、51、52條均對區(qū)分原則作出規(guī)定,明確應(yīng)該對平民與戰(zhàn)斗員加以區(qū)分,因此無論是有意還是失誤對平民造成傷害均屬于違反國際人道法的行為。針對區(qū)分原則,不同學者對其持不同建議,信任自主武器分析與識別能力的學者認為其可以更好地區(qū)分平民與戰(zhàn)斗員,降低對平民的傷害,其他部分學者則認為戰(zhàn)場與人相較于編寫的程序要更為復(fù)雜,自主武器無法處理這種復(fù)雜情景,此外其也面臨一系列倫理道德問題。對人而言,人的主要作戰(zhàn)對手就是人,因此法律要求的區(qū)分也相對“簡單”即區(qū)分敵方軍事目標和平民居民、民用物體。但對于自主武器系統(tǒng),除要進行軍事目標與平民目標這一同人類士兵相一致的區(qū)分外,還要增加一層更為關(guān)鍵的區(qū)分,即應(yīng)區(qū)分對方的屬性與意圖,比如其是參與敵對行動的平民或是進行武裝自衛(wèi)的平民以及其是否屬于具有投降意圖的戰(zhàn)斗員等,對于自主武器系統(tǒng)可否正確進行更深層次的區(qū)分,部分學者對其持懷疑態(tài)度。例如,當自主武器系統(tǒng)面對已經(jīng)投降的敵方人員,由于其指令要求,機器士兵難以做到“刀下留人”的人權(quán)保護規(guī)則程序,難以立即停止攻擊、不殺害放棄抵抗的人,也難以給予傷者、病者、醫(yī)護與救援人員等應(yīng)受特別保護群體以尊重與保護。戰(zhàn)場環(huán)境遠比自主武器預(yù)設(shè)程序復(fù)雜多變,當今武裝沖突中最為典型的沖突場景是“非對稱戰(zhàn)爭”和“城市戰(zhàn)爭”環(huán)境,因此通過算法進行精準區(qū)分軍民且同時不對平民出現(xiàn)附帶傷亡,人工智能在此方面可能還未合格。
(三)殘酷性的挑戰(zhàn)
自主武器系統(tǒng)殘酷性的挑戰(zhàn)同時體現(xiàn)在國際人權(quán)法與國際人道法中,由于其對人使用武力的行為不能被人類干預(yù),回避了人類生理與情感弱點的自主武器系統(tǒng)便具有了殘酷無情的特質(zhì)。自主武器系統(tǒng)殘酷性對國際人權(quán)法的挑戰(zhàn)包括但不限于對生命權(quán)、尊嚴權(quán)的挑戰(zhàn)。無論是人類還是機器控制武力,都會有針對錯誤的人或過度使用武力的情況,但是當自主武器系統(tǒng)出錯時,會對人權(quán)造成難以逆轉(zhuǎn)的危害。
殘酷性的挑戰(zhàn)可以通過國際人道法中的馬爾頓斯條款更清晰地闡釋。作為國際人道法的重要原則之一,馬爾頓斯條款是俄羅斯國際法學家馬爾頓斯在1899年第一次海牙和平會議上提出的,且在《陸戰(zhàn)法規(guī)和慣例公約》序言中就已得到確認。該條款認為武器系統(tǒng)應(yīng)符合國際習慣、人道原則與公眾良心的要求,具體而言,馬爾頓斯條款規(guī)定:“凡遇有本條文中未規(guī)定之事項,則有種種國際法之原則,從文明人民之慣例上,從人道之原則上,自良心之要求上,發(fā)生事變之兩交戰(zhàn)國與其人民之間,應(yīng)在此原則之保護與支配下。”其填補了國際法沒有規(guī)定的情形,使得國際人道法的應(yīng)用不受其明文公約的限制。伴隨自主武器系統(tǒng)自主性的不斷提升與人工智能技術(shù)的不斷發(fā)展,在未來極有可能將擊打目標的決策交由自主武器系統(tǒng),即機器會掌控人類的生殺大權(quán)。目前國際人道法并未禁止自主武器系統(tǒng),且僅有在該系統(tǒng)觸犯戰(zhàn)爭罪或人道罪后其才會被懲處,從國際人道法精神分析,自主武器系統(tǒng)缺乏合格戰(zhàn)斗人員所需的同理心和道德品質(zhì),可能會為人類帶來未知的危險與威脅。
(四)失控性的挑戰(zhàn)
自主武器系統(tǒng)失控性的挑戰(zhàn)同時體現(xiàn)在國際人權(quán)法和國際人道法中,失控性主要源于武器系統(tǒng)的“自主性”,完全自主武器系統(tǒng)不同于半自主武器系統(tǒng)、有監(jiān)督的自主武器系統(tǒng)、將人置于其OODA循環(huán)之外,其可執(zhí)行更高層次的指令與任務(wù),可以獨立于人的操作而自主選擇目標并決定是否進行打擊。這不僅會導(dǎo)致違背國際人道法中的比例原則,也會構(gòu)成對生命權(quán)的侵犯。
一方面,戰(zhàn)爭法規(guī)定為防止戰(zhàn)爭造成過度的平民生命傷亡和財產(chǎn)損害,作戰(zhàn)手段和方法的使用應(yīng)與預(yù)期的、具體的、直接的軍事利益成比例,禁止過度的攻擊和不必要的傷害?!度諆?nèi)瓦公約第一附加議定書》第51條第5款第2項以及第57條第2款第1項也均對國際人道法中的比例要求作出規(guī)定。目前自主武器的技術(shù)遠低于長期訓(xùn)練的軍人,還無法達到人類獨有的判斷力,因此對于其是否符合比例原則還存有爭議。在比例原則下,自主武器系統(tǒng)需要對各種要素進行評估量化,并與預(yù)期軍事利益進行對比作出選擇,因此相較于區(qū)分原則,其技術(shù)要求更高,如何衡量生命的價值也會是其技術(shù)上的難題之一。此外由于機器人與人在個體能力上的巨大差異,機器士兵與人的對抗應(yīng)當存在某種意義上的不平等,即在作戰(zhàn)方法和手段的使用上,應(yīng)當盡力避免造成人的傷亡。如果機器士兵使用泰瑟槍、麻醉彈或纖維網(wǎng)等就能解除敵方人員的武裝,那么發(fā)射自動尋的靈巧炸彈、激光束或電磁炮彈從肉體上消滅人類就是非法行為。如果指令程序要求徹底消滅特定的人,那么擁有“一槍制敵”能力的機器士兵采取將人折磨致死的方法顯然不能被法律所認可。比例原則的核心是評估軍事必要性,確保預(yù)期實現(xiàn)的軍事利益不應(yīng)顯著超出造成的附帶損害,因此人道保護與軍事必要性之間的衡量與取舍是價值判斷,不是僅僅通過分析就能作出的決定,這恰恰是自主武器難以完成的任務(wù),此外其可能還需在多個軍事目標選其一時做到最小化平民附帶損害,而該項技術(shù)需要自主武器具備道德價值判斷能力。
另一方面,可以從問責制度的維度去思考自主武器系統(tǒng)對生命權(quán)的挑戰(zhàn),當然這同樣適用于相關(guān)權(quán)利?!妒澜缛藱?quán)宣言》明確規(guī)定:“人人有權(quán)享有生命、自由和人身安全。”雖然《世界人權(quán)宣言》不具備國際法約束力,卻是世界人權(quán)準則的綱領(lǐng)性文件。《公民權(quán)利和政治權(quán)利國際公約》規(guī)定:“人人有固有的生命權(quán)。這個權(quán)利應(yīng)受法律保護,不得任意剝奪任何人的生命”,這也是國家必須承擔的尊重和保障生命權(quán)的義務(wù)。生命權(quán)有兩個組成部分,一是防止任意損害生命,二是發(fā)生這種情況時應(yīng)負責任。如果侵害者造成生命損失,哪怕是包括未盡應(yīng)有的努力加以防止,即構(gòu)成對生命權(quán)的侵犯。這意味著對于非法的死亡缺乏問責制,也構(gòu)成侵犯生命權(quán)。如果人力對武力釋放控制不足,使用自主武器系統(tǒng)可能會造成問責真空,因為問責是以控制為前提的。因此,在人權(quán)法背景下自主武器系統(tǒng)存在嚴重挑戰(zhàn),因為如果沒有有意義的人類控制,機器人可能不具備按照人權(quán)法的要求使用武力或保護生命和身體安全的技術(shù)能力。即使國家或公司等非個人的機構(gòu)可能會被追究責任,且不得不支付賠償或改變其做法,但由于機器自主性的增強,人類在決策中扮演了次要的角色。因為他們?nèi)狈刂?,將很難追究到他們個人的責任。首先,優(yōu)秀的算法工程師也難以預(yù)測其復(fù)雜的決策,如果沒有目標決策的透明度,那么確定錯誤攻擊在哪發(fā)生、如何發(fā)生,以及如何防止類似錯誤再次發(fā)生,將是一項極其困難的任務(wù)。其次,自主武器系統(tǒng)作為人工智能系統(tǒng)無法全面把握設(shè)計者指令的真正含義或者缺乏某種意義的算法描述。再次,當機器進化時,即與環(huán)境交互過程中,通過自主學習,實現(xiàn)功能擴展和能力進化且超出人的預(yù)測時,責任歸于指揮官、技術(shù)人員、生產(chǎn)者還是機器本身更是難以判別。最后,《公民權(quán)利和政治權(quán)利國際公約》規(guī)定:“人人有權(quán)享有人身自由和安全。”這意味著與生命權(quán)相似,人身自由和安全等權(quán)利也可能因為未能確定問責制而受到侵犯。
四、應(yīng)對自主武器系統(tǒng)挑戰(zhàn)的中國視角
紅十字國際委員會和《特定常規(guī)武器公約》締約國曾就自主武器系統(tǒng)相關(guān)問題召開一系列會議,并達成部分基本共識,希望可以對自主武器系統(tǒng)的自主性程度進行規(guī)定。隨著中國國際地位與綜合國力的不斷提升,中國現(xiàn)有制度規(guī)范與基本立場已逐步確立,在此基礎(chǔ)上中國理當積極思考應(yīng)對策略,推進國際立法研究、完善法律審查等,降低此類武器給國際社會和平以及平民安全帶來的威脅。而且,隨著中國在國際社會話語權(quán)的逐漸加重,中國進行的規(guī)范嘗試更有可能吸引國際社會的目光,對實現(xiàn)自主武器系統(tǒng)在遵循國際人權(quán)法和國際人道法的基礎(chǔ)上穩(wěn)定發(fā)展產(chǎn)生積極影響。
(一)中國現(xiàn)有制度規(guī)范與基本立場
2017年7月,國務(wù)院公開發(fā)布《新一代人工智能發(fā)展規(guī)劃》,明確人工智能發(fā)展的不確定性帶來新挑戰(zhàn),不僅可能沖擊法律與社會倫理,也會挑戰(zhàn)國際關(guān)系準則,并就此首次提出“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”的戰(zhàn)略目標。2019年6月與2021年9月,科技部先后發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》《新一代人工智能倫理規(guī)范》等文件,前者強調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理等八條治理原則,后者在提出增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚?、強化責任擔當、提升倫理素養(yǎng)等六項基本倫理要求的基礎(chǔ)上,明確了人工智能管理、研發(fā)、供應(yīng)、使用等特定活動的18項具體倫理要求,制度上更加明確、具體、規(guī)范。2021年12月,外交部公布中國首次就規(guī)范人工智能軍事應(yīng)用問題提出的倡議,即中國向聯(lián)合國《特定常規(guī)武器公約》第六次審議大會提交的《中國關(guān)于規(guī)范人工智能軍事應(yīng)用的立場文件》,其主張各國應(yīng)確保新武器及其作戰(zhàn)手段符合國際人道法和其他適用的國際法,不能利用人工智能技術(shù)優(yōu)勢危害他國主權(quán)和領(lǐng)土安全,應(yīng)建立普遍參與的國際機制,推動形成具有廣泛共識的人工智能治理框架和標準規(guī)范。2022年9月,外交部發(fā)布《中國出席第77屆聯(lián)合國大會立場文件》,再次強調(diào)關(guān)于人工智能安全治理尤其是人工智能軍事應(yīng)用的規(guī)范,應(yīng)堅持多邊主義、開放包容原則,通過對話與合作,推動形成具有廣泛共識的人工智能治理框架和標準規(guī)范。
除了國內(nèi)公開發(fā)布的政策與立場,中國同時參與2014年由《特定常規(guī)武器條約》締約國召開討論致命性自主武器系統(tǒng)的法律、道義、技術(shù)和軍事應(yīng)用方面問題的年度會議以及2017年基于前者由非正式的“專家會議”升級為正式的政府專家組(Group of Government Experts,簡稱GGE)會議,積極對外表達中國立場。以最近一次政府間專家組會議為例,2022年7月,中方提交《中國關(guān)于“致命性自主武器系統(tǒng)”問題的工作文件》,重申了2021年12月的立場文件,討論了致命性自主武器的定義和范圍、“可接受的”與“不可接受的”自主武器系統(tǒng)的區(qū)分,并“從維護人類共同安全和尊嚴出發(fā),有效管控人工智能引發(fā)的安全、法律、倫理、人道主義等風險”的人權(quán)和人道視角出發(fā)提出規(guī)范人工智能軍事應(yīng)用。以最近一次《特定常規(guī)武器公約》締約國會議為例,2022年11月,中方提交《中國關(guān)于加強人工智能倫理治理的立場文件》,再次重申了2021年12月的立場文件,并從人工智能治理應(yīng)堅持倫理先行、加強自我約束、提倡負責任使用、鼓勵國際合作四方面提出主張,積極倡導(dǎo)“以人為本”“智能向善”原則,主張增進各國理解互信,確保人工智能技術(shù)發(fā)展安全、可靠、可控,在人工智能領(lǐng)域推動構(gòu)建人類命運共同體。
(二)自主武器系統(tǒng)挑戰(zhàn)的中國應(yīng)對
當前各國政府根據(jù)《特定常規(guī)武器公約》達成部分基本共識。根據(jù)近幾年的政府專家組會議報告,已逐步確立一些指導(dǎo)原則,主要包括:(1)確保在《特定常規(guī)武器公約》框架內(nèi)開發(fā)、部署和使用任何新武器系統(tǒng),必須確定每種情況下國際法是否禁止該武器使用;(2)應(yīng)在《特定常規(guī)武器公約》的目標和宗旨范圍內(nèi),力求致命自主武器系統(tǒng)在軍事必要性和人道主義之間取得平衡;(3)國際人道法及其原則適用于致命自主武器系統(tǒng)的開發(fā)和使用,包括攻擊中的區(qū)分原則、比例原則等;(4)在《特定常規(guī)武器公約》范圍內(nèi)討論和采取的任何政策措施不應(yīng)將自主武器系統(tǒng)領(lǐng)域新興技術(shù)擬人化,也不應(yīng)妨礙智能自主技術(shù)在和平利用方面取得進展;(5)國際人道法的義務(wù)屬于國家、武裝沖突各方以及個人而非機器,在武器系統(tǒng)整個生命周期中保留對使用系統(tǒng)作出決定的人員責任;(5)人機交互應(yīng)在武器生命周期的各階段實施,以確保國際法在致命自主武器系統(tǒng)領(lǐng)域適用,其中人類的判斷至關(guān)重要;(6)在涉及《特定常規(guī)武器公約》和其他國際條約未涵蓋的自主武器系統(tǒng)領(lǐng)域新興技術(shù)的情況下,平民和戰(zhàn)斗員應(yīng)始終受到習慣國際法原則的保護,從人道主義和公眾良知的要求出發(fā);(7)國家層面對新武器、新作戰(zhàn)手段和方法的開發(fā)、獲取、使用進行法律審查是一項有效方法,各國可以自由決定法律審查的方式等。
然而即使存在一定共識,在自主武器系統(tǒng)領(lǐng)域涉及具體的國際法問題上仍留有空白,例如對于自主武器系統(tǒng)的法律地位、對于自主武器的規(guī)制等,締約國各方仍爭議不斷,尤其是相關(guān)公約與法律規(guī)則的制定等進展緩慢。分析我國現(xiàn)有制度規(guī)則,同樣由于技術(shù)發(fā)展的迅捷性和法律的滯后性,缺少該領(lǐng)域的成文法與法律實踐。而且相關(guān)共識表明,根據(jù)《日內(nèi)瓦公約第一附加議定書》締約方的法律義務(wù),各國政府在對武器進行法律審查時,必須密切關(guān)注自主武器系統(tǒng)領(lǐng)域新興技術(shù)的特殊性。綜上,為應(yīng)對該領(lǐng)域的挑戰(zhàn),參與自主武器系統(tǒng)法律規(guī)則構(gòu)建思考刻不容緩,此外我國可以從立法研究、審查問責等方面考慮自主武器系統(tǒng)的未來發(fā)展。
一是積極參與國際立法構(gòu)建,促進多邊合作。在自主武器系統(tǒng)領(lǐng)域,我國應(yīng)與相關(guān)國際組織和有關(guān)國家開展交流、對話,在相對平和的社會狀態(tài)下,積極推動國際立法構(gòu)建,例如在聯(lián)合國《特定常規(guī)武器公約》機制下達成有關(guān)自主武器系統(tǒng)的議定書。當自主武器系統(tǒng)用于戰(zhàn)爭時,需要像任何其他領(lǐng)域的活動一樣,受法律管轄,因為基于規(guī)則的國際秩序分外重要。此外,當代國際法治環(huán)境下,應(yīng)對自主武器系統(tǒng)對國際人權(quán)法和國際人道法的挑戰(zhàn),應(yīng)秉持《聯(lián)合國憲章》精神,在堅持尊重國際主權(quán),尊重各國平等參與自主武器系統(tǒng)治理等權(quán)利的基礎(chǔ)上,協(xié)調(diào)各國達成應(yīng)對自主武器系統(tǒng)帶來挑戰(zhàn)的理念認同、制度協(xié)同、行動共同。善于運用“非武力”而非“武力”,采取多邊參與、多方參與等多種方式建立完善全球自主武器系統(tǒng)治理體系。
二是完善法律審查問責機制。很多對自主武器系統(tǒng)的擔憂是基于罪行的歸責問題。從國際刑事審判實踐來看,被告人主觀上的犯罪意圖是必不可少的構(gòu)成要件。有學者認為,在國際法上,追究戰(zhàn)爭罪犯的國際責任本來就是一個復(fù)雜的問題。而在自主武器系統(tǒng)中,除了會繼續(xù)像傳統(tǒng)武裝沖突那樣,涉及戰(zhàn)斗員及其上級指揮官的責任,還將會涉及自主武器的設(shè)計者、生產(chǎn)商和銷售商的責任。當然,取得、列裝并部署自主武器系統(tǒng)的國家,也應(yīng)當承擔相應(yīng)的法律責任。
在國內(nèi)層面,根據(jù)《日內(nèi)瓦公約第一附加議定書》第36條的規(guī)定,一個國家具有自主審查新武器、作戰(zhàn)手段或方法的義務(wù),以確定是否符合國際規(guī)定。我國可據(jù)此構(gòu)建具有中國特色的武器審查模式與問責機制,如由國務(wù)院和中央軍事委員會聯(lián)合制定《中華人民共和國武器法律審查條例》。隨著自主武器系統(tǒng)技術(shù)的發(fā)展,其所造成的破壞會更加嚴重,更需要法律對其形成約束。根據(jù)我國實踐過程中的規(guī)制經(jīng)驗不斷規(guī)范我國在自主武器系統(tǒng)的研發(fā)與使用,既體現(xiàn)我國對于法律的尊重,也突顯我國在國際社會上的大國風范。
在國際層面,根據(jù)中立技術(shù)原則,應(yīng)用國際人權(quán)法和國際人道法可以被理解為采用一種特定的戰(zhàn)略框架來管理新興的軍事技術(shù),即可直接通過確定具體實施或使用這項技術(shù)是否會與國際人權(quán)法和國際人道法的基本原則相沖突來對其進行管制。自主武器系統(tǒng)的研制有助于提高一國政治經(jīng)濟地位,制衡競爭對手,形成國防優(yōu)勢,但各國對于該技術(shù)的研發(fā)均處于保密狀態(tài),難以形成自主審查機制,因此需要獨立第三方對其進行監(jiān)管控制。各國需主動向該機構(gòu)定期匯報其自主武器系統(tǒng)核心程序的研發(fā)進程與重大突破,該機構(gòu)也可對其進行臨時抽檢。
(三)自主武器系統(tǒng)挑戰(zhàn)法律應(yīng)對的思考啟示
在自主武器系統(tǒng)領(lǐng)域,我國也應(yīng)認真對待與合理應(yīng)用國際人權(quán)法和國際人道法,這不僅是一種低成本的明智選擇,而且有助于國家確立和強化其合法性,減輕其在發(fā)展進程中遇到的阻力,拓展其在國際社會的認可與支持度?,F(xiàn)有自主武器系統(tǒng)已經(jīng)配備高速傳感系統(tǒng),且可同時響應(yīng)多個輸入端的信號,對戰(zhàn)場進行全面的實時分析監(jiān)控,消除“戰(zhàn)爭迷霧”。其自主性更是不同于自動性,后者只能按照固定程序執(zhí)行重復(fù)操作與低級任務(wù),但前者可執(zhí)行更高層次的指令與任務(wù),使其可以獨立于人的操作而自主選擇目標并決定是否進行打擊。自主武器系統(tǒng)作為人工智能時代的產(chǎn)物,需保證中國在軍工行業(yè)快速發(fā)展的同時,不與“呵護人的生命、價值、尊嚴,實現(xiàn)人人享有人權(quán),是人類社會的共同追求”的價值理念相背離。在這種現(xiàn)實挑戰(zhàn)下,我國應(yīng)將國際人權(quán)法和國際人道法作為思考的出發(fā)點,繼續(xù)多維度思考應(yīng)對措施,實現(xiàn)“預(yù)防性”保障人權(quán)和消除人道災(zāi)難的目的。
一是從國際人道法出發(fā)考慮有意義的人類控制。雖然有觀點認為鼓勵自主武器系統(tǒng)的技術(shù)創(chuàng)新可以顯著降低對平民的附帶傷害,甚至對禁止自主武器系統(tǒng)的立法持反對意見,但大部分國家、學者都已就“有意義的人類控制”達成共識。“有意義的人類控制”(Meaningful Human Control)是2014年5月在日內(nèi)瓦舉辦的聯(lián)合國特定常規(guī)武器公約會議中針對自主武器系統(tǒng)所形成的新規(guī)范,可拆分為兩項要素“人類控制”與“有意義的”。首先,“人類控制”明確表明自主武器系統(tǒng)控制目標和作出擊打決定的是其操作者,其符合基本的人道主義思想;其次,“有意義的”指由人類衡量各方面因素最終作出擊打決定,可以符合國際人道法相關(guān)法規(guī)。英國學者威廉·布斯比博士肯定了預(yù)防措施的重要性,并提出可以限制軍事行動要素借以控制攻擊對象與附帶傷害。人類與自主武器系統(tǒng)的交互界面也可以為實現(xiàn)“有意義的人類控制”提供引導(dǎo),例如直接生成可采取的有意義的行動或執(zhí)行任務(wù)的實時成功率等。因此,應(yīng)明確界定“有意義的人類控制”的具體方式,并思考將“有意義的人類控制”融入相關(guān)法律,作為自主武器系統(tǒng)研制與使用中所必須遵守的法律規(guī)范。正如日內(nèi)瓦四公約共同第1條所規(guī)定的那樣,國家不僅自己要尊重國際人道法,而且要保證其他締約國尊重國際人道法。必須保留決定使用自主武器系統(tǒng)的人的責任,因為責任不能轉(zhuǎn)移給機器,且應(yīng)該在武器系統(tǒng)的整個生命周期中加以考慮。事實上,禁止不受人類控制的武器不會對技術(shù)發(fā)展產(chǎn)生反作用。相反,需要充分利用技術(shù)進步,推進人道主義保護以及維護國際和平與安全的國際法。
二是從國際人權(quán)法出發(fā)考慮創(chuàng)設(shè)依附的人權(quán)底線。早在2012年人權(quán)觀察組織就已發(fā)表報告,表示各國需采取預(yù)防措施并抵制武裝沖突過程中完全自主武器系統(tǒng)的研發(fā)與使用。因此為消除人類最終被機器滅亡的一切可能,保證生命權(quán)、尊嚴權(quán)等基本人權(quán),絕不能賦予機器人自主殺人的權(quán)力。如同適用于人的戰(zhàn)爭法則,我們要把“人類至上”作為適用于機器士兵法律的立法精神和作戰(zhàn)守則的核心要素,這也是自主武器系統(tǒng)使用中人權(quán)保障首要原則。對自主武器系統(tǒng)而言,指令模塊永不消失、永不刪改的“依附于人”的程序源代碼,可以考慮作為人類創(chuàng)設(shè)的人權(quán)底線,任何機器人不具有依附程序,都將失去存在的法律依據(jù)。此外,從武器審查的角度看,國際社會禁止使用不分皂白的武器,也禁止使用會引起過分傷害或不必要痛苦的武器。因此中國更應(yīng)在自主武器系統(tǒng)的程序設(shè)計上體現(xiàn)出人類對于其的絕對控制,為自主武器創(chuàng)設(shè)依托的人權(quán)底線,反對脫離控制的自主武器系統(tǒng)的研發(fā)與使用。
五、結(jié)語
人工智能技術(shù)的不斷成熟使得與之結(jié)合的軍事武器隨之迅猛發(fā)展,自主武器系統(tǒng)就是其代表產(chǎn)物之一,自主武器系統(tǒng)作為將人的思維判斷能力和武器的殺傷力高度整合的新型武器,對人權(quán)、人道與國際社會的和平穩(wěn)定構(gòu)成了包括但不限于侵犯性、濫殺性、殘酷性、失控性等挑戰(zhàn)。具體分析這些對人權(quán)與人道的挑戰(zhàn)印證出自主武器系統(tǒng)存在明顯的人權(quán)侵犯和人道主義風險。
2022年2月25日,習近平總書記在主持中共中央政治局第三十七次集體學習時發(fā)表重要講話,強調(diào):“呵護人的生命、價值、尊嚴,實現(xiàn)人人享有人權(quán),是人類社會的共同追求。”應(yīng)對各國競相掀起研發(fā)應(yīng)用自主武器系統(tǒng)的軍備競賽趨勢,以及人工智能技術(shù)與軍事武器結(jié)合后給現(xiàn)行國際人權(quán)法與國際人道法的相關(guān)原則與規(guī)定帶來的嚴峻挑戰(zhàn),我國需要提前研究部署,積極參與國際立法構(gòu)建、促進多邊合作,完善法律審查問責機制,并從國際人權(quán)法和國際人道法出發(fā)多維度思考應(yīng)對策略,以預(yù)防人權(quán)與人道主義侵害,促進這一涉及人類前途與命運的問題提前得到較好解決。
?。ㄍ蹴嵑?,吉林大學法學院博士研究生。)
Abstract:According to predictions,by 2050,autonomous weapon systems may potentially replace humans as the main force on the battlefield.The development of autonomous weapon systems poses risks to human rights and humanitarian concerns and raises questions about how international law should regulate new technologies.From the perspectives of international human rights law and international humanitarian law,autonomous weapon systems present serious challenges in terms of invasiveness,indiscriminate killing,cruelty,and loss of control,which impact human rights and humanitarian principles.Against the backdrop of increased attention to the protection of human rights in China,it is necessary to clarify the existing regulatory framework and fundamental stance regarding autonomous weapon systems and proactively consider and propose countermeasures to address the risks associated with such systems.This will help prevent human rights and humanitarian violations and advance the timely resolution of this issue,which affects the future and destiny of humanity,ultimately achieving the noble goal of universal enjoyment of human rights.
Keywords:Autonomous Weapon Systems;International Humanitarian Law;International Human Rights Law;Humanitarian
(責任編輯 郭 銳)