內(nèi)容提要:人工智能算法在公共服務(wù)中的運(yùn)用帶來(lái)算法歧視與不平等等問(wèn)題。有關(guān)算法的倫理與規(guī)制的討論反映到法律層面上,其實(shí)是智能算法的研發(fā)、使用與人權(quán)保障之間的關(guān)系。針對(duì)侵害人權(quán)的算法歧視與偏見(jiàn),歐美國(guó)家陸續(xù)發(fā)布了算法的倫理規(guī)制原則和規(guī)則。2018年《多倫多宣言》將算法理解為規(guī)則,以“正當(dāng)程序”原則來(lái)規(guī)制算法的研發(fā)與使用。2019年歐盟發(fā)布的算法倫理準(zhǔn)則側(cè)重算法研發(fā)的參與者因素。美國(guó)法院在判例中發(fā)布的算法規(guī)制原則強(qiáng)調(diào)算法的客觀屬性,認(rèn)為算法是受美國(guó)憲法保護(hù)的“言論自由”,將算法規(guī)制納入人權(quán)的系列權(quán)利束中進(jìn)行法律平衡。中國(guó)應(yīng)當(dāng)借鑒國(guó)外的算法規(guī)制經(jīng)驗(yàn),建立政府監(jiān)管的整體框架,平衡技術(shù)創(chuàng)新、人權(quán)保障與商業(yè)競(jìng)爭(zhēng)等多元需求。
關(guān)鍵詞:多倫多宣言 算法 人權(quán) 法律規(guī)制 實(shí)用主義
新技術(shù)的普及將改變?cè)械纳鐣?huì)結(jié)構(gòu),進(jìn)而改變?nèi)伺c人之間的法律關(guān)系。人工智能在改變?nèi)藱C(jī)關(guān)系的同時(shí),已經(jīng)對(duì)現(xiàn)有的法律體系產(chǎn)生了一定沖擊。從全球視野來(lái)看,一些國(guó)家采取保守主義路徑,試圖通過(guò)解釋新的人機(jī)現(xiàn)象,將人工智能納入傳統(tǒng)法律框架內(nèi)處理。另一些國(guó)家則采取積極立法路徑,通過(guò)新的立法與行業(yè)標(biāo)準(zhǔn)來(lái)規(guī)制算法與倫理。2018年多個(gè)國(guó)際組織在加拿大發(fā)表的《多倫多宣言》是歐洲國(guó)家立法傳統(tǒng)的表現(xiàn),與歐洲國(guó)家的大陸法系傳統(tǒng)密切相關(guān)。與此相關(guān)的,麻省理工學(xué)院與其他研究機(jī)構(gòu)共同推出的AI倫理研究①,谷歌公司設(shè)立的AI倫理委員會(huì)以及2019年發(fā)布的人機(jī)倫理原則,為私有機(jī)構(gòu)領(lǐng)域的探索奠定了先期標(biāo)準(zhǔn)。美國(guó)法院在一系列案件中涉及到言論自由與算法規(guī)制之間的關(guān)系,是普通法體系下保守主義路徑的典型表現(xiàn)。
當(dāng)前人工智能的討論對(duì)技術(shù)發(fā)展可能引發(fā)的倫理危機(jī)予以高度關(guān)注,即人工智能會(huì)否導(dǎo)致人類(lèi)社會(huì)的階層分化,沖擊原有的社會(huì)關(guān)系,甚至,人工智能成為與原子彈類(lèi)似的技術(shù)武器而對(duì)人類(lèi)的生命形成巨大威脅。這些倫理討論涉及法律上的生存權(quán)與生命權(quán),屬于人權(quán)的范疇。由此,人工智能的技術(shù)與倫理反映在法律層面,就是人工智能算法與人權(quán)的法律關(guān)系。實(shí)踐中,智能算法已經(jīng)出現(xiàn)直接侵犯人權(quán)的事例。人工智能時(shí)代的關(guān)鍵是算法,算法規(guī)制成為法律層面界定人機(jī)關(guān)系的重要載體與切入點(diǎn)。2017年,中國(guó)國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,提出“建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”。人工智能等新技術(shù)發(fā)展亟待人機(jī)之間的新法律關(guān)系的挑戰(zhàn),即算法與人權(quán)的法律關(guān)系調(diào)整。在算法規(guī)制與人權(quán)保障凸顯出來(lái)的緊張關(guān)系上,全球各國(guó)采用了何種規(guī)制路徑與法律思考模式?中國(guó)在處理算法與人權(quán)關(guān)系方面已經(jīng)或者可能形成怎樣的中國(guó)方案?這就是本文關(guān)注的問(wèn)題。
一、人工智能發(fā)展中的算法歧視
算法實(shí)際上不斷地與我們的生活融合。公共機(jī)構(gòu)與私人機(jī)構(gòu)兩種不同的算法使用主體,在其活動(dòng)中產(chǎn)生了侵害人權(quán)的算法歧視。這些歧視又以直接或間接的形式表現(xiàn)出不同的類(lèi)型。在公共機(jī)構(gòu)領(lǐng)域,智能算法與司法結(jié)合在美國(guó)就引起了侵犯人權(quán)的質(zhì)疑。自2014年開(kāi)始不斷使用的嫌疑人未來(lái)犯罪風(fēng)險(xiǎn)評(píng)估算法(defendant's risk of future crime)被第三方機(jī)構(gòu)批評(píng)為侵犯了黑人的權(quán)利,有種族方面的算法歧視。這套系統(tǒng)類(lèi)似科幻電影《少數(shù)派報(bào)告》中的設(shè)計(jì),根據(jù)犯罪嫌疑人的年齡、教育經(jīng)歷、祖輩犯罪經(jīng)歷、種族、性別等因素經(jīng)過(guò)一整套復(fù)雜的公式計(jì)算而得出未來(lái)犯罪可能性系數(shù)。這一系數(shù)得分成為法官判處刑罰的依據(jù)之一。美國(guó)的亞利桑那州、科羅拉多州、特拉華州、肯塔基州、路易斯安那州、俄克拉荷馬州、弗吉尼亞州、華盛頓州和威斯康星州等都采用了這套犯罪風(fēng)險(xiǎn)評(píng)估系統(tǒng)。犯罪風(fēng)險(xiǎn)與罪犯未來(lái)的矯正可能性密切相關(guān)。由此,美國(guó)司法部的全國(guó)矯正機(jī)構(gòu)已經(jīng)建議將犯罪風(fēng)險(xiǎn)評(píng)估體系用于司法程序的每個(gè)環(huán)節(jié)。這套系統(tǒng)也在不斷擴(kuò)大適用范圍,試圖用于聯(lián)邦犯罪評(píng)估,相關(guān)的法案已經(jīng)提交給國(guó)會(huì)裁決。犯罪風(fēng)險(xiǎn)評(píng)估系統(tǒng)使用以來(lái),第三方評(píng)估機(jī)構(gòu)以及一些保守勢(shì)力已經(jīng)做出了該系統(tǒng)可能侵犯人權(quán)的警示批評(píng)。美國(guó)聯(lián)邦司法部總檢察長(zhǎng)在2014年就批評(píng)犯罪風(fēng)險(xiǎn)評(píng)估將把歧視注入法庭之中,“盡管這些技術(shù)的研發(fā)初衷是美好的,但是它們不可避免地?fù)p害我們所珍視的司法公平”②。諾森特(Northpointe)公司負(fù)責(zé)該項(xiàng)評(píng)估系統(tǒng)的算法研發(fā)。2016年以來(lái),非營(yíng)利組織ProPublica新媒體就對(duì)該公司的算法結(jié)果進(jìn)行實(shí)證分析,顯示算法適用的案件在黑白種族方面確實(shí)存在歧視,黑人明顯比白人的評(píng)估結(jié)果更差。③
人工智能的發(fā)展凸現(xiàn)出來(lái)的倫理問(wèn)題已經(jīng)被一些私人機(jī)構(gòu)所察覺(jué)。谷歌公司與五角大樓合作的軍事項(xiàng)目“Project Maven”旨在通過(guò)人工智能來(lái)分析無(wú)人機(jī)拍攝的圖像。④該項(xiàng)目的計(jì)算機(jī)視覺(jué)算法增進(jìn)了武器的打擊對(duì)象精確度。項(xiàng)目啟動(dòng)后,超過(guò)3,000 名谷歌員工簽署公開(kāi)信反對(duì)人工智能及其算法參與戰(zhàn)爭(zhēng)。⑤這一事件也導(dǎo)致了谷歌的人工智能與倫理委員會(huì)的成立。成立該倫理委員會(huì)的本意在于處理智能算法產(chǎn)生的不同結(jié)果可能導(dǎo)致的歧視及其軍事化用途,但在委員會(huì)成員的選擇程序中,數(shù)千名谷歌員工呼吁罷免委員會(huì)成員詹姆斯,因?yàn)樗龑?duì)變性人的歧視言論以及她所在機(jī)構(gòu)對(duì)世界氣候變化的懷疑。⑥算法歧視問(wèn)題導(dǎo)致算法的倫理監(jiān)督機(jī)構(gòu)也難以符合人權(quán)保障的需求。
智能算法的困境不僅來(lái)自“獨(dú)角獸”企業(yè)的威脅,政府常常通過(guò)公私合作或者服務(wù)購(gòu)買(mǎi)的形式采用大量的算法。在福利國(guó)家的背景下,公民生活的方方面面與算法緊密連接。英國(guó)近年來(lái)應(yīng)用數(shù)字技術(shù)和數(shù)據(jù)工具以大規(guī)模地重新研發(fā)公共服務(wù)。聯(lián)合國(guó)赤貧和人權(quán)問(wèn)題特別報(bào)告員認(rèn)為,英國(guó)公共服務(wù)自動(dòng)化的問(wèn)題在于不能對(duì)公民透明,數(shù)字福利國(guó)家正在影響人權(quán),“通用信貸已經(jīng)建立了數(shù)字壁壘,有效地阻礙了許多個(gè)人獲得其應(yīng)享權(quán)利”⑦。低收入人群在數(shù)字技能和識(shí)字能力方面存在巨大差距。自動(dòng)化系統(tǒng)一旦上線,英國(guó)公共服務(wù)的算法將在階層方面產(chǎn)生歧視。算法不透明成為當(dāng)前人工智能技術(shù)運(yùn)用于政府服務(wù)的重要疑慮。在政治與行政領(lǐng)域,政府甚至可以通過(guò)技術(shù)操作他們的政治偏好,從而造成不民主的結(jié)果。替代人工判斷是人工智能的目標(biāo),算法接管了政府的諸多行政決策。
人工智能在提升效率的同時(shí),也逐步替代了人類(lèi)在復(fù)雜事務(wù)中的判斷職能。在行政法治國(guó)的背景下,智能算法實(shí)質(zhì)上成為法律體系的一部分。算法的治理化意味著人權(quán)、民主、民生等法律價(jià)值同樣成為算法規(guī)制的重要原則。由此,近年來(lái),多個(gè)國(guó)家、機(jī)構(gòu)與區(qū)域組織開(kāi)展了人權(quán)規(guī)制與算法規(guī)制的課題。其中,2018年5月,人權(quán)組織和技術(shù)團(tuán)體聯(lián)盟在加拿大發(fā)布新的智能算法規(guī)制的新標(biāo)準(zhǔn)。該聯(lián)盟發(fā)表的《多倫多宣言》(全稱是《關(guān)于保護(hù)機(jī)器學(xué)習(xí)系統(tǒng)中的平等和不歧視權(quán)利的多倫多宣言》)代表了人權(quán)與算法規(guī)制的主流路徑。⑧
二、《多倫多宣言》的法律邏輯
早在《多倫多宣言》之前,互聯(lián)網(wǎng)巨頭公司就已經(jīng)開(kāi)始關(guān)注算法與人權(quán)的關(guān)系。特別是隨著人工智能技術(shù)的飛速發(fā)展,諸多算法與歧視、隱私權(quán)與大數(shù)據(jù)等人權(quán)困境凸顯出來(lái)。2018年6月,谷歌公司曾提出七條人工智能應(yīng)用的“道德原則”,確保技術(shù)在正確的軌道上進(jìn)步。這些原則包括:對(duì)社會(huì)有益、避免制造或強(qiáng)加不公平的偏見(jiàn)、發(fā)展和利用 AI 技術(shù)時(shí)注重隱私等。⑨針對(duì)人工智能技術(shù)擴(kuò)大貧富差距、武器化、技術(shù)濫用等問(wèn)題,微軟公司也出臺(tái)了相應(yīng)的倫理原則。⑩《多倫多宣言》強(qiáng)調(diào)了防止人工智能算法與機(jī)器學(xué)習(xí)中出現(xiàn)的歧視,強(qiáng)調(diào)算法可能違反現(xiàn)行人權(quán)法。“我們必須把重點(diǎn)放在這些技術(shù)如何影響個(gè)人和人權(quán)上。在機(jī)器學(xué)習(xí)系統(tǒng)的世界里,誰(shuí)會(huì)承擔(dān)損害人權(quán)的責(zé)任?” ?該宣言雖然不具有法律約束力,但卻為處理這些問(wèn)題的政府和科技公司提供了一個(gè)新的指導(dǎo)。
(一)算法研發(fā)的正當(dāng)程序
《多倫多宣言》的主旨在于將國(guó)際人權(quán)理念及規(guī)范沿用至人工智能與機(jī)器算法領(lǐng)域。在人工智能的實(shí)踐過(guò)程中,智能算法可能會(huì)“犯錯(cuò)誤”。比如,谷歌照片的圖像識(shí)別功能曾將黑人錯(cuò)誤識(shí)別。從結(jié)果上看,這些算法所呈現(xiàn)的效果確實(shí)對(duì)人權(quán)產(chǎn)生了影響,甚至構(gòu)成法律意義上的客觀行為。但是,在主觀要件上,政府和普通消費(fèi)者很難察覺(jué)機(jī)器算法的主觀故意。這也正是算法與人權(quán)之間最為復(fù)雜的關(guān)系。許多算法以技術(shù)中立的表現(xiàn)形式進(jìn)行特殊形式與隱藏歧視,規(guī)避人權(quán)的審查。
通常,人權(quán)的法律審查主要集中在法律行為的主觀要件。隱藏或間接的算法以技術(shù)化的特征表現(xiàn)為“技術(shù)中立性”,難以在當(dāng)前人權(quán)法律框架內(nèi)得以審查。該宣言認(rèn)為,算法結(jié)果上呈現(xiàn)的偏見(jiàn)其實(shí)是由算法的研發(fā)與使用過(guò)程中的人為因素導(dǎo)致的。由此,該宣言的主要規(guī)制思路就在于將算法視為一種特殊形式的“立法”,算法規(guī)制的重點(diǎn)在于以“正當(dāng)程序”來(lái)審查研發(fā)與使用。一旦規(guī)制的視角聚焦在算法的程序控制,人權(quán)標(biāo)準(zhǔn)的審查就可以通過(guò)追溯延伸至算法形成過(guò)程的各個(gè)環(huán)節(jié)。機(jī)器算法的形成過(guò)程包括了架構(gòu)研發(fā)、工程代碼、機(jī)器學(xué)習(xí)與算法使用等關(guān)鍵步驟。算法研發(fā)的正當(dāng)程序原則即是國(guó)際人權(quán)理念中的多樣性原則。在多樣性原則的指引下,首先,架構(gòu)研發(fā)與測(cè)試環(huán)節(jié)應(yīng)當(dāng)保障受到影響的群體和專家納入研發(fā)、測(cè)試與評(píng)估階段。其次,工程代碼常常以技術(shù)中立的形式表現(xiàn)出來(lái),但是在代碼測(cè)試環(huán)節(jié),不同人員的測(cè)試常常導(dǎo)致算法的隱蔽歧視得以呈現(xiàn)。由此,測(cè)試人員的多樣性也是算法偏見(jiàn)得以形成的主因。最后,人工智能的發(fā)展使得算法擁有了機(jī)器學(xué)習(xí)的能力,“喂給”數(shù)據(jù)是關(guān)鍵。機(jī)器學(xué)習(xí)本身是技術(shù)進(jìn)步與工作效率提升的表現(xiàn),但是機(jī)器學(xué)習(xí)需要人們給予大量標(biāo)識(shí)好的數(shù)據(jù)與材料。這些被“喂給”人工智能學(xué)習(xí)的數(shù)據(jù)如何標(biāo)識(shí)以及由誰(shuí)來(lái)標(biāo)識(shí)也常常成為算法偏見(jiàn)的主要來(lái)源之一。由此,多樣性原則也要求“喂給”數(shù)據(jù)的多樣性。?
(二)算法使用的政府監(jiān)管
算法偏見(jiàn)起源于算法的“立法過(guò)程”。這一視角成為《多倫多宣言》對(duì)算法歧視進(jìn)行事前監(jiān)管與事后救濟(jì)的主要理論基礎(chǔ)。如果以過(guò)程作為控制的主要方式,那么,過(guò)程監(jiān)管最為合適的機(jī)構(gòu)就是政府。根據(jù)算法使用主體的不同,該宣言區(qū)了分政府機(jī)構(gòu)的機(jī)器算法使用與私人機(jī)構(gòu)的機(jī)器算法使用兩種不同的監(jiān)管責(zé)任強(qiáng)度。
對(duì)于使用算法的政府而言,《多倫多宣言》要求政府承擔(dān)起強(qiáng)制監(jiān)管的職能,即一種最高強(qiáng)度的責(zé)任。具體而言,包括:第一,政府應(yīng)當(dāng)積極采取多樣化的雇用行為,參與協(xié)商以確保多樣化的觀點(diǎn)能夠進(jìn)入研發(fā)、執(zhí)行和評(píng)估階段,以表達(dá)廣泛的個(gè)體意見(jiàn)。算法偏見(jiàn)的事前監(jiān)管在于保障整個(gè)算法形成過(guò)程的多樣化。這并非指的是算法技術(shù)的多樣化,而是參與算法研發(fā)與使用的人的多樣化。但該宣言并沒(méi)有詳細(xì)表述多樣化體現(xiàn)在膚色、種族還是語(yǔ)言、性別等要素上。第二,確保公共機(jī)構(gòu)在人權(quán)方面得以訓(xùn)練,監(jiān)督采購(gòu)、發(fā)展和使用評(píng)估機(jī)器學(xué)習(xí)工具的官員。政府機(jī)構(gòu)人員代表了國(guó)家,在使用智能機(jī)器時(shí)應(yīng)當(dāng)保持主觀中立。第三,為政府的一系列機(jī)器學(xué)習(xí)相關(guān)的行政行為建立相應(yīng)的評(píng)估機(jī)制,接受公眾的監(jiān)督。監(jiān)督方式可以是獨(dú)立評(píng)估、公眾監(jiān)督或司法監(jiān)督。第四,確保機(jī)器算法支持的決定符合國(guó)際人權(quán)規(guī)范認(rèn)可的正當(dāng)程序。機(jī)器算法參與的政府決策也應(yīng)當(dāng)符合當(dāng)前法律體系下的正當(dāng)程序標(biāo)準(zhǔn),如調(diào)研、聽(tīng)證與民主決策等政府規(guī)章,從而保障算法決策的合法性。
此外,政府常常依賴私人供應(yīng)商來(lái)研發(fā)和使用智能算法技術(shù)。例如,當(dāng)前許多隨著物聯(lián)網(wǎng)、5G、AI技術(shù)的發(fā)展,人、物、信息等資源逐步轉(zhuǎn)變?yōu)榭晒﹨R集與分發(fā)的數(shù)據(jù)。由此,未來(lái)城市注定是一座提供超級(jí)算法的“數(shù)字之城”,一座可以精細(xì)化運(yùn)營(yíng)的數(shù)字城市。“城市大腦”構(gòu)建的一系列數(shù)字城市基礎(chǔ)設(shè)施,可以在網(wǎng)絡(luò)上構(gòu)建一座與現(xiàn)實(shí)相映射的“孿生城市”。交通數(shù)據(jù)、食品供應(yīng)鏈管理、醫(yī)療藥品追蹤體系都成為物聯(lián)數(shù)字。如IBM公司在智慧城市戰(zhàn)略初期通過(guò)智能井蓋來(lái)獲取城市下水道的水位情況,實(shí)時(shí)監(jiān)控地下城市管網(wǎng)。在地面上,龐雜的交通系統(tǒng)是城市居民每日必然產(chǎn)生的行為數(shù)據(jù),也是眾多智能城市建設(shè)的切入口。最終,智慧城市系統(tǒng)包括水、交通、河流等12個(gè)系統(tǒng)。?對(duì)此,政府應(yīng)當(dāng)承擔(dān)中等強(qiáng)度的監(jiān)管責(zé)任,即要求第三方研發(fā)機(jī)構(gòu)能夠執(zhí)行人權(quán)規(guī)范的正當(dāng)責(zé)任以識(shí)別、阻止和減少算法歧視?!抖鄠惗嘈浴吩O(shè)置了政府監(jiān)管私人機(jī)構(gòu)以減少算法歧視的四個(gè)步驟:第一,識(shí)別風(fēng)險(xiǎn)。政府采購(gòu)的智能機(jī)器應(yīng)當(dāng)特別注意其中的算法模型研發(fā)、監(jiān)管機(jī)制、數(shù)據(jù)處理。第二,使用評(píng)估。政府在使用這些算法系統(tǒng)時(shí)應(yīng)當(dāng)通過(guò)影響評(píng)估采取一些措施來(lái)減少人權(quán)損害,如在數(shù)據(jù)和系統(tǒng)中減少被忽視的歧視,運(yùn)行動(dòng)態(tài)的測(cè)試模型,保障可能受到影響的群體和專家納入研發(fā)、測(cè)試與評(píng)估階段。政府還應(yīng)當(dāng)委托第三方獨(dú)立機(jī)構(gòu)進(jìn)行人權(quán)標(biāo)準(zhǔn)測(cè)評(píng)。第三,測(cè)試審計(jì)。與其他政府項(xiàng)目一樣,政府應(yīng)當(dāng)使系統(tǒng)處于常規(guī)和動(dòng)態(tài)的測(cè)試與審計(jì)中,形成一個(gè)偏見(jiàn)發(fā)現(xiàn)與自我修復(fù)的反饋循環(huán)。第四,公開(kāi)透明。根據(jù)政府信息公開(kāi)原則,政府應(yīng)當(dāng)主動(dòng)公開(kāi)智能機(jī)器的相關(guān)歧視風(fēng)險(xiǎn)。
對(duì)于私人機(jī)構(gòu)的算法歧視行為,政府應(yīng)當(dāng)通過(guò)立法建立民事領(lǐng)域的基本框架,確保算法研發(fā)前期的盡職調(diào)查的弱監(jiān)管責(zé)任,即私人機(jī)構(gòu)應(yīng)當(dāng)主動(dòng)或委托第三方對(duì)公共服務(wù)外包的智能機(jī)器進(jìn)行算法的人權(quán)評(píng)估,以確保在公共領(lǐng)域?qū)嵤r(shí)不會(huì)出現(xiàn)算法偏見(jiàn)。私人領(lǐng)域有責(zé)任開(kāi)展人權(quán)的盡職調(diào)查(due diligence)。盡職調(diào)查的目的包括三個(gè)方面。首先,識(shí)別潛在的歧視結(jié)果。政府在對(duì)私人部門(mén)進(jìn)行算法調(diào)查時(shí)不僅要識(shí)別直接的歧視,還要對(duì)一些間接歧視予以警惕,如在表面上技術(shù)中立,但結(jié)果導(dǎo)致歧視的情況。一些隱形歧視風(fēng)險(xiǎn)通常與機(jī)器學(xué)習(xí)的數(shù)據(jù)庫(kù)有關(guān),如非典型的、不完善的數(shù)據(jù)基礎(chǔ)上的訓(xùn)練系統(tǒng),或者代表歷史性的或系統(tǒng)性偏見(jiàn)的數(shù)據(jù)集庫(kù)。私人機(jī)構(gòu)應(yīng)當(dāng)就合適的數(shù)據(jù)庫(kù)咨詢相關(guān)人權(quán)專家。其次,政府應(yīng)當(dāng)采取有效的方式阻止和減少歧視,并追蹤私人機(jī)構(gòu)的責(zé)任。由于《多倫多宣言》采用了過(guò)程控制理論,算法偏見(jiàn)具有了可追溯性。其中最關(guān)鍵的是迅速有效地對(duì)出現(xiàn)的歧視現(xiàn)象進(jìn)行反饋應(yīng)對(duì),使得危險(xiǎn)不至于惡化。最后,上述行為應(yīng)當(dāng)開(kāi)放透明。算法歧視頗為隱蔽,普通公民的認(rèn)知成本極高,這就需要政府建立起主動(dòng)公開(kāi)的機(jī)制。政府應(yīng)當(dāng)公開(kāi)風(fēng)險(xiǎn)信息和公示已經(jīng)辨識(shí)到的具體歧視案例。在有歧視風(fēng)險(xiǎn)的地方,公布技術(shù)細(xì)節(jié),包括算法的功能,訓(xùn)練數(shù)據(jù)以及數(shù)據(jù)來(lái)源等細(xì)節(jié)。這一原則與商業(yè)秘密之間需要進(jìn)行價(jià)值權(quán)衡,公開(kāi)的程度的保密的尺度需要政府根據(jù)不同的算法歧視情況與人權(quán)救濟(jì)緊迫度進(jìn)行區(qū)別。?
(三)事后的救濟(jì)體系
除了事前的政府監(jiān)管,在算法侵害人權(quán)的結(jié)果發(fā)生時(shí),政府也應(yīng)當(dāng)提供完整的救濟(jì)途徑。個(gè)人救濟(jì)主要著重三類(lèi)法律指標(biāo):透明度、問(wèn)責(zé)性及有效性。
透明度既是事前監(jiān)管算法偏見(jiàn)的重要方式,也是為降低普通公民事后救濟(jì)的成本、減少訴訟過(guò)程中的舉證責(zé)任的有效方式。此外,透明度原則還要求機(jī)器的使用具有可解釋性與易懂性,由此,受到影響的個(gè)體和群體能夠有效地察覺(jué)或追溯。對(duì)此,政府應(yīng)當(dāng)公開(kāi)在哪些公共服務(wù)領(lǐng)域使用了智能算法,清楚地告知算法決策的過(guò)程是如何完成的,記錄相關(guān)的識(shí)別行為以及相關(guān)的歧視或人權(quán)影響。同時(shí),政府應(yīng)當(dāng)避免使用“黑箱”數(shù)據(jù),以符合透明度與問(wèn)責(zé)性要求。問(wèn)責(zé)性指的是算法偏見(jiàn)能夠具有追溯性,向算法研發(fā)與使用過(guò)程中的各類(lèi)參與人員進(jìn)行追責(zé),如模型設(shè)計(jì)人員、機(jī)器學(xué)習(xí)數(shù)據(jù)樣本的選擇等等。
救濟(jì)的有效性要求較高,一些模糊和隱蔽的算法偏見(jiàn)常常無(wú)法引起普通公民的注意。受害人不曉得相關(guān)決策或者程序是否有侵害其人權(quán)。有時(shí),復(fù)雜的算法使得公共機(jī)構(gòu)或私人機(jī)構(gòu)自身都難以解釋其決策制定過(guò)程。司法領(lǐng)域的智能算法容易導(dǎo)致不公平的審判和訴訟權(quán)利。例如,上文提及的美國(guó)采用犯罪風(fēng)險(xiǎn)評(píng)估系統(tǒng)的算法歧視,就隱含著種族與階層歧視。這就要求政府應(yīng)當(dāng)首先明確在使用機(jī)器算法做出決策時(shí),哪些主體具有法律上的責(zé)任,并對(duì)算法可能造成的歧視負(fù)責(zé)。在救濟(jì)方式上,政府應(yīng)當(dāng)給予受害者以高效的救濟(jì),包括修復(fù)、道歉、賠償、處罰、保障不再重復(fù)。?
《多倫多宣言》將算法理解為治理規(guī)則,從“立法過(guò)程”的角度進(jìn)行“正當(dāng)程序”規(guī)范。例如,對(duì)第三方私權(quán)利規(guī)范以“盡職調(diào)查”的法律責(zé)任,對(duì)“立法主體”以及“委托立法”的算法研發(fā)部門(mén)施加以強(qiáng)弱不同的法律職責(zé),要求在算法的研發(fā)過(guò)程中充分體現(xiàn)國(guó)際人權(quán)法的“多樣性”價(jià)值。這些人權(quán)視野的算法規(guī)制具有鮮明的歐洲大陸法系的成文法特點(diǎn)。
三、歐美國(guó)家對(duì)算法的人權(quán)規(guī)制路徑
歐盟在近年來(lái)日益介入到新興網(wǎng)絡(luò)市場(chǎng)與人工智能的法律規(guī)制中。如針對(duì)谷歌公司的反壟斷展開(kāi)市場(chǎng)調(diào)查,開(kāi)創(chuàng)性地創(chuàng)造“被遺忘權(quán)”,豐富了新時(shí)代的人權(quán)內(nèi)涵,這是歐盟規(guī)制理念的表現(xiàn)。在智能算法與人權(quán)的關(guān)系處理上,歐盟在《多倫多宣言》中的算法即規(guī)則的基礎(chǔ)上更進(jìn)一步認(rèn)識(shí)私人機(jī)構(gòu)中的算法本質(zhì),認(rèn)為算法更像眾多私人參與合作的、類(lèi)似著作權(quán)法上的“匯編作品”或“合作作品”。作為匯編作品,算法的研發(fā)融合了大量的用戶數(shù)據(jù),用以培訓(xùn)智能算法的成長(zhǎng),這些數(shù)據(jù)庫(kù)的建立更多的是匯編行為。作為合作作品,算法研發(fā)是眾多編程人員、測(cè)試人員乃至用戶共同合作而產(chǎn)生的作品?;谶@些全新的理解,算法并不能只是私人機(jī)構(gòu)的私有產(chǎn)權(quán),而是包括提供數(shù)據(jù)的用戶、提供市場(chǎng)的政府的共有產(chǎn)權(quán)。由此,歐盟的智能算法的人權(quán)規(guī)制呈現(xiàn)出更為細(xì)致的面貌。
(一)歐盟對(duì)算法的“作品”定位與規(guī)制
2019年4月8日,歐盟委員會(huì)發(fā)布人工智能道德準(zhǔn)則“Ethics Guidelines for Trustworthy AI”(即《可信賴AI的道德準(zhǔn)則》,以下簡(jiǎn)稱為歐盟AI道德準(zhǔn)則)。歐盟AI通過(guò)準(zhǔn)則調(diào)整人工智能與人之間的關(guān)系,其范圍不僅包括法律上算法與人權(quán)的關(guān)系,而且包括技術(shù)風(fēng)險(xiǎn)、社會(huì)公益、環(huán)境保護(hù)等更多的道德議題。該準(zhǔn)則由歐洲人工智能高級(jí)別專家組(High-Level Expert Group on Artificial Intelligence,AI HLEG)起草。專家組由代表學(xué)術(shù)界、工業(yè)界和民間社會(huì)的獨(dú)立專家組成,從2018年4月開(kāi)始專門(mén)負(fù)責(zé)撰寫(xiě)人工智能道德準(zhǔn)則。歐盟數(shù)字經(jīng)濟(jì)與社會(huì)(Digital Economy and Society)專員認(rèn)為:“今天,我們?yōu)樵跉W盟實(shí)現(xiàn)安全和道德的人工智能,邁出了重要一步。基于歐盟的價(jià)值觀,在企業(yè)、學(xué)術(shù)界和公民社會(huì)的眾多利益相關(guān)方的廣泛和建設(shè)性參與下,我們打下了堅(jiān)實(shí)的基礎(chǔ)。” ?創(chuàng)制歐盟AI道德準(zhǔn)則是融合歐盟各界人士與產(chǎn)業(yè)新興力量的一次嘗試。
與《多倫多宣言》相比,歐盟的規(guī)制思路是從可告知、可選擇的角度來(lái)控制人工智能所造成的倫理困境。它同樣注重算法背后的參與人的因素,歐盟AI道德準(zhǔn)則與《多倫多宣言》一樣試圖將參與人的多樣性作為人權(quán)規(guī)制的重點(diǎn)。但算法的過(guò)程被理解為多元的創(chuàng)作過(guò)程。歐盟AI道德準(zhǔn)則認(rèn)為人工智能系統(tǒng)的研發(fā)應(yīng)該以增強(qiáng)、補(bǔ)充人類(lèi)的認(rèn)知、社會(huì)和文化技能為目的。即人工智能作為一件具有智慧投入的工具作品,用以增強(qiáng)人類(lèi)對(duì)世界的認(rèn)知。
總體來(lái)看,歐盟提出四項(xiàng)道德準(zhǔn)則,即尊重人自主性、預(yù)防傷害、公平性和可解釋性,以及實(shí)現(xiàn)可信賴AI的七個(gè)關(guān)鍵要素,即人的能動(dòng)性和監(jiān)督,技術(shù)魯棒性和安全性,隱私和數(shù)據(jù)管理,透明性,多樣性、非歧視性和公平性,社會(huì)和環(huán)境福祉,問(wèn)責(zé)性。其中一些原則如問(wèn)責(zé)性、透明性、多樣性等,已經(jīng)在《多倫多宣言》中有所表達(dá)。在有關(guān)算法與人權(quán)的法律關(guān)系問(wèn)題上,道德準(zhǔn)則提出兩項(xiàng)重要的法律措施以避免算法歧視:一是進(jìn)一步強(qiáng)調(diào)和細(xì)化算法可解釋性;二是數(shù)據(jù)清洗與完整性。
猶如合作作品,多方合作者,特別是用戶,對(duì)于算法的使用具有知情與認(rèn)知的能力與權(quán)利,這就要求算法具備可解釋性,從而保障算法的開(kāi)放與透明。歐盟AI道德準(zhǔn)則認(rèn)為可解釋性對(duì)構(gòu)建用戶對(duì)人工智能系統(tǒng)的信任是非常關(guān)鍵的,也就是說(shuō),整個(gè)決策的過(guò)程、輸入和輸出的關(guān)系都應(yīng)該是可解釋的。但目前的智能算法和模型都是以“黑箱”的形式運(yùn)行的。因而應(yīng)當(dāng)明確的是,第一,應(yīng)確保人工智能系統(tǒng)相關(guān)元素的可追溯性,包括數(shù)據(jù)、系統(tǒng)和商業(yè)模型。第二,人工智能系統(tǒng)產(chǎn)生決策使用的數(shù)據(jù)集和過(guò)程都應(yīng)該記錄下來(lái)以備追溯,并且應(yīng)該增加透明性,具體包括收集的數(shù)據(jù)和算法使用的數(shù)據(jù)標(biāo)記??勺匪菪园蓪徲?jì)性和可解釋性。第三,可解釋性就是要解釋人工智能系統(tǒng)的技術(shù)過(guò)程和相關(guān)的決策過(guò)程。技術(shù)可解釋性要求智能算法做出的決策是可以被人們所理解和追溯。在人工智能系統(tǒng)會(huì)對(duì)人類(lèi)的生命造成重大影響時(shí),就需要人工智能系統(tǒng)的決策過(guò)程有一個(gè)合理的解釋。第四,人類(lèi)有權(quán)知道與其通信的是人類(lèi)還是人工智能系統(tǒng),這就要求人工智能系統(tǒng)是可被識(shí)別的。
猶如匯編作品一般,數(shù)據(jù)在算法的形成過(guò)程中至關(guān)重要,是算法結(jié)果可能產(chǎn)生人權(quán)歧視與偏見(jiàn)的重要環(huán)節(jié)。歐盟AI道德準(zhǔn)則強(qiáng)調(diào)數(shù)據(jù)質(zhì)量和完整性。數(shù)據(jù)集的質(zhì)量對(duì)人工智能系統(tǒng)的性能非常關(guān)鍵。收集的數(shù)據(jù)可能是含有偏見(jiàn)的、不準(zhǔn)確的、有錯(cuò)誤的。這些數(shù)據(jù)在用于訓(xùn)練之前要進(jìn)行清洗,去除這些有偏見(jiàn)的、不準(zhǔn)確的、有錯(cuò)誤的數(shù)據(jù);同時(shí),還要確保數(shù)據(jù)的完整性。如果給人工智能系統(tǒng)的數(shù)據(jù)是惡意的就可能會(huì)改變系統(tǒng)的行為。在規(guī)劃、訓(xùn)練、測(cè)試和實(shí)現(xiàn)的整個(gè)過(guò)程中都要對(duì)數(shù)據(jù)集進(jìn)行測(cè)試和處理。換言之,在使用數(shù)據(jù)來(lái)訓(xùn)練算法時(shí),必須要由人工來(lái)參與數(shù)據(jù)清洗工作,清洗標(biāo)準(zhǔn)即是人權(quán)標(biāo)準(zhǔn),去除數(shù)據(jù)本身可能附帶的人權(quán)歧視標(biāo)識(shí)與歷史。?
當(dāng)然,歐盟AI道德準(zhǔn)則并非是在著作權(quán)法的意義上將算法定義為“作品”,不過(guò),其采取的法律邏輯類(lèi)似于著作權(quán)法中的作品概念。以作品為媒介來(lái)處理算法與人權(quán)的關(guān)系,這就變?yōu)樽髌返膮⑴c作者與其他人之間的權(quán)利關(guān)系。為了讓作品在公共領(lǐng)域不侵犯他人人權(quán),參與者的多樣性是一方面,更為重要的是,理解為作者一部分的用戶以及參與作品形成的數(shù)據(jù)的重要性。作為算法形成的重要數(shù)據(jù),同樣是用戶的一部分,是用戶各類(lèi)行為,或者說(shuō),各項(xiàng)社會(huì)關(guān)系與法律權(quán)利的集合的抽象表現(xiàn)。由此,相比《多倫多宣言》強(qiáng)調(diào)的創(chuàng)作過(guò)程,歐盟AI道德準(zhǔn)則更加關(guān)注算法的應(yīng)用對(duì)象的權(quán)利,即人權(quán)保護(hù)的主體——用戶。所以,作品的開(kāi)放性、可解釋性、可追溯性、數(shù)據(jù)完整性等成為了算法作品得以符合人權(quán)標(biāo)準(zhǔn)的基本法律要求。
(二)美國(guó)對(duì)算法的“言論”定位及規(guī)制
《多倫多宣言》與歐盟AI道德準(zhǔn)則將人的責(zé)任代入算法的人權(quán)規(guī)制中。但是,現(xiàn)實(shí)發(fā)生的算法規(guī)制不可能對(duì)偏見(jiàn)與歧視面面俱到。人們看到,強(qiáng)人工智能的發(fā)展可能會(huì)出現(xiàn)更多隱蔽與間接的人權(quán)歧視。以谷歌公司為典型標(biāo)準(zhǔn)的美國(guó)公司對(duì)算法,直接控制軟件開(kāi)發(fā)工具包,出臺(tái)了更嚴(yán)格的許可條例。谷歌公司的思路是通過(guò)控制開(kāi)發(fā)工具包與許可證來(lái)監(jiān)管算法的開(kāi)發(fā)。在當(dāng)前的人工智能發(fā)展與人權(quán)保障價(jià)值之間需要追求一個(gè)平衡點(diǎn)。比如,其開(kāi)源的 AI 軟件庫(kù)——TensorFlow,如谷歌公司認(rèn)為使用者沒(méi)有“正當(dāng)”使用自己的研究成果,谷歌將收回使用許可。這一算法規(guī)制的邏輯還是將算法作為一件作品予以許可使用與監(jiān)管,可以看做是歐盟邏輯的延續(xù)。但是,在美國(guó)國(guó)內(nèi),谷歌等科技公司早已通過(guò)美國(guó)憲法中的“言論自由”來(lái)抵制算法的政府規(guī)制,認(rèn)為政府對(duì)算法的規(guī)制是對(duì)言論自由的侵害。算法規(guī)制的初衷是保障人權(quán)免受不透明的“黑箱”算法的偏見(jiàn)與歧視的侵害,但是,美國(guó)的算法規(guī)制邏輯將其顛倒為作為人權(quán)之一的言論自由則保護(hù)了大企業(yè)的算法免受規(guī)制。
算法作為一種言論而被賦予權(quán)利的法律邏輯是在美國(guó)法院的一系列案件中得以完成的。?2003年的搜索王訴谷歌案中,谷歌主張其網(wǎng)頁(yè)排名作為搜索引擎的核心算法受到法律保護(hù)。法院判決搜索引擎的算法即是對(duì)檢索人的回答,檢索行為正是谷歌與顧客之間的問(wèn)答。?換言之,算法就是搜索引擎對(duì)各類(lèi)網(wǎng)站的一種“說(shuō)法”或看法,即意見(jiàn)。美國(guó)憲法第一修正案正是保障這類(lèi)“言論”的自由。此后,該法律邏輯進(jìn)一步拓展,認(rèn)為網(wǎng)站或者搜索的算法本質(zhì)是對(duì)網(wǎng)絡(luò)信息資源的收集、編輯與整理,如同報(bào)紙的編輯加工,體現(xiàn)了編輯者的看法與判斷,是受到保護(hù)的言論。?
由此來(lái)看,算法是什么的元問(wèn)題決定了算法與人權(quán)之間的關(guān)系。美國(guó)的算法規(guī)制側(cè)重理解算法的人的元素與特征。作為替代人類(lèi)進(jìn)行判斷的算法,美國(guó)法院一度將其理解為人及其言論,乃至賦予其人權(quán)的標(biāo)識(shí),如言論自由。由此,美國(guó)算法的規(guī)制常常是人權(quán)權(quán)利束中各類(lèi)權(quán)利之間的價(jià)值沖突與平衡。這類(lèi)算法理解常常運(yùn)用于強(qiáng)人工智能之上。算法與人權(quán)之間的關(guān)系處理甚至需要回答人工智能是否是人這樣的哲學(xué)元命題。與此相比,歐盟同樣側(cè)重于算法的人的元素,但是更多地關(guān)注算法背后的人以及算法所蘊(yùn)含的人工成分。這就體現(xiàn)為《多倫多宣言》中算法形成過(guò)程的參與人,或是歐盟AI道德準(zhǔn)則中形成算法的各類(lèi)人工或人工智慧。由此,算法或是眾人合意形成的規(guī)則,或是眾人參與研發(fā)、編碼、測(cè)試形成的智慧作品。規(guī)則的算法理解多以政府使用算法或者政府委托私權(quán)利機(jī)構(gòu)研發(fā)算法為情形,而作品的算法理解多以私權(quán)利機(jī)構(gòu)的算法使用為情形。
坦誠(chéng)而言,算法的復(fù)雜性意味著它必然含有人的元素以及人工的勞動(dòng)成果,它既具有人的主觀性,也具有客觀的工具性?!抖鄠惗嘈浴?、歐盟AI道德規(guī)則、美國(guó)判例等為我們展現(xiàn)了算法性質(zhì)與人權(quán)規(guī)制的譜系。在強(qiáng)人工智能時(shí)代不斷逼近的當(dāng)下,我們到底是采取更為主觀的態(tài)度,將算法等同于人,從而納入整體的人權(quán)范疇,還是采取更為客觀的態(tài)度,將算法作為客體與人權(quán)進(jìn)行效率與權(quán)利的平衡?抑或是有更為實(shí)用主義的第三條路徑?
四、實(shí)用主義路徑下的中國(guó)算法規(guī)制體系
有關(guān)算法性質(zhì)的元問(wèn)題爭(zhēng)論在中國(guó)還未完全展開(kāi),但已經(jīng)有相關(guān)輿論和少數(shù)文獻(xiàn)開(kāi)始討論算法與人權(quán)的關(guān)系。隨著用戶接觸新聞的內(nèi)容根據(jù)算法來(lái)推送,一些輿論提出新聞不能被算法“綁架”。在早期搜索引擎普及時(shí),搜索呈現(xiàn)的內(nèi)容已經(jīng)被人們質(zhì)疑其背后的非客觀性。換言之,人們逐步被包裹在一個(gè)由機(jī)器算法所呈現(xiàn)的世界中。在智能設(shè)備日益普及的今天,算法及其信息推送更是逐步從新聞內(nèi)容拓展到了全部的消費(fèi)新聞。算法與用戶信息隱私權(quán)的問(wèn)題在中國(guó)成為現(xiàn)實(shí)亟待處理的問(wèn)題。
算法呈現(xiàn)出來(lái)的偏見(jiàn)與歧視還未進(jìn)入中國(guó)輿論的中心,但是網(wǎng)絡(luò)的互聯(lián)互通性必然會(huì)將這些法律邏輯輸入到中國(guó)。中國(guó)的互聯(lián)網(wǎng)與人工智能產(chǎn)業(yè)向全球發(fā)展不僅需要應(yīng)對(duì)美國(guó)與歐洲這些地區(qū)的算法監(jiān)管邏輯,也需要建立一套屬于中國(guó)自己的普適性倫理規(guī)則,以掌握新興秩序的話語(yǔ)權(quán)與標(biāo)準(zhǔn)制定權(quán)。此外,在實(shí)踐中,中國(guó)目前的法律體系,特別是涉及社保、健康、福利分配、就業(yè)、教育等有關(guān)人權(quán)的法律體系中,仰仗算法的人工智能與機(jī)器學(xué)習(xí)已經(jīng)逐步開(kāi)始實(shí)踐。例如,一些地方政府的智慧城市建設(shè)已經(jīng)將交通管制權(quán)交由算法來(lái)判斷。阿里云于2016年啟動(dòng)的“城市大腦”通過(guò)接管杭州1,300個(gè)路口的信號(hào)燈,4,500路的視頻,將杭州城市里散落在交通管理、公共服務(wù)等領(lǐng)域的百億級(jí)的數(shù)據(jù)匯聚起來(lái),搭建完整的城市交通動(dòng)態(tài)網(wǎng),實(shí)現(xiàn)“城市的方方面面都跟大腦有關(guān)系”。支付寶業(yè)務(wù)的普及也使得“城市大腦”能夠及時(shí)調(diào)整消費(fèi)產(chǎn)品的供應(yīng)鏈,更好地服務(wù)當(dāng)?shù)鼐用?。網(wǎng)絡(luò)購(gòu)物已經(jīng)逐步將客服變?yōu)槿斯ぶ悄軄?lái)應(yīng)對(duì)客戶的售后需求,改變了傳統(tǒng)《消費(fèi)者權(quán)益保障法》的適用情形。阿里健康等企業(yè)已經(jīng)開(kāi)始就健康醫(yī)療等居民生活建立新的算法模型。在教育培訓(xùn)領(lǐng)域,特別是在線教育,更多的智能算法使用其中。
由此,中國(guó)人工智能產(chǎn)業(yè)的發(fā)展必然需要處理與建立算法與人權(quán)的倫理規(guī)則體系。在算法規(guī)制的譜系中,中國(guó)應(yīng)當(dāng)首先摒棄美國(guó)式的言論自由保護(hù)的極端情形。美國(guó)的大量公共資源聚焦在算法規(guī)制前的言論自由標(biāo)準(zhǔn)審查中,導(dǎo)致后續(xù)的算法規(guī)制的具體規(guī)則發(fā)展滯后,甚至處于無(wú)管制的“自然狀態(tài)”。缺乏政府監(jiān)管的后果就是卡普蘭所說(shuō)的“高科技封建割據(jù)”(high-tech feudalism),一些大資本、大企業(yè)形成市場(chǎng)壟斷,獨(dú)占用戶數(shù)據(jù),算法一家獨(dú)大。在這種情況下,企業(yè)算法與普通用戶的人權(quán)沖突最為嚴(yán)重。由此,中國(guó)應(yīng)當(dāng)從實(shí)用主義的路徑出發(fā),建立政府監(jiān)管算法的整體框架,平衡科技創(chuàng)新、人權(quán)保障與商業(yè)發(fā)展三方面價(jià)值之間的關(guān)系,在科技創(chuàng)新的不同階段賦予企業(yè)不同程度的人權(quán)責(zé)任。全球產(chǎn)業(yè)鏈重新布局的背景下,算法競(jìng)爭(zhēng)與科技創(chuàng)新直接決定了民族國(guó)家能否取得在新秩序中處于制高點(diǎn)。由此,政府監(jiān)管應(yīng)當(dāng)賦予企業(yè)以較弱的、事后的算法責(zé)任。針對(duì)發(fā)展成熟,乃至成為產(chǎn)業(yè)壟斷的“獨(dú)角獸”企業(yè)以及境外企業(yè),政府監(jiān)管有必要賦予與其商業(yè)力量相當(dāng)?shù)纳鐣?huì)與倫理責(zé)任,接受事前監(jiān)督與過(guò)程監(jiān)督,并輔之以較強(qiáng)的事后的司法責(zé)任。動(dòng)態(tài)的、層級(jí)的算法倫理責(zé)任體系是政府從實(shí)用主義角度來(lái)協(xié)調(diào)算法與人權(quán)關(guān)系中蘊(yùn)含的各類(lèi)價(jià)值沖突的有效路徑。
其次,在算法規(guī)制的整體框架上,政府監(jiān)管的基本法律邏輯應(yīng)當(dāng)貫徹透明性、可解釋性與問(wèn)責(zé)性三大算法原則。這三大原則也是歐盟AI道德準(zhǔn)則與《多倫多宣言》的核心法律邏輯。透明性指的是保障用戶的知情權(quán)。用戶應(yīng)當(dāng)知曉與其對(duì)話或者做出與其相關(guān)決定的是機(jī)器算法,從而告知其可能存在歧視與偏見(jiàn)風(fēng)險(xiǎn)。對(duì)于政府委托的第三方算法決策而言,算法的全流程必須對(duì)政府與公眾公開(kāi)、透明。與透明性相適應(yīng)的是算法的可解釋性。算法實(shí)現(xiàn)的功能與算法策略、數(shù)據(jù)收集與使用的方式都應(yīng)當(dāng)以公眾所能理解的方式進(jìn)行表達(dá)或者備注,而非直接以代碼等技術(shù)形式公開(kāi)。這樣的要求和做法,一方面有助于實(shí)質(zhì)上實(shí)現(xiàn)透明性的目的,另一方面也有助于保護(hù)私人機(jī)構(gòu)的商業(yè)秘密。問(wèn)責(zé)性的要求則更多強(qiáng)調(diào)算法背后的人的因素,摒棄責(zé)任規(guī)避,將技術(shù)的使用與人的決策聯(lián)系在一起,使得算法偏見(jiàn)與歧視能夠?qū)崿F(xiàn)追溯問(wèn)責(zé)。問(wèn)責(zé)的實(shí)現(xiàn)也是算法倫理的法律表現(xiàn),有助于培養(yǎng)參與算法研發(fā)與使用的人員的職業(yè)倫理與人權(quán)責(zé)任。以上三方面法律標(biāo)準(zhǔn)可以通過(guò)政府認(rèn)證的方式為每一個(gè)進(jìn)入公共領(lǐng)域與公共服務(wù)的算法進(jìn)行認(rèn)證。
再次,在算法的使用與執(zhí)行環(huán)節(jié),政府采購(gòu)和公共服務(wù)委托等事項(xiàng)中的算法使用需要建立高效的反饋回應(yīng)機(jī)制。目前的《行政復(fù)議法》與《行政訴訟法》都將因?yàn)橹悄芩惴ㄔ谛姓聞?wù)中的高效使用而改變。行政決策與行政執(zhí)法中的算法可以單獨(dú)作為行政當(dāng)事人復(fù)議的對(duì)象。第三方評(píng)估機(jī)構(gòu)也可以就政府與公共事務(wù)中的算法進(jìn)行透明度評(píng)估,有助于政府或算法服務(wù)機(jī)構(gòu)改進(jìn),以符合人權(quán)與法律標(biāo)準(zhǔn)。
最后,司法的救濟(jì)與規(guī)則制定功能有助于政府在新事物中處理價(jià)值與效率的關(guān)系。在事后救濟(jì)程序上,中國(guó)的互聯(lián)網(wǎng)法院可給予人工智能以及算法等關(guān)鍵行為以訴權(quán),以司法的技藝來(lái)處理新事物的發(fā)展。2019年5月,北京互聯(lián)網(wǎng)法院判決全國(guó)首例人工智能生成內(nèi)容著作權(quán)案,主張計(jì)算機(jī)軟件智能生成內(nèi)容不構(gòu)成作品,因?yàn)橹悄苘浖拈_(kāi)發(fā)與使用環(huán)節(jié)中的智慧投入與作品的思想表達(dá)無(wú)關(guān)。但法院最終仍然給予算法以保護(hù),認(rèn)為研發(fā)者與使用者的勞動(dòng)投入具備了受保護(hù)的利益。本案的意義不只是實(shí)體上賦予了算法的創(chuàng)作成果以權(quán)益,更是將算法及其所有者、研發(fā)者與使用者作為司法技藝的處理對(duì)象。
當(dāng)中國(guó)的網(wǎng)絡(luò)人工智能產(chǎn)業(yè)走向全球的時(shí)候,跟隨產(chǎn)業(yè)的不一定是政府監(jiān)管模式,屬地管轄是民族國(guó)家的主要特征。跟隨算法走向世界的,更多的會(huì)是自主行業(yè)協(xié)會(huì)的標(biāo)準(zhǔn)。由此,在政府監(jiān)管體系建立的同時(shí),中國(guó)的網(wǎng)絡(luò)與人工智能行業(yè)應(yīng)主動(dòng)聯(lián)合,向全球其他提供算法的企業(yè)宣講中國(guó)的AI倫理準(zhǔn)則,與人權(quán)、民主等普適性的價(jià)值進(jìn)行協(xié)調(diào),從而建立起中國(guó)標(biāo)準(zhǔn)與全球話語(yǔ)權(quán)。
五、余論
歐盟AI道德準(zhǔn)則的出臺(tái),不只是關(guān)于人機(jī)關(guān)系的新秩序探索,更是全球秩序的競(jìng)爭(zhēng)拉開(kāi)新的序幕。參與其中的數(shù)字單一市場(chǎng)(Digital Single Market)組織認(rèn)為:“人工智能的道德維度不是一個(gè)奢侈的功能或附加組件。只有對(duì)它賦予了信任,我們的社會(huì)才能充分受益于技術(shù)。合乎道德的人工智能是一個(gè)雙贏的主張,它可以成為歐洲的競(jìng)爭(zhēng)優(yōu)勢(shì)——一個(gè)可以信賴的以人為本的人工智能領(lǐng)導(dǎo)者。”[21]近年來(lái),各國(guó)開(kāi)始不斷出臺(tái)規(guī)范性的人工智能倫理引導(dǎo)指南,規(guī)制人機(jī)關(guān)系,日本民間團(tuán)體曾發(fā)布《下一代機(jī)器人安全問(wèn)題指導(dǎo)方針(草案)》,韓國(guó)政府早在2007年就著手?jǐn)M訂“機(jī)器人道德憲章”。人工智能的發(fā)展猶如哥倫布對(duì)美洲新大陸的發(fā)展。對(duì)于人類(lèi)而言,美洲大陸的新發(fā)現(xiàn)也許是大航海的直接收獲,但更為重要的是開(kāi)啟全球秩序的重新分配。人工智能的各類(lèi)倫理準(zhǔn)則的出臺(tái)不只是在本國(guó)或本區(qū)域內(nèi)協(xié)調(diào)人機(jī)關(guān)系,網(wǎng)絡(luò)與科技的普適性意味著人工智能的算法與倫理規(guī)制將推動(dòng)一場(chǎng)新的全球秩序。在這一全球性的秩序中,算法首先遭遇到的是人權(quán)這一前世界秩序的根基。一旦人工智能技術(shù)本身獲得了有關(guān)“人”的哲學(xué)問(wèn)題的沖突,人權(quán)的世界秩序也將重新構(gòu)筑。歐盟以及參與《多倫多宣言》的各個(gè)國(guó)際組織已經(jīng)嗅到了新秩序競(jìng)爭(zhēng)的硝煙,并展開(kāi)了行動(dòng)。中國(guó)在人類(lèi)命運(yùn)共同體理念的感召下,如何處理算法與人權(quán)的關(guān)系,如何為人工智能的新秩序貢獻(xiàn)中國(guó)智慧,這有待后續(xù)實(shí)踐中進(jìn)行更具有創(chuàng)造性的探索。
?。ㄐ毂螅袊?guó)社會(huì)科學(xué)院法學(xué)研究所助理研究員,法學(xué)博士。)
注釋:
①參見(jiàn)蔡映潔:《人工智能,以法律和倫理為界》,載《人民日?qǐng)?bào)》,2017年08月23日。
?、贘ulia Angwin,Jeff Larson et al.,ProPublica,Despite Disavowals,Leading Tech Companies Help Extremist Sites Monetize Hate.
?、跴roPublica組織了關(guān)于機(jī)器偏見(jiàn)的系列專題調(diào)研文章,參見(jiàn)Machine Bias:Investigating the algorithms that control our lives.
④參見(jiàn)cnBeta:《五角大樓宣布使用大數(shù)據(jù)和機(jī)器學(xué)習(xí)打擊ISIS的計(jì)劃》,2019年5月31日訪問(wèn)。
⑤參見(jiàn)鳳凰網(wǎng)科技:《“不再作惡”:谷歌決定2019年后退出軍事項(xiàng)目Project Maven》,2019年5月31日訪問(wèn)。
?、迏⒁?jiàn)騰訊網(wǎng)科技:《爭(zhēng)議不斷 谷歌解散人工智能倫理委員會(huì)》,2019年5月31日訪問(wèn)。
?、逽tatement on Visit to the United Kingdom,by Professor Philip Alston,United Nations Special Rapporteur on extreme poverty and human rights.
⑧參見(jiàn)搜狐網(wǎng):《權(quán)益機(jī)構(gòu)發(fā)表〈多倫多宣言〉望人工智能技術(shù)遠(yuǎn)離歧視與偏見(jiàn)》,2019年5月31日訪問(wèn)。
?、釁⒁?jiàn)騰訊網(wǎng)科技:《谷歌發(fā)布AI使用七原則 絕不將其應(yīng)用于武器》,2019年5月31日訪問(wèn)。
⑩參見(jiàn)搜狐網(wǎng):《微軟攜中國(guó)發(fā)展研究基金會(huì)發(fā)布〈未來(lái)基石〉報(bào)告,討論人工智能的社會(huì)角色與倫理》,2019年5月31日訪問(wèn)。
?參見(jiàn)注⑧。
?The Toronto Declaration:Protecting the Right to Equality and Non-discrimination in Machine Learning Systems,visited on June 5,2019.
?參見(jiàn)彭明盛:《智慧的地球》,載《紀(jì)實(shí)》2009年第17期。
?參見(jiàn)注?。
?同上注。
?搜狐網(wǎng):《歐盟搶先發(fā)布七條人工智能道德原則》,2019年5月31日訪問(wèn)。
?See Ethics Guidelines for Trustworthy AI.
?左亦魯?shù)恼撐膶?duì)此作了詳細(xì)的梳理。參見(jiàn)左亦魯:《算法與言論——美國(guó)的理論與實(shí)踐》,載《環(huán)球法律評(píng)論》2018年第5期。
?Search King,Inc.v.Google Tech.,Inc.,No.02-1457,2003 WL 21464568(W.D.Okla.May 27,2003).
?Zhang v.Baidu,10 F.Supp.434,SDNY 2014.
[21]同注?。
Abstract:The application of artificial intelligence algorithms in public services brings problems such as algorithmic discrimination and inequality.The discussion of the ethics and regulation of algorithms,from the legal perspective,is actually the relationship between intelligent algorithms R&D and the protection of human rights.In response to the discrimination and prejudice of algorithmic violations of human rights,European and American countries have successively issued the principles and rules of ethical regulation of algorithms.2018 Toronto Declaration interprets algorithms as rules and regulates the development and use of algorithms with the principle of “due process”.The algorithmic ethics guidelines issued by the European Union in 2019 focused on the participants in algorithm development.The principle of algorithm regulation issued by the US courts in the jurisprudence emphasizes the objective attributes of the algorithm.It believes that the algorithm is a “freedom of speech” protected by the US Constitution,and the algorithm regulation is incorporated into the human rights series of rights for consideration.China should learn from foreign algorithmic regulation experience,establish an overall framework for government regulation,and balance the diverse needs of technological innovation,human rights protection and commercial competition.
(責(zé)任編輯葉傳星)