久久人妻无码aⅴ毛片花絮,久久国产精品成人影院,九九精品国产亚洲av日韩,久久婷婷人人澡人人喊人人爽,妓院一钑片免看黄大片

中國(guó)人權(quán)領(lǐng)域唯一專(zhuān)業(yè)網(wǎng)站
首頁(yè)>出版物>《人權(quán)》雜志

人權(quán)與人工智能:一個(gè)亟待解決的議題

來(lái)源:《人權(quán)》2019年第5期作者:[美]馬蒂亞斯·里塞
字號(hào):默認(rèn)超大| 打印|

  內(nèi)容提要:人工智能的日益普及為人權(quán)帶來(lái)巨大的挑戰(zhàn)。短期挑戰(zhàn)包括科技參與《世界人權(quán)宣言》涵蓋的所有權(quán)利的方式,例如有效的歧視性算法的使用。中期挑戰(zhàn)包括工作性質(zhì)的變化,這種變化可能會(huì)引起對(duì)很多人作為社會(huì)參與者地位的質(zhì)疑。從長(zhǎng)期來(lái)看,人類(lèi)可能不得不與在智力上和在道德上更優(yōu)越的機(jī)器共存,即使這只是高度推測(cè)性的。人工智能也賦予了曾經(jīng)被許多人認(rèn)為晦澀的道德辯論新的關(guān)聯(lián)性。

  關(guān)鍵詞:人權(quán) 人工智能 道德性

  
人工智能給人權(quán)帶來(lái)新的挑戰(zhàn)。人類(lèi)生活的不可侵犯性是人權(quán)背后的中心概念。一個(gè)潛在的預(yù)設(shè)是,相對(duì)于其他生命形式,人類(lèi)具有等級(jí)上的優(yōu)越性,與人類(lèi)相比其他的生命形式都只配獲得較少的保護(hù)。這些基本假設(shè)因?yàn)閷⒌絹?lái)的存在物而飽受質(zhì)疑,這些存在物并不以我們熟悉的方式活著,但是它們可能是具有感知能力的,并且在智力上,或許最終在道德上,比人類(lèi)更優(yōu)越。誠(chéng)然,這些假設(shè)的景象或許永遠(yuǎn)不會(huì)成真,并且無(wú)論如何都是人無(wú)法把握的未來(lái)的一部分,但是將該問(wèn)題提上議事日程至關(guān)重要??萍冀o各個(gè)人權(quán)領(lǐng)域帶來(lái)的威脅或挑戰(zhàn)已經(jīng)非常普遍。本文分別從短期、中期、長(zhǎng)期的角度來(lái)分析這些挑戰(zhàn)。本文的主要目的是激起人們?cè)谌藱?quán)領(lǐng)域內(nèi)對(duì)人工智能的興趣。①

  一、人工智能(AI)與人權(quán)

  
人工智能(AI,Artificial Intelligence)在我們的日常生活中越來(lái)越常見(jiàn),這反映出我們?cè)絹?lái)越傾向于在算法中尋找建議或是直接依賴(lài)算法進(jìn)行抉擇。“智能”是對(duì)未來(lái)做出預(yù)測(cè)以及能夠解決復(fù)雜問(wèn)題的能力。AI就是通過(guò)機(jī)器所展示出的這種能力,如智能手機(jī)、平板電腦、筆記本電腦、無(wú)人機(jī)、自動(dòng)駕駛汽車(chē)或機(jī)器人等機(jī)器。從家庭的支持以及陪伴(包括性伴侶)到警務(wù)與戰(zhàn)爭(zhēng)的各類(lèi)任務(wù),此類(lèi)機(jī)器可能均可以承擔(dān)。只要可以獲得所需要的數(shù)據(jù),算法可以按我們所要求的速度做任何能夠被寫(xiě)成編碼的事情,并且可以在設(shè)計(jì)框架中執(zhí)行據(jù)此所確定的任務(wù)。在所有這些領(lǐng)域中的進(jìn)步都是非常顯著的。算法的有效性通過(guò)“大數(shù)據(jù)”不斷得到提升:大量的關(guān)于全世界人類(lèi)活動(dòng)和其他進(jìn)程的數(shù)據(jù)都可以被獲得。這種數(shù)據(jù)使得一種特殊的被稱(chēng)為“機(jī)器學(xué)習(xí)”的人工智能類(lèi)型可以通過(guò)模式檢測(cè)推斷接下來(lái)會(huì)發(fā)生什么。算法在任何測(cè)試中都比人類(lèi)表現(xiàn)更好,盡管人類(lèi)的偏見(jiàn)也滲透其中:任何人類(lèi)設(shè)計(jì)的系統(tǒng)都會(huì)反映人類(lèi)的偏見(jiàn),并且算法所依賴(lài)的數(shù)據(jù)反映過(guò)去,從而將現(xiàn)狀自動(dòng)化,除非采取預(yù)防措施。②但是算法是不受干擾的:與人類(lèi)不同,當(dāng)同樣的問(wèn)題出現(xiàn)兩次時(shí)算法都能就同樣的問(wèn)題得出同樣的結(jié)論。③

  哲學(xué)辯論似乎有種脫離現(xiàn)實(shí)的感覺(jué),但在人工智能的背景下,許多此類(lèi)辯論帶著緊迫性重新出現(xiàn)。以“電車(chē)難題”為例,它迫使個(gè)人面對(duì)失控的電車(chē)做出選擇,根據(jù)個(gè)人做出的不同選擇電車(chē)會(huì)殺死不同數(shù)量的人。它通過(guò)這種方式挑戰(zhàn)人們關(guān)于義務(wù)論道德與結(jié)果主義道德的直覺(jué)。這些選擇不僅決定了誰(shuí)死亡,而且決定了一些否則不會(huì)受到影響的人是否被用作工具去拯救他人。許多大學(xué)教師都展示了這些案例只是為了讓學(xué)生質(zhì)疑他們的相關(guān)性,因?yàn)樵诂F(xiàn)實(shí)生活中,選擇永遠(yuǎn)不會(huì)是這種模式化。但是,一旦需要對(duì)自動(dòng)駕駛車(chē)輛(剛剛第一次在路邊造成不幸)進(jìn)行編程,這些問(wèn)題就會(huì)產(chǎn)生新的公共關(guān)聯(lián)性和緊迫性。

  另外,哲學(xué)家們長(zhǎng)期以來(lái)一直對(duì)心靈(mind)的本質(zhì)感到困惑。其中一個(gè)問(wèn)題是,心靈在大腦之外是否還有更多東西。不管它是什么,大腦也是一個(gè)復(fù)雜的算法。但是,大腦是否就由此被充分描述完全了呢,還是這種說(shuō)法并未認(rèn)識(shí)到那些使人類(lèi)與眾不同的東西,比如意識(shí)(consciousness)?意識(shí)是作為某人或某物的智性經(jīng)驗(yàn),如人們所說(shuō)的“像那樣是一種什么感覺(jué)”。如果說(shuō)心靈除了大腦什么都沒(méi)有,那么在大數(shù)據(jù)時(shí)代,算法很快就會(huì)在幾乎所有事情上超越人類(lèi):他們會(huì)更準(zhǔn)確地預(yù)測(cè)你會(huì)喜歡哪本書(shū)或下一次去哪里度假;比人類(lèi)更安全地駕駛汽車(chē);在人類(lèi)大腦發(fā)出警報(bào)之前預(yù)測(cè)健康狀況;給諸如接受哪些工作、在哪里生活、收養(yǎng)哪種寵物、對(duì)于某些人成為父母是否合理以及與現(xiàn)在在一起的人交往下去是否明智等事項(xiàng)提供中肯的建議。網(wǎng)絡(luò)廣告則通過(guò)評(píng)估一個(gè)人訂購(gòu)過(guò)什么以及之前點(diǎn)擊了什么來(lái)預(yù)估該展示什么廣告,以迎合人們的偏好。

  如果心靈只是一個(gè)復(fù)雜的算法,那么人類(lèi)似乎除了給予某些機(jī)器與人類(lèi)共同的道德地位沒(méi)有多少其他選擇。“動(dòng)物”的道德地位問(wèn)題之所以會(huì)被提出是由于人類(lèi)與其他物種之間的連續(xù)性:在道德相關(guān)屬性方面,一個(gè)物種越與人類(lèi)相似,就越應(yīng)該被視為共同生活中的一個(gè)同行者,正如蘇·唐納森(Sue Donaldson)和威爾·金里卡(Will Kymlicka)在《動(dòng)物政治學(xué):動(dòng)物權(quán)利的政治理論》中做的那樣。④這類(lèi)推論可能最終也會(huì)被應(yīng)用在機(jī)器身上。誠(chéng)然,機(jī)器上設(shè)有開(kāi)關(guān)是事實(shí),但人們不應(yīng)該由此而轉(zhuǎn)移注意力。為了測(cè)試某些可能性,未來(lái)的機(jī)器可能以一種不那么容易被關(guān)上的方式被組裝或者連接互聯(lián)網(wǎng)。更重要的是,他們可能會(huì)通過(guò)情緒或者某種行為來(lái)表達(dá)他們的情感:他們甚至可能擔(dān)心會(huì)被關(guān)掉,并會(huì)急切地為此想做些什么?;蛘?,未來(lái)的機(jī)器可能會(huì)以半機(jī)械人的形態(tài)出現(xiàn),即其一部分由有機(jī)體組成,而同時(shí)人類(lèi)尋求以非有機(jī)體來(lái)改變提升自己。人類(lèi)和非人類(lèi)的區(qū)別可能日益模糊。一旦將大腦電子化并且在電腦上上傳和存儲(chǔ)成為可能,就像人類(lèi)胚胎現(xiàn)在可以被儲(chǔ)存那樣,人們關(guān)于人的觀念可能會(huì)發(fā)生改變。⑤

  即便在此之前,新一代人也將以新的方式與機(jī)器一起成長(zhǎng)。如今典型的計(jì)算機(jī)用戶(hù)在電腦不好用的時(shí)候可能會(huì)毫不猶豫地砸碎筆記本電腦而不會(huì)感到一點(diǎn)不安。但是,那些與機(jī)器人保姆一起成長(zhǎng)的人可能會(huì)對(duì)機(jī)器人有不同的態(tài)度,因?yàn)槠鋵W(xué)習(xí)能力使其能夠以遠(yuǎn)遠(yuǎn)超出父母通常所做的方式照顧他們。早在2007年,一名美國(guó)上校就取消了一次機(jī)器人地雷清掃演習(xí),因?yàn)橛幸淮我粋€(gè)機(jī)器人喪失一條腿后仍然繼續(xù)向前爬行,他認(rèn)為這種行動(dòng)是不人道的。⑥像《西部世界》或《善地》這樣的科幻小說(shuō)展示了人與機(jī)器一起生活,且只能通過(guò)切開(kāi)它們才能將它們與人類(lèi)辨別開(kāi)的世界是什么情形。一個(gè)由 Hanson Robotics公司研發(fā)的、擁有參與訪(fǎng)談能力的、名為索菲亞的類(lèi)人機(jī)器人在2017年10月份成為沙特阿拉伯的一名公民;后來(lái),索菲亞被評(píng)為聯(lián)合國(guó)開(kāi)發(fā)計(jì)劃署(UNDP)首位創(chuàng)新冠軍,也是第一位擁有聯(lián)合國(guó)頭銜的非人類(lèi)。⑦未來(lái)可能會(huì)記住這些歷史性的時(shí)刻。寵物世界也不甘落后。亞馬遜公司的創(chuàng)始人及首席執(zhí)行官貝佐斯近期剛收養(yǎng)了一只名為SpotMini的寵物犬。這是一種多功能的機(jī)器人寵物,能夠打開(kāi)門(mén),自己動(dòng)手,甚至可以裝洗碗機(jī),并且如果貝佐斯愿在亞馬遜上購(gòu)物的話(huà),SpotMini也不需要外出。

  如果確實(shí)心靈除大腦之外還有更多東西,處理人工智能以及其他類(lèi)人機(jī)器人會(huì)更容易。意識(shí),或者對(duì)大腦和良心的同時(shí)擁有,可能會(huì)使人類(lèi)與眾不同。如何理解質(zhì)性經(jīng)驗(yàn)以及如何理解意識(shí),是一個(gè)開(kāi)放性問(wèn)題。但即使關(guān)于意識(shí)的考慮可能與人工智能系統(tǒng)具有道德性的觀點(diǎn)相矛盾,他們也不會(huì)阻礙這些系統(tǒng)成為法律參與者,比如擁有自己的財(cái)產(chǎn),犯罪,并以法律上可執(zhí)行的方式負(fù)責(zé)。畢竟,公司也同樣缺乏意識(shí),但我們已經(jīng)以這種方式對(duì)待它們很長(zhǎng)時(shí)間了。正如將公司的責(zé)任與涉及其中的人的責(zé)任區(qū)分開(kāi)存在巨大的困難一樣,很可能在智能機(jī)器方面也會(huì)出現(xiàn)類(lèi)似的問(wèn)題。

  二、純智能的道德性

  
另一個(gè)長(zhǎng)期存在而最近獲得關(guān)注的哲學(xué)問(wèn)題是理性與道德之間的聯(lián)系。當(dāng)人們對(duì)純智能的道德性進(jìn)行思考的時(shí)候就會(huì)提出這個(gè)問(wèn)題。“奇點(diǎn)”這個(gè)術(shù)語(yǔ)經(jīng)常用來(lái)指代機(jī)器在智力方面超越人類(lèi)的時(shí)刻。⑧從那時(shí)起,人類(lèi)就成功地創(chuàng)造出比自己更聰明的東西,而這種新型大腦很可能會(huì)產(chǎn)生比它自身更聰明的東西,以此類(lèi)推發(fā)展下去,而且速度可能還會(huì)很快。這種情況可以持續(xù)多長(zhǎng)時(shí)間將會(huì)有限度的。但是在過(guò)去的幾十年中由于計(jì)算能力的迅速增長(zhǎng),超級(jí)智能的能力范疇超出了人們現(xiàn)在所能理解的范圍。一些參與人工智能辯論的人著重強(qiáng)調(diào)了奇點(diǎn)和超級(jí)智能,而其他人則認(rèn)為與更緊迫的現(xiàn)實(shí)問(wèn)題相比,它們無(wú)關(guān)緊要。確實(shí),奇點(diǎn)可能永遠(yuǎn)都不會(huì)出現(xiàn),即使出現(xiàn)也可能是幾十年或幾百年后的事情。但是,過(guò)去數(shù)十年的數(shù)字技術(shù)發(fā)展仍然將這些主題(奇點(diǎn)和因?yàn)槌?jí)智能的存在而產(chǎn)生的道德后果)納入人權(quán)議程。⑨

  為了解決人工智能潛在的道德問(wèn)題,哲學(xué)家們最好考慮一下大衛(wèi)·休謨和伊曼努爾·康德之間關(guān)于理性能否決定價(jià)值的爭(zhēng)論。休謨的代表學(xué)說(shuō)認(rèn)為理性不能決定價(jià)值:一個(gè)理智的存在物、理性或智慧(假設(shè)這些都具有相似性),可能會(huì)有任何目標(biāo)以及任何一種態(tài)度,特別是對(duì)人類(lèi)的態(tài)度。⑩如果是這樣的話(huà),超級(jí)智能(或者說(shuō)任何人工智能,但尤其是超級(jí)智能)可能會(huì)有任何類(lèi)型的價(jià)值承諾,包括那些會(huì)讓人類(lèi)感到相當(dāng)荒謬的價(jià)值觀(如一些文獻(xiàn)中提到的將宇宙中的回形針數(shù)量最大化的價(jià)值承諾)。?如果我們認(rèn)可這樣一個(gè)超級(jí)智能會(huì)比人類(lèi)聰明得多,并因此可能會(huì)優(yōu)先考慮與人類(lèi)不同的價(jià)值承諾,那么人們又怎么知道這些想法是錯(cuò)誤的呢?

  與此相反,康德的觀點(diǎn)認(rèn)為道德源于理性??档碌?ldquo;絕對(duì)命令”要求所有理性存在物永遠(yuǎn)都不要以純粹工具的方式去利用自己或任何其他理性存在物的理性能力。尤其是對(duì)其他理性存在物的無(wú)理暴力和欺騙(這對(duì)康德來(lái)說(shuō)總是太像純粹的工具化)。?思考絕對(duì)命令的另一種方式要求每個(gè)人的行動(dòng)都要通過(guò)一般化測(cè)試(generalization test)。某些行動(dòng)是不被允許的,因?yàn)楫?dāng)每個(gè)人都這樣做的話(huà)他們根本行不通。比如偷竊和欺騙是不可普遍化的,因此不能被允許。如果每個(gè)人都有偷竊的權(quán)利,就不會(huì)有財(cái)產(chǎn);如果每個(gè)人都有說(shuō)謊的權(quán)利,就不會(huì)有溝通??档峦茖?dǎo)的要點(diǎn)是,任何有智慧的存在物都會(huì)因?yàn)榍址钙渌硇源嬖谖锒萑肱c其自身的矛盾。粗略地說(shuō),僅僅是我們的理性選擇給予了任何事物以?xún)r(jià)值,這同樣意味著我們通過(guò)給某些事物賦值也給予了我們賦值這個(gè)能力本身以?xún)r(jià)值。這個(gè)觀點(diǎn)是說(shuō)我們周?chē)澜绲氖挛锊⒉皇且阅撤N獨(dú)立的方式就有了價(jià)值。他們可能是有價(jià)值,假設(shè)我們知道上帝存在并且上帝賦予他們以?xún)r(jià)值,或者假設(shè)我們有理由認(rèn)為事物天生就是有價(jià)值的,就像物理定律應(yīng)用于它們一樣。但根據(jù)康德所探索的人類(lèi)理性的局限性,這些選擇并不存在。所以這讓人類(lèi)理性本身成為任何價(jià)值的唯一來(lái)源。但是,如果是這樣,那么我們必須感激我們自身這種進(jìn)行價(jià)值判斷的能力。因此,為了追求自己的利益而貶低其他理性存在物反過(guò)來(lái)也會(huì)貶低他們價(jià)值判斷的能力,而這些能力與我們必須珍視的自身的價(jià)值判斷能力是相同的。因此,某些錯(cuò)誤對(duì)待他人的方式會(huì)導(dǎo)致一個(gè)人與自己產(chǎn)生矛盾,就像數(shù)學(xué)推理中的缺陷一樣。如果康德是對(duì)的,一個(gè)超級(jí)智能可能是道德行為的真正榜樣。由于人類(lèi)的本性在判斷和價(jià)值承諾上非常狹隘,人工智能可能會(huì)縮小人類(lèi)與他們?cè)谑鲿r(shí)代形成的小群體導(dǎo)向的基因試圖在全球背景下運(yùn)作時(shí)所造成的鴻溝。?

  如果像這樣的論點(diǎn)能夠成立——當(dāng)然也存在疑問(wèn)——我們就沒(méi)有理由擔(dān)心超級(jí)智能。可以說(shuō),在一個(gè)智能機(jī)器發(fā)展的時(shí)代,人類(lèi)有足夠的理性來(lái)為卑微的人類(lèi)提供保護(hù)。但是,由于許多從當(dāng)代標(biāo)準(zhǔn)來(lái)說(shuō)很聰明的哲學(xué)家反對(duì)康德的觀點(diǎn),這個(gè)問(wèn)題遠(yuǎn)未得到解決。人類(lèi)的理性無(wú)法從超智能的角度想象這些事情會(huì)是什么樣子。

  當(dāng)然,即使價(jià)值不能僅僅從理性中獲得,某種道德也可以由超級(jí)智慧來(lái)掌控。還有一種霍布斯式的方法,設(shè)想在沒(méi)有共同權(quán)威的自然狀態(tài)下,以某種屬性為特征,以自我保護(hù)為目標(biāo)的人類(lèi)會(huì)發(fā)生什么。?霍布斯認(rèn)為,這些人不會(huì)像康德所設(shè)想那樣,僅僅通過(guò)頭腦清晰的思考,就按照共同的價(jià)值觀行事,他認(rèn)為如果沒(méi)有共同的權(quán)威,人們很快就會(huì)體驗(yàn)到生活的骯臟。他們絕不是卑鄙無(wú)恥的人,作為個(gè)體,他們會(huì)因?yàn)閷?duì)未來(lái)遭受侵犯的預(yù)測(cè)而感到有必要互相攻擊。畢竟,即使他們知道自己應(yīng)該合作,給懷疑的另一方以利益,他們也不能保證對(duì)方會(huì)給他們同樣的好處,并考慮到自己承擔(dān)的風(fēng)險(xiǎn)而感到必須要首先進(jìn)行攻擊。除非只有一個(gè)超級(jí)智能,或者所有的超級(jí)智能都是緊密相連的,不過(guò)這樣的推理可能也同樣適用于這樣的機(jī)器,它們將受制于某種共同的權(quán)威?;舨妓沟淖匀粻顟B(tài)描述了超級(jí)智能對(duì)于其他智能的初始狀態(tài)。這種共同的權(quán)威是否也會(huì)給人類(lèi)帶來(lái)好處還不清楚。?

  或許T.M.斯坎倫(T.M.Scanlon)關(guān)于對(duì)價(jià)值的適當(dāng)回應(yīng)的觀點(diǎn)會(huì)有所幫助。?超級(jí)智能在對(duì)它觀察到的周遭事物會(huì)做出適當(dāng)回應(yīng),在這個(gè)意義上超級(jí)智能可能是“道德的”。既然人類(lèi)大腦的能力確實(shí)令人震驚,并能在人類(lèi)身上激發(fā)出值得尊敬的能力,那么人類(lèi)或許就有機(jī)會(huì)獲得一些保護(hù),甚至可以在一個(gè)由人類(lèi)和機(jī)器組成的混合社會(huì)中獲得某種程度的解放。?但是,動(dòng)物的能力也是如此,而這通常不會(huì)導(dǎo)致人類(lèi)以適當(dāng)尊重的方式對(duì)待它們或者對(duì)待環(huán)境。人類(lèi)沒(méi)有表現(xiàn)出一種開(kāi)明的人類(lèi)中心主義,而是常常將自然工具化。希望在這類(lèi)問(wèn)題上,超級(jí)智能可以比人類(lèi)理性表現(xiàn)得更好,這將意味著獨(dú)特的人類(lèi)生命將得到一些保護(hù),因?yàn)樗档米鹬?。我們沒(méi)有辦法確切地知道這一點(diǎn),但也沒(méi)有理由過(guò)于悲觀。

  三、人權(quán)與價(jià)值一致性問(wèn)題

  
所有這些事情都是未來(lái)的一部分,我們無(wú)法知道它何時(shí)會(huì)實(shí)現(xiàn)甚至是否會(huì)實(shí)現(xiàn)。但從人權(quán)的角度來(lái)看,這些設(shè)想很重要,因?yàn)槿祟?lèi)需要習(xí)慣與新類(lèi)型的生物共享他們數(shù)千年來(lái)建立的社會(huì)世界。到目前為止,其他生物從未長(zhǎng)期阻礙人類(lèi)的發(fā)展,它們所能期待的最好的結(jié)果是一些共生的安排,比如寵物、牲畜或動(dòng)物園的展覽。所有這一切都可以解釋為什么會(huì)有一份以貌似值得保護(hù)的獨(dú)特的人類(lèi)生活為基礎(chǔ)的《世界人權(quán)宣言》(UDHR),這種保護(hù)是在個(gè)體層面上的,而人類(lèi)不愿給予其他物種這種保護(hù)。從哲學(xué)的角度來(lái)看,我們也許可以論證以個(gè)人權(quán)利形式給予人類(lèi)特殊保護(hù)是合理的,而不用明確說(shuō)對(duì)其他動(dòng)物或環(huán)境做任何事情都是可以的。但如果是智能機(jī)器,情況就完全不同了。人類(lèi)控制動(dòng)物,因?yàn)槿祟?lèi)可以打造一個(gè)動(dòng)物處于從屬地位的環(huán)境。但這么對(duì)待人工智能也許是不可能的。在一個(gè)某些智能玩家是機(jī)器的世界里,需要制定一些規(guī)則。這些智能玩家必須被設(shè)計(jì)得尊重人權(quán),即使他們足夠聰明和強(qiáng)大到可以侵犯人權(quán)。與此同時(shí),他們也必須被賦予適當(dāng)?shù)谋Wo(hù)自己的能力。最終《世界人權(quán)宣言》的規(guī)則同樣適用于這些智能機(jī)器也不是不可能的。?

  當(dāng)務(wù)之急是確保這些發(fā)展有一個(gè)良好的開(kāi)端。與此相關(guān)的挑戰(zhàn)是價(jià)值取向的問(wèn)題,這個(gè)問(wèn)題的出現(xiàn)要遠(yuǎn)遠(yuǎn)地早于何為純粹智能的道德這樣的問(wèn)題變得相關(guān)之前。無(wú)論人工智能系統(tǒng)究竟是如何生成的,重要的是要確保它們的價(jià)值觀與人類(lèi)價(jià)值觀一致,以盡可能地避免超級(jí)智能具有與我們截然不同的價(jià)值觀帶來(lái)的風(fēng)險(xiǎn)?!堵?lián)合國(guó)商業(yè)和人權(quán)指導(dǎo)原則》(UN Guide Principles on Business and Human Rights)也暗示我們現(xiàn)在需要解決價(jià)值一致問(wèn)題?!堵?lián)合國(guó)企業(yè)和人權(quán)指導(dǎo)原則》的宗旨是將人權(quán)納入企業(yè)決策。這些原則也適用于人工智能。這意味著我們要解決諸如“最嚴(yán)重的潛在影響是什么”,“誰(shuí)是最脆弱的群體”以及“如何確保獲得救濟(jì)”等問(wèn)題。?早在1942年,人工智能界就認(rèn)識(shí)到了艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說(shuō)《東奔西跑》(Runaround)中指出的價(jià)值取向的問(wèn)題。在小說(shuō)中,阿西莫夫闡述了他著名的“機(jī)器人三定律”(Three Laws of Robotics),在該小說(shuō)中“三定律”來(lái)自2058年的一本指南。所謂“三鐵律”,是指:(1)機(jī)器人不得傷害人類(lèi),也不得因不作為而讓人類(lèi)受到傷害;(2)機(jī)器人必須服從人類(lèi)的命令,但與第一定律相抵觸的除外;(3)機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不違反第一或第二定律。?

  不過(guò),長(zhǎng)期以來(lái)這些定律都被認(rèn)為太不具體,而且很多人做出各種努力來(lái)取代這些定律,這些努力與《聯(lián)合國(guó)商業(yè)和人權(quán)指導(dǎo)原則》或人權(quán)運(yùn)動(dòng)的任何其他部分可能并沒(méi)有任何聯(lián)系。例如,在2017年,劍橋的未來(lái)生命研究所(the Future of Life Institute)與由麻省理工學(xué)院物理學(xué)家馬克斯·特格馬克(Max Tegmark)和Skype聯(lián)合創(chuàng)始人賈恩·塔林(Jaan Tallinn)創(chuàng)辦的MA在加州Asilomar會(huì)議中心舉辦了一場(chǎng)關(guān)于有益的人工智能的會(huì)議,旨在提出指導(dǎo)人工智能未來(lái)進(jìn)一步發(fā)展的原則。在由此產(chǎn)生的23條《阿西洛瑪原則》(Asilomar Principles)中,有13條列在“倫理和價(jià)值觀”的標(biāo)題下。這些原則堅(jiān)持認(rèn)為,無(wú)論人工智能在哪里造成傷害,它應(yīng)該能夠確定它為什么會(huì)這樣做,并且當(dāng)一個(gè)人工智能系統(tǒng)涉及司法決策時(shí),它的推理應(yīng)該能夠被人類(lèi)審計(jì)人員驗(yàn)證。這些原則回應(yīng)了人們的擔(dān)憂(yōu),即人工智能可以以非??斓乃俣韧评恚⒛軌蚪佑|到非常廣泛的數(shù)據(jù),以至于人工智能的決策越來(lái)越不透明,如果分析出錯(cuò)它們也不可能被發(fā)現(xiàn)。這些原則還堅(jiān)持價(jià)值取向一致性,敦促“高度自治的人工智能系統(tǒng)應(yīng)該以能夠確保它們的目標(biāo)和行為在整個(gè)運(yùn)行過(guò)程中與人類(lèi)價(jià)值觀保持一致的方式被設(shè)計(jì)”(原則10)。這些人類(lèi)價(jià)值觀在原則11中表現(xiàn)得很明確,包括“人的尊嚴(yán)、權(quán)利、自由和文化多樣性”[2]。

  堅(jiān)持人權(quán)的前提是我們假設(shè)某些哲學(xué)爭(zhēng)論已經(jīng)被解決了:存在以權(quán)利的形式存在的普世價(jià)值,并且我們大致知道有哪些權(quán)利。正如《阿西洛瑪原則》所表明的,人工智能領(lǐng)域中有一些人相信人權(quán)已經(jīng)以某種方式被確立起來(lái)。但其他人則急于避免他們所認(rèn)為的道德帝國(guó)主義。他們認(rèn)為價(jià)值一致性問(wèn)題應(yīng)該以不同的方式解決,例如,通過(guò)一種群策群力的方式,教會(huì)人工智能吸收來(lái)自世界各地的輸入。因此,這又是一個(gè)哲學(xué)問(wèn)題呈現(xiàn)出新的相關(guān)性的例子:在決定是否愿意將人權(quán)原則納入人工智能設(shè)計(jì)的過(guò)程中時(shí),關(guān)于人在哲學(xué)上對(duì)元倫理學(xué)的偏向性理解必然發(fā)揮作用。[22]

  人權(quán)也有其優(yōu)勢(shì),因?yàn)樵谑澜绺鞯赜性S許多多人權(quán)本土化形式,而且對(duì)這些權(quán)利的全球支持是實(shí)質(zhì)性的。同樣,盡管《聯(lián)合國(guó)商業(yè)和人權(quán)指導(dǎo)原則》已經(jīng)出臺(tái),但有可能的是,某些將會(huì)成為領(lǐng)先的人工智能生產(chǎn)國(guó)的國(guó)家,并無(wú)意以人權(quán)精神解決價(jià)值一致性的問(wèn)題。不過(guò),這并不一定會(huì)阻礙其他地方為推動(dòng)人權(quán)問(wèn)題的解決而作出的努力。也許有一天,人工智能系統(tǒng)可以就如何最好地與人類(lèi)保持一致交流想法,但前提是人類(lèi)自身能夠以統(tǒng)一的方式設(shè)計(jì)人工智能,并對(duì)價(jià)值一致問(wèn)題提出相同的解決方案。然而,即使是人權(quán)也會(huì)繼續(xù)有詆毀者存在,所以這種情況發(fā)生的希望也很小。

  無(wú)論如何,我們需要的是人權(quán)界和人工智能界更多的互動(dòng),這樣所創(chuàng)造出的未來(lái)才不會(huì)缺少在人權(quán)領(lǐng)域的投入(很明顯,所創(chuàng)造的未來(lái)如果沒(méi)有人工智能領(lǐng)域并不會(huì)有任何風(fēng)險(xiǎn)。)朝著這個(gè)方向邁出的重要一步是,一些國(guó)際人權(quán)組織決定在人權(quán)事業(yè)中廣泛使用人工智能設(shè)備。在這一階段,一些人權(quán)組織正在試驗(yàn)在人權(quán)調(diào)查中使用機(jī)器學(xué)習(xí),并且也在關(guān)注使用機(jī)器學(xué)習(xí)中可能產(chǎn)生的歧視,尤其是在警察、刑事司法和獲得基本經(jīng)濟(jì)和社會(huì)服務(wù)方面。更廣泛地說(shuō),一些人權(quán)組織關(guān)注的是自動(dòng)化對(duì)社會(huì)的影響,包括工作和謀生的權(quán)利。在人權(quán)運(yùn)動(dòng)和這一發(fā)展背后的工程師之間需要有更多這樣的互動(dòng),而這種互動(dòng)最好是雙向的。

  四、“人工愚蠢”與公司權(quán)力

  
現(xiàn)階段有很多比未來(lái)的智能機(jī)器更緊迫的問(wèn)題?!妒澜缛藱?quán)宣言》中的每一項(xiàng)人權(quán)的行使都以某種方式受到科技的影響。例如,如果在醫(yī)療保健、保險(xiǎn)承保、假釋決定等領(lǐng)域中使用的算法是種族歧視或性別歧視的,反歧視條款就會(huì)受到威脅,因?yàn)檫@些算法的學(xué)習(xí)借鑒了性別歧視或種族主義;言論和表達(dá)自由,以及任何個(gè)人自決自由,都會(huì)受到大量假新聞的侵蝕,包括制作任何人在做任何事的假視頻,包括從未發(fā)生或由不同人犯下的恐怖主義行為。人工智能參與了這些假新聞作品的創(chuàng)作和傳播。

  政治參與越是依賴(lài)于互聯(lián)網(wǎng)和社交媒體,它們同樣越是受到技術(shù)進(jìn)步的威脅,從部署甚至更復(fù)雜的網(wǎng)絡(luò)機(jī)器人參與網(wǎng)絡(luò)辯論的可能性,到對(duì)計(jì)算票數(shù)的設(shè)備的黑客攻擊,或?qū)φ残姓蛟O(shè)施的黑客攻擊以制造混亂。人工智能與“人工愚蠢”(Artificial Stupidity)總是如影隨形:對(duì)手所做的努力不僅是要破壞人工智能可能帶來(lái)的成果,而且是要把它們變成它們的對(duì)立面。某國(guó)通過(guò)網(wǎng)絡(luò)操縱選舉是一個(gè)警鐘,更糟的情況可能還會(huì)發(fā)生。如果人工智能的使用缺乏足夠的透明度和人類(lèi)監(jiān)督的可能性,司法權(quán)利可能受到威脅。一個(gè)人工智能系統(tǒng)已經(jīng)預(yù)測(cè)了歐洲人權(quán)法院(European Court of Human Rights)數(shù)百起案件的結(jié)果,預(yù)測(cè)結(jié)果的準(zhǔn)確率達(dá)到79%[23];隨著準(zhǔn)確率的提高,使用人工智能來(lái)做出決定的做法也更具吸引力。在法庭訴訟中使用人工智能可能有助于為窮人提供法律咨詢(xún)(一些國(guó)際組織在印度等國(guó)已推行了這類(lèi)法律援助項(xiàng)目);但是,如果算法給出的法律建議令人費(fèi)解,并且其算法的基礎(chǔ)超出了現(xiàn)有的(或者可能是任何)人類(lèi)的審查能力,也可能導(dǎo)致卡夫卡式的情況。算法的公平性開(kāi)始引起大量的關(guān)注。[24]

  不僅通過(guò)無(wú)人機(jī)或機(jī)器人士兵,還通過(guò)因人類(lèi)活動(dòng)和存在被電子記錄而提高的個(gè)人的易理解性和可追溯性,人類(lèi)有關(guān)安全與隱私的任何權(quán)利都有可能受到損害。關(guān)于人類(lèi)的可用數(shù)據(jù)量可能會(huì)大幅增加,尤其是一旦生物特征傳感器能夠監(jiān)測(cè)人類(lèi)健康。比如,它們可能會(huì)在人們沐浴時(shí)進(jìn)行檢查并提交數(shù)據(jù),這或許是符合一個(gè)人的切身利益的,因?yàn)樗鼈兛梢栽谀承┘膊〕蔀檎嬲龁?wèn)題之前將他們?cè)\斷出來(lái)。這些數(shù)據(jù)的存在本身就可能給人們公民權(quán)利和社會(huì)權(quán)利帶來(lái)挑戰(zhàn),而且這些數(shù)據(jù)很可能是私家占有,不是被數(shù)據(jù)主體占有,而是被生成這些數(shù)據(jù)的實(shí)體之外的實(shí)體占有。如今,人工智能領(lǐng)域的領(lǐng)先企業(yè)比以往任何時(shí)候的石油公司都更強(qiáng)大,而且這可能只是它們崛起的開(kāi)始。

  過(guò)去,人在復(fù)雜社會(huì)中的地位首先由土地所有權(quán)決定,工業(yè)革命之后則是由工廠所有權(quán)決定的。隨之而來(lái)的高度不平等的結(jié)構(gòu)給許多人帶來(lái)不利后果。不平等的數(shù)據(jù)所有權(quán)也會(huì)給社會(huì)上的許多人同樣帶來(lái)不利后果。如果諸如Alphabet公司(谷歌的母公司及其子公司)、蘋(píng)果公司、Facebook公司,或者特斯拉公司等的威力不受公共利益的約束,人類(lèi)可能最終淪落到一個(gè)由公司主導(dǎo)的世界,如瑪格麗特·阿特伍德(Margaret Atwood)的小說(shuō)《羚羊與秧雞》(Oryx and Crake)或大衛(wèi)·福斯特·華萊士(David Foster Wallace)的《無(wú)盡的玩笑》(Infinite Jest)中所描述的那樣。“劍橋分析”(the Cambridge-Analytica)的丑聞給我們敲響了警鐘。馬克·扎克伯格(Mark Zuckerberg)2018年4月10日對(duì)美國(guó)議員做出的證言揭示出資深立法者對(duì)互聯(lián)網(wǎng)公司依賴(lài)市場(chǎng)數(shù)據(jù)的經(jīng)營(yíng)模式多么無(wú)知。這種無(wú)知為公司走向權(quán)力鋪平了道路。請(qǐng)考慮一個(gè)相關(guān)的觀點(diǎn):政府在網(wǎng)絡(luò)安全方面需要私營(yíng)部門(mén)的幫助。一些相關(guān)專(zhuān)家很聰明、報(bào)價(jià)高昂,但他們從不會(huì)為政府工作。鑒于政府在這方面的過(guò)度擴(kuò)張,人們只能希望可以為了政府的安全指派他們?yōu)檎?wù)。如果這些努力不能奏效的話(huà),那么只有企業(yè)才能提供最高級(jí)別的網(wǎng)絡(luò)安全。

  五、巨大的脫節(jié):科技和不平等

  
本文所要討論的最后一個(gè)話(huà)題是人工智能和不平等,以及其與人權(quán)的聯(lián)系。2018年是《世界人權(quán)宣言》發(fā)布70周年。這是一個(gè)好時(shí)機(jī),可以來(lái)思考在許多情況下技術(shù)是如何具有創(chuàng)造社會(huì)不平等的潛力,或其無(wú)意中成功創(chuàng)造了不平等,并從而對(duì)人權(quán)產(chǎn)生影響。首先,托馬斯·皮凱蒂(Thomas Piketty)警告稱(chēng),在和平時(shí)期放任資本主義自生自棄,會(huì)導(dǎo)致越來(lái)越嚴(yán)重的經(jīng)濟(jì)不平等。那些掌握經(jīng)濟(jì)的人比那些僅僅在其中工作的人從中獲利要大。因此,隨著時(shí)間的推移,人生中的機(jī)遇將越來(lái)越依賴(lài)于出生時(shí)的社會(huì)地位。[25]

  此外,越來(lái)越清楚的是,那些要么創(chuàng)新技術(shù),要么知道如何利用技術(shù)擴(kuò)大影響的人可以爭(zhēng)取到越來(lái)越高的工資。人工智能只會(huì)強(qiáng)化這些趨勢(shì),讓各領(lǐng)域的領(lǐng)導(dǎo)者們以更容易的方式擴(kuò)大自己的影響力。這反過(guò)來(lái)又使人工智能生產(chǎn)商成為價(jià)格更高昂的技術(shù)供應(yīng)商。最近,沃爾特·謝德?tīng)?Walter Scheidel)指出,從歷史上看不平等現(xiàn)象的大幅減少只是在應(yīng)對(duì)一些如流行病、社會(huì)崩潰、自然災(zāi)害或戰(zhàn)爭(zhēng)等災(zāi)難時(shí)才會(huì)發(fā)生;否則,人們很難凝聚足夠的要求變革的政治意愿。[26]

  在19世紀(jì)的英國(guó),最初的勒德分子因?yàn)閾?dān)心就業(yè)問(wèn)題而搗毀了織布機(jī)。但到目前為止,每一次的技術(shù)創(chuàng)新最終創(chuàng)造的就業(yè)崗位都超過(guò)了它所摧毀的崗位。雖然技術(shù)變革并非對(duì)每個(gè)人而言都有利,但其對(duì)社會(huì)整體和全人類(lèi)而言是一件好事??赡芪磥?lái)會(huì)有很多工作崗位,比如那些開(kāi)發(fā)、監(jiān)督或以創(chuàng)新方式使用技術(shù)的人,以及那些不可替代的創(chuàng)造性職業(yè),這些崗位數(shù)量最終將超過(guò)那些因人工智能而失業(yè)的人。但是,空抱著這種希望是很天真的,因?yàn)樗那疤崾菍?duì)教育體系進(jìn)行徹底改革以使人們具有競(jìng)爭(zhēng)力。另一種替代選擇是,人們希望一種既創(chuàng)造就業(yè)機(jī)會(huì)又縮短工作時(shí)間的結(jié)合,以實(shí)現(xiàn)更多人共享工作、提高工資來(lái)使人們過(guò)上體面的生活。無(wú)論哪種方式,歐洲國(guó)家都比美國(guó)有更大的希望,因?yàn)樵诿绹?guó)很多人在技術(shù)與教育的競(jìng)爭(zhēng)中落后,而且美國(guó)在國(guó)家層面上的團(tuán)結(jié)非常薄弱,薄弱到甚至連全民醫(yī)保都存在爭(zhēng)議。[27]而在制造業(yè)和廉價(jià)勞動(dòng)力方面具有相對(duì)優(yōu)勢(shì)的發(fā)展中國(guó)家將如何應(yīng)對(duì)這一切,誰(shuí)也說(shuō)不準(zhǔn)。

  在這種背景下,我們有理由擔(dān)心人工智能會(huì)在社會(huì)中造成越來(lái)越大的技術(shù)鴻溝,會(huì)將數(shù)百萬(wàn)人排除在外,使他們成為多余的市場(chǎng)參與者,進(jìn)而潛在地削弱他們?cè)谡紊钪械牡匚弧T谕恋厮袡?quán)作為財(cái)富的標(biāo)志的時(shí)代,富人是需要普羅大眾的,因?yàn)橥恋厮袡?quán)的意義在于收取租金。在財(cái)富由工廠的所有權(quán)決定的時(shí)代,所有者需要平民大眾來(lái)操作機(jī)器和購(gòu)買(mǎi)東西。但對(duì)于那些在技術(shù)分化中處于劣勢(shì)的人來(lái)說(shuō),他們可能根本就不會(huì)被需要。F.司各特·菲茨杰拉德(F.Scott Fitzgerald)在他1926年的短篇小說(shuō)《富家子弟》(The Rich Boy)中有一句名言:“讓我來(lái)告訴你一些跟富豪有關(guān)的事。他們跟你我非常不一樣”。人工智能可能會(huì)以一種驚人的方式證實(shí)這一說(shuō)法。

  正如種族隔離制度下的南非一樣,最終可能會(huì)出現(xiàn)新的班圖斯坦人,或者更有可能出現(xiàn)的情況是,獨(dú)立由公司擁有的城鎮(zhèn)里提供有完善的社會(huì)服務(wù),而其他人則無(wú)權(quán)享有?;蛟S他們也會(huì)給予這些“其他人”剛剛夠的供給,以確保他們不會(huì)忽然公然反抗。只要任何意義上比實(shí)際需要的人數(shù)多的人作為參與者,社會(huì)結(jié)構(gòu)就可能解體。盡管那時(shí)的世界可能有足夠的財(cái)富以為人們提供體面的生活,但只要有辦法避免暴力沖突破壞現(xiàn)在的生活狀態(tài),特權(quán)階層可能就沒(méi)有政治意愿去那么做。所有這些從人權(quán)的角度而言都是極壞的消息。與人類(lèi)生活中不斷增長(zhǎng)的算法所帶來(lái)的更直接的擔(dān)憂(yōu)相比,類(lèi)似這樣的場(chǎng)景是在更遙遠(yuǎn)的未來(lái)才會(huì)出現(xiàn)的,但可能不會(huì)像超級(jí)智能的到來(lái)那樣遙遠(yuǎn)。不平等加劇帶來(lái)的機(jī)遇和挑戰(zhàn)將在《世界人權(quán)宣言》的下一個(gè)七十年間到來(lái)。

  盡管美國(guó)是包括人工智能在內(nèi)的全球技術(shù)中心,但在打造一個(gè)全國(guó)性大團(tuán)結(jié)的社會(huì)環(huán)境方面,美國(guó)的實(shí)踐遠(yuǎn)遠(yuǎn)少于許多歐洲國(guó)家,而這種團(tuán)結(jié)結(jié)合持續(xù)不斷的努力,將會(huì)使人工智能造福于全體人民。美國(guó)的社會(huì)流動(dòng)性低得驚人。研究發(fā)現(xiàn),現(xiàn)在多達(dá)50%的工作容易受到自動(dòng)化影響,包括傳統(tǒng)被認(rèn)為安全的職業(yè),如法律、會(huì)計(jì)和醫(yī)學(xué)。[28]或者正如聯(lián)合國(guó)極端貧困和人權(quán)問(wèn)題特別報(bào)告員菲利普·阿爾斯通(Philip Alston)在談到2017年對(duì)美國(guó)的正式訪(fǎng)問(wèn)時(shí)所指出的:“自動(dòng)化和機(jī)器人化已經(jīng)使許多中年工人失去了他們?cè)哉J(rèn)為有保障的工作。在21世紀(jì)的經(jīng)濟(jì)環(huán)境下,只有很小的一部分人能夠避免因?yàn)樗麄儫o(wú)法控制的惡劣情況而陷入貧困的可能。”[29]

  人們常說(shuō)應(yīng)該只有當(dāng)技術(shù)變革所產(chǎn)生的好處能夠被廣泛地共享時(shí),該變革才可以被允許繼續(xù)下去。[30]但正如剛剛提到的,反對(duì)不平等的激進(jìn)措施只有在亂世才會(huì)發(fā)生,不然人們不會(huì)希望生活在這樣的時(shí)代。近幾十年來(lái)不平等的深化,以及選舉當(dāng)選總統(tǒng)的人心懷貪婪與仇恨,完全缺乏正常的同理心,這些因素在使更多人享受美國(guó)的財(cái)富方面并不是一個(gè)好兆頭,不論情況在會(huì)議和政治活動(dòng)中聽(tīng)起來(lái)有多好。

  不平等的深化給人權(quán)也帶來(lái)很不好的影響,對(duì)于我們所面臨的風(fēng)險(xiǎn)再怎么強(qiáng)調(diào)也不為過(guò)。馬克思在《論猶太人問(wèn)題》中的觀點(diǎn)是正確的,完全以權(quán)利為基礎(chǔ)的解放是沒(méi)有吸引力的。[31]一個(gè)建立在以權(quán)利為基礎(chǔ)的理想之上的社會(huì)錯(cuò)失了太多。在過(guò)去70年中,人權(quán)運(yùn)動(dòng)通常沒(méi)有能夠重視一個(gè)更大的話(huà)題,即國(guó)內(nèi)和全球的分配正義,而對(duì)于這個(gè)話(huà)題而言,人權(quán)必須成為其中一部分。人工智能可能最終會(huì)危及啟蒙運(yùn)動(dòng)的遺產(chǎn),因?yàn)樵诖髷?shù)據(jù)和機(jī)器學(xué)習(xí)的時(shí)代個(gè)性日益受到來(lái)自四面八方的威脅。同樣,因?yàn)檫@里受到威脅的是對(duì)社會(huì)整體的關(guān)注,而這種關(guān)注體現(xiàn)在現(xiàn)代關(guān)于分配或社會(huì)正義的思考中,人工智能同樣有可能會(huì)這樣做。只有在啟蒙精神和工業(yè)化帶來(lái)的技術(shù)可能性的引領(lǐng)下,這種關(guān)于分配和社會(huì)正義的現(xiàn)代思考才有可能實(shí)現(xiàn)。

  六、結(jié)論

  本文分別從短期、中期和長(zhǎng)期角度探索了在人工智能越來(lái)越普及的環(huán)境下,人權(quán)可能面臨的諸多挑戰(zhàn)。其中一些挑戰(zhàn)已然現(xiàn)實(shí)存在,另一些挑戰(zhàn)則需要我們現(xiàn)在給予關(guān)注,即使它們可能在很長(zhǎng)一段時(shí)間內(nèi)無(wú)關(guān)緊要。日益加劇的不平等以及人工智能的產(chǎn)生很可能成為《世界人權(quán)宣言》下一個(gè)七十年的禍根。人類(lèi)社會(huì)有充分的理由將人工智能置于其關(guān)注事項(xiàng)的首位。

 ?。ǎ勖溃蓠R蒂亞斯·里塞(Mathias Risse),哈佛大學(xué)Lucius N.Littauer哲學(xué)和公共管理教授、哈佛大學(xué)約翰肯尼迪政府學(xué)院Carr人權(quán)政策中心主任。原文為:Mathias Risse,“Human Rights and Artificial Intelligence:An Urgently Needed Agenda”,41 Human Rights Quarterly,No.1(2019),pp.1-16.譯者:張馨月,中國(guó)人民大學(xué)法學(xué)院碩士研究生;校對(duì)者:陸海娜,中國(guó)人民大學(xué)法學(xué)院副教授,法學(xué)博士。)

  注解:

  
①For introductory discussions of AI,see Keith Frankish & William M.Ramsey eds.,The Cambridge Handbook of Artificial Intelligence,Cambridge University Press,2014;Jerry Kaplan,Artificial Intelligence:What Everyone Needs to Know,Oxford University Press,2016;Margaret A.Boden,AI:Its Nature and Future,Oxford University Press 2016.For background on philosophy of technology much beyond what will be discussed here,see David M.Kaplan ed.,Readings in the Philosophy of Technology,Rowman & Littlefield Publishers,2009;Robert C.Scharff & Val Dusek eds.,Philosophy of Technology:The Technological Condition:An Anthology,Blackwell Publishers 2014;Don Ihde,Philosophy of Technology:An Introduction,Paragon House(1998);Peter-Paul Verbeek,What Things Do:Philosophical Reflections on Technology,Agency,and Design,Pennsylvania State University Press,2005.See also Sheila Jasanoff,The Ethics of Invention:Technology and the Human Future,W.W.Norton & Company,2016.Specifically on philosophy and artificial intelligence,see Matt Carter,Minds and Computers:An Introduction to the Philosophy of Artificial Intelligence,Edinburgh University Press,2007.For an early discussion of how the relationship between humans and machines may evolve,see Norbert Wiener,The Human Use Of Human Beings:Cybernetics And Society,Coubleday,1956.

  ②See Daniel Kahneman,Discussion at Beneficial AI Conference:What Makes People Happy?(2017).On this subject,see also Julia Angwin et.al.Machine Bias,ProPublica(2016).On fairness in machine learning,also see Reuben Binns,“Fairness in Machine Learning:Lessons from Political  Philosophy”,81 Proceedings of Machine Learning Res.149(2018);Brent Daniel Mittelstadt et al.,“The Ethics of Algorithms:Mapping the Debate”,3 Big Data Soc.1(2016);Osonde A.Osoba & William Welser,An Intelligence in Our Image:The Risks of Bias and Errors inArtificial Intelligence,RAND Research Report 2017.

 ?、跲n Big Data,see Viktor Mayer-Schnberger & Kenneth Cukier, Big Data:A Revolution That Will Transform How We Live,Work,and Think,Hodder,2014.On machine learning,see Pedro Domingos,The Master Algorithm:How the Quest for the Ultimate Learning Machine Will Remake Our World,Basic Books,2018.On how algorithms can be used in unfair,greedy,and otherwise perverse ways,see Cathy O'Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Penguin Books,2017.That algorithms can do a lot of good is of course also behind much of the potential that social science has for improving the lives of individuals and societies,see e.g.,J.D.Trout, The Empathy Gap:Building Bridgesto the Good Life and the Good Society,Viking,2009.

 ?、躍ue Donaldson and Will Kymlicka,Zoopolis:A Political Theory of Animal Rights,Oxford University Press,2013.

 ?、軫or exploration of these possibilities,see Yuval Noah Harari,Homo Deus:A Brief History of Tomorrow,Harper,2017.

 ?、轜endell Wallach & Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford University Press,2010.

 ?、逽ee Sophia(Robot),Wikipedia.

 ?、郌or one author who thinks the singularity is near,see Ray Kurzweil,The Singularity is Near:When Humans Transcend Biology,Penguin Books,2005.

 ?、酓avid J.Chalmers,“The Singularity:A Philosophical Analysis”,17 J.of Consciousness Stud.,7(2010);Nick Bostrom,Superintelligence:Paths,Dangers,Strategies Oxford University Press,2016;Amnon H.Eden et al.eds.,Singularity Hypotheses:A Scientific and Philosophical Assessment,Springer 2012.

  ⑩David Hume,An Enquiry Concerning the Principles of Morals(J.B.Schneewind ed.,1983)(1751).

  ?First apparently in Nick Bostrom,“Ethical Issues in Advanced Artificial Intelligence”,in George Eric Lasker et al eds.,Cognitive,Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence,International Institute for Advanced Studies in Systems Research and Cybernetics,2003.

  ?Immanuel Kant,Groundwork for the Metaphysics of Morals(Arnulf Zweig trans.,Thomas E.Hill,Jr.& Arnulf Zweig eds.,(2002)(1785).

  ?Steve Petersen,“Superintelligence as Superethical”,in Patrick Lin,Keith Abney,Ryan Jenkins eds.,Robot Ethics 2.0:From Autonomous Cars to Artificial Intelligence,2017,p.322;Chalmers,supra note ⑨.See also Kahneman,supra note ②.

  ?Thomas Hobbes,Leviathan(1651).

  ?For the point about Hobbes,see Peter Railton,“Talk at New York University:Machine Morality”(2017).

  ?T.M.Scanlon,“What is Morality?”,in Jennifer M Shephard et al eds.,The Harvard Sampler:Liberal Education for the Twenty First Century Harvard University,2011.

  ?For speculation on what such mixed societies could be like,see Max Tegmark,Life 3.0:Being Human in the Age of Artificial Intelligence,Allen Lane,2017,p.161.

  ?Margaret Boden argues that machines can never be moral and thus responsible agents;she also thinks it is against human dignity to be supplied with life companions or care givers of sorts that are machines.See Margaret Boden,Panel at Beneficial AI Conference:AI and Ethics(2017).For impact of technology on human interaction,see also Sherry Turkle,Alone Together:Why We ExpectMorefrom Technology and Less from Each Other,Basic Books,2017.Others argue that certain types of AI would have moral rights or deserve other types of moral consideration;for Matthew Liao's and Eric Schwitzgebel's views on this,see S.Matthew Liao,Presentation,New York University Ethics and Artificial Intelligence Conference:Intelligence and Moral Status(2017).

  ?John Gerard Ruggie, Just Business:Multinational Corporations and Human Rights,W.W.Norton & Company,2013.

  ?Isaac Asimov,I,Robot,“Three Laws of Robotics”(1970)(1942).

  [2]Asilomar AI Principles,F(xiàn)uture of Life Inst.(2017),How Do We Align Artificial Intelligence with Human Values?,F(xiàn)uture of Life Inst.(2017).

  [22]On how machines could actually acquire values,see Bostrom,supra note ⑨,185-227;Wallach & Allen,supra note ⑥.

  [23]Nikolaos Aletras et al,“Predicting Judicial Decisions of the European Court of Human Rights:A Natural Language Processing Perspective”(2016).

  [24]Jane Wakefield,“AI Predicts Outcome of Human Rights Cases”,BBC News,23 Oct.2016.

  [25]Thomas Piketty,Capital in the Twenty-first Century,The Belknap Press of Harvard University,2014.

  [26]Walter Scheidel,Great Leveler:Violence and the History of Inequality from the Stone Age tothe Twenty-First Century,Princeton University Press,2017.

  [27]Claudia Goldin and Lawrence Katz,The Race Between Education and Technology,Belknap Press of Harvard University Press,2008.

  [28]Cate Brown,The Rise of Artificial Intelligence and the Threat to Our Human Rights,Rights Info(2017).

  [29]United Nations Office of High Commissioner for Human Rights,The Rise of Artificial Intelligence and the Threat to our Human Rights(2017).On the technological divide,see also Nancy Scola,Is Tech Dividing America?How an Engine of Prosperity Split the Haves From the Have-Nots—And how we can fix it,Politico(2018);see also Nicolas Yan,Automated Inequality,Harv.Pol.Rev.(2 Oct.2016).On AI and the future of work,see also Erik Brynjolfssonand Andrew McAfee,The Second Machine Age:Work,Progress,and Prosperity in a Time of BrilliantTechnologies,W.W.Norton & Company,2016;Jerry Kaplan,Humans Need Not Apply:A Guide to Wealth and Work inthe Age of Artificial Intelligence,Yale University Press,2016.

  [30]See,e.g.,AI and the Future of Work Congress.

  [31]Karl Marx,On the Jewish Question(Helen Lederer trans.,1958)(1844).

Abstract:The increasing presence of artificial intelligence creates enormous challenges for human rights.Among the short-term challenges are ways in which technology engages just about all rights on the UDHR,as exemplified through use of effectively discriminatory algorithms.Medium-term challenges include changes in the nature of work that could call into question many people's status as participants in society.In the long-term humans may have to live with machines that are intellectually and possibly morally superior,even though this is highly speculative.Artificial intelligence also gives a new relevance to moral debates that used to strike many as arcane.

  (責(zé)任編輯葉傳星)