人工智能與人權(quán):警惕風險,把握機遇
保加利亞科學院教授
瑪麗亞娜·托多羅娃
非常榮幸參加“中歐人權(quán)研討會”,我來講一下人工智能與人權(quán)。這是一個涉及社會政治層面的重要議題,它深刻影響著我們權(quán)利的行使和人的尊嚴保障。
隨著人工智能系統(tǒng)被廣泛應(yīng)用于司法、醫(yī)療等領(lǐng)域,它正在重新定義權(quán)利保護的邊界,甚至可能在人權(quán)保障方面存在風險。這項技術(shù)是一把雙刃劍——既帶來諸如促進平等、增強社會賦能和推動全球正義的新機遇,同時也伴隨著不容忽視的新型風險,這些風險可能影響公民自由。
當前的挑戰(zhàn)在于準確識別并界定人工智能帶來的倫理困境。此外,不完善的技術(shù)視角可能強化危險的刻板印象。美國的面部識別技術(shù)就是典型案例:該系統(tǒng)對深色皮膚人群的錯誤識別率明顯偏高;人力資源平臺中針對女性高管的算法偏見也導致了無依據(jù)的差異化對待。而這類技術(shù)被應(yīng)用在了邊境管控或警務(wù)工作中。
不僅如此,人工智能還可能使殘障人士、特定語言群體或社會經(jīng)濟地位較低者遭受歧視。這種由自動化系統(tǒng)引發(fā)的偏見,延續(xù)了歷史形成的地域性和結(jié)構(gòu)性不平等。
關(guān)于人工智能的“幻覺”問題,我們必須保持高度警惕。這些系統(tǒng)生成的內(nèi)容往往具有迷惑性的專業(yè)外表,實則可能包含嚴重錯誤——在法律和醫(yī)療等關(guān)鍵領(lǐng)域尤其危險。已有案例表明:AI工具可能推薦錯誤的治療方案,或虛構(gòu)不存在的法律判例。當這類虛假內(nèi)容以法律文書等形式出現(xiàn)時,不僅會損害個人權(quán)益,還將從根本上動搖公眾對民主制度的信任基礎(chǔ)。
我們同時觀察到,面部識別、圖像識別及預測性分析等監(jiān)控工具雖有助于風險防范,卻不可避免地侵蝕著個人自由——尤其是結(jié)社自由,因為持續(xù)的監(jiān)控狀態(tài)會導致人們產(chǎn)生心理畏懼。隨著人工智能系統(tǒng)開始通過生物傳感器解讀情緒狀態(tài),我們正面臨全新的倫理挑戰(zhàn)。值得注意的是,人工智能的控制范圍正在持續(xù)擴張,其影響力已達到前所未有的程度。
(來源:中國人權(quán)研究會)