當(dāng)前,人工智能技術(shù)迅猛發(fā)展,且已被廣泛用于生產(chǎn)生活場景,從智能家居到汽車的自動駕駛,從醫(yī)療診斷的精準輔助再到具有劃時代意義的生成式人工智能等。人工智能技術(shù)為人類社會生活帶來了巨大便利,同時伴隨人工智能的發(fā)展也引發(fā)出一系列關(guān)于人權(quán)風(fēng)險的隱憂。
“人工智能的人權(quán)風(fēng)險”是一個復(fù)雜而敏感的議題,不僅涉及到技術(shù)層面的倫理考量,也觸及人類社會對于公平、正義和尊嚴的深層次追求。在人工智能技術(shù)快速發(fā)展的同時,必須深入思考人工智能的人權(quán)風(fēng)險,利用法制手段約束和引導(dǎo)人工智能技術(shù)的發(fā)展。
人工智能帶來哪些人權(quán)風(fēng)險?
當(dāng)前人工智能正處于弱人工智能時代,關(guān)于人工智能的人權(quán)風(fēng)險可以分為三類,分別是一般人權(quán)風(fēng)險,潛在人權(quán)風(fēng)險,以及強人工智能和超人工智能的人權(quán)風(fēng)險。

仿生機器人吸引參觀者注意。佟郁 攝
一般人權(quán)風(fēng)險涉及與數(shù)據(jù)有關(guān)的人權(quán)風(fēng)險,以及算法偏見和歧視性決策。
如果說石油是工業(yè)的“血液”,那么數(shù)據(jù)就是人工智能的“神經(jīng)系統(tǒng)”,數(shù)據(jù)對于人工智能的發(fā)展至關(guān)重要,然而與數(shù)據(jù)有關(guān)的各個環(huán)節(jié)都存在著一定的人權(quán)風(fēng)險。
在數(shù)據(jù)收集階段,未經(jīng)用戶明確同意的收集,超過必要限度的收集會侵犯用戶的隱私權(quán);人臉識別技術(shù)利用人臉進行監(jiān)控、追蹤或識別身份等,增加了隱私權(quán)被侵犯的風(fēng)險。
在數(shù)據(jù)處理階段,脫敏技術(shù)的不完善,用戶的隱私無法得到保護,系統(tǒng)自身的網(wǎng)絡(luò)漏洞,將會造成被攻擊之后數(shù)據(jù)泄露的后果。
在數(shù)據(jù)使用階段,很多技術(shù)公司在獲取用戶信息之后又將其轉(zhuǎn)手賣出,這是對普通民眾個人信息權(quán)的嚴重侵犯;而近期大火的生成式人工智能,在驚艷世人的同時,也會產(chǎn)生虛假信息,從而侵犯他人的名譽權(quán),隨意使用和重組他人作品,可能會構(gòu)成對他人知識產(chǎn)權(quán)的侵犯。
在數(shù)據(jù)存儲階段,集中存儲增加了使用便利性,也增加了泄露風(fēng)險。例如近年來發(fā)生的某平臺的信息泄露事件,不僅嚴重侵犯了相關(guān)當(dāng)事人的隱私權(quán),更影響了社會的穩(wěn)定。
算法偏見,是指在信息的生產(chǎn)、分發(fā)及核查的過程中對用戶造成的非中立立場影響,導(dǎo)致片面、失實等信息觀念的傳播。算法偏見可能是由于算法設(shè)計和開發(fā)者自身的偏見,也可能是訓(xùn)練數(shù)據(jù)的偏見,更有可能是在人機交互的過程中,機器無意識且不加選擇地習(xí)得人類的一切倫理與喜好,包括偏見。
從技術(shù)角度來看,算法偏見無法避免。算法偏見會使人的平等權(quán)在無形之中被侵害,某些群體將逐漸成為機器歧視的對象,壓縮了他們的網(wǎng)絡(luò)生存空間。同時,算法偏見引發(fā)的歧視性決策,會使某些群體的權(quán)益受到嚴重侵害。
潛在人權(quán)風(fēng)險方面,隨著人工智能的進一步發(fā)展,其決策的正確性和高效性已超越了人類主體,可以預(yù)見的是,在未來,許多領(lǐng)域的決策主體都將從人變?yōu)闄C器。在提升效率的同時,更極大地增加了人權(quán)風(fēng)險,最為棘手的就是責(zé)任承擔(dān)問題。如,智能駕駛普及后,出現(xiàn)交通事故該由誰承擔(dān)責(zé)任,這引發(fā)了學(xué)界和實務(wù)界爭論。傳統(tǒng)法學(xué)的主體均為人,如果機器決策成為常態(tài),人的主體地位會受到極大沖擊,這會影響法學(xué)的發(fā)展方向。
人工智能極大地提升各行各業(yè)的效率,同時也可能引發(fā)史上最嚴重“下崗潮”。人工智能技術(shù)能夠高效完成許多重復(fù)性、低技能的工作,這種現(xiàn)象將導(dǎo)致大量從事這類工作的勞動力失業(yè)。
未來的社會是高度互聯(lián)化的社會,具備一定技術(shù)素養(yǎng)才能在社會中立足,可是人工智能技術(shù)具有一定的門檻,對于無法掌握這些技術(shù)的民眾,可能就很難適應(yīng)社會,這會影響社會的平等,影響部分民眾基本人權(quán)的實現(xiàn)。
強人工智能和超人工智能將對人類社會產(chǎn)生極大的沖擊。當(dāng)前最為先進的生成式人工智能也只是弱人工智能的一種,其所能進行的文本生成技術(shù),也只是人類大腦功能的一部分,并沒有達到真正像“人類思考”(強人工智能),更不會超越人類(超人工智能)。在未來,人工智能不僅能像人類一樣思考和工作,更能夠?qū)W習(xí)人類的撒謊、貪婪等品質(zhì),作出對人類有危害的決策,如果機器演化出人類主宰世界的意識,更可能通過各種手段清除人類而主宰整個世界。任何技術(shù)的發(fā)展都應(yīng)當(dāng)“以人為本”,更好地促進人類的發(fā)展。

人工智能沉浸式體驗項目“AI之夢”吸引參觀者體驗。湯彥俊 攝
如何約束人工智能技術(shù)應(yīng)用?
當(dāng)前,人工智能發(fā)展的速度已超出預(yù)期,縱觀全球各個主體的立法速度,落后于人工智能技術(shù)發(fā)展的速度。也就是說,如果任憑人工智能技術(shù)的發(fā)展,很快就會出現(xiàn)人工智能領(lǐng)域無法可依、亂象叢生的局面。
對人工智能進行法律規(guī)制,可從以下幾個方面進行。
首先,加強行政監(jiān)管式規(guī)制方案。
應(yīng)當(dāng)建立實質(zhì)性的人工智能算法人權(quán)保護標準,及其相配套的審查和懲罰機制。通過標準化的方法實現(xiàn)算法決策機制一定程度的可視化乃至量化,并以此為基礎(chǔ)對算法應(yīng)用進行進一步規(guī)制。
通過行政方式收集信息和數(shù)據(jù),評估人權(quán)的保護狀況。因為算法提供者沒有足夠動力,而算法使用者雖有動力卻無實力負擔(dān)信息收集成本。
以行政介入方式確保少數(shù)群體權(quán)益得到充分表達,以規(guī)范形式給予少數(shù)群體訴求表達的渠道和正當(dāng)性,可降低其表達訴求的行為成本并提高其訴求得到采納的機會。
其次,完善數(shù)據(jù)、算法等相關(guān)立法。
數(shù)據(jù)作為人工智能時代最重要的資源,對數(shù)據(jù)的規(guī)制應(yīng)當(dāng)進一步細化,對于數(shù)據(jù)的收集、流動、跨境流動,數(shù)據(jù)的存儲、處理,數(shù)據(jù)的使用、刪除及銷毀等,都應(yīng)當(dāng)建立相關(guān)的法律規(guī)制。
進行算法有關(guān)的立法,應(yīng)要求AI系統(tǒng)的設(shè)計者和使用者公開其算法的工作原理、數(shù)據(jù)來源及決策邏輯,特別是對于影響個人權(quán)益的重大決策;應(yīng)確保AI決策過程可以被人類理解和審查,提供決策理由的解釋,尤其是當(dāng)決策結(jié)果對個人產(chǎn)生重大影響時;應(yīng)建立定期審查與審計流程,檢測并糾正算法中的偏見,確保決策過程的公正性和無歧視性。
再次,通過市場進行規(guī)制。
市場自發(fā)秩序驅(qū)動算法用戶自主選擇,促使人工智能算法與傳統(tǒng)服務(wù)競爭,用戶最終選擇在人權(quán)保護方面表現(xiàn)最佳的服務(wù)。在充分競爭的市場中,用戶可選擇其他提供公平服務(wù)的競爭者,這使得不公正的算法服務(wù)提供者逐漸被淘汰。由于算法服務(wù)的邊際效應(yīng)遞減,公平服務(wù)提供者可因更多用戶而降低平均成本,增強競爭力。在市場規(guī)范中,行政管理問題得以解決,不需要復(fù)雜的歧視還原和監(jiān)管體系。市場主體自發(fā)調(diào)整,以滿足用戶選擇,實現(xiàn)價值沖突的均衡,替代低效的自上而下監(jiān)管,促進算法服務(wù)的人權(quán)保護。
最后,保障知情、選擇與申訴權(quán)。
應(yīng)當(dāng)確保用戶了解服務(wù)的人工智能屬性、服務(wù)提供方身份、采集的信息、隱私保護政策和申訴渠道等實質(zhì)性權(quán)利。服務(wù)提供方也有義務(wù)解釋說明其條款。
確保公共部門場景中,至少提供“2+1”的選項(兩個以上不同的人工智能程序及傳統(tǒng)方案)。商業(yè)行為場景中,至少要求提供傳統(tǒng)解決方案或選擇不接受服務(wù)。
確保能夠向算法提供方要求重新判斷和提供判斷依據(jù)等。在人權(quán)范疇內(nèi)權(quán)利受到侵害時,主張停止侵害和侵權(quán)賠償?shù)?。同時有向政府指定行政機關(guān)說明情況尋求救濟的權(quán)利。
人工智能的發(fā)展速度迅猛,其存在的“技術(shù)黑箱”,也讓人工智能專家對很多現(xiàn)象無法解釋??梢哉f,人工智能像是一個強有力的推進器,讓人類社會再一次經(jīng)歷騰飛,在這美好的背后,更要警惕其帶來的人權(quán)風(fēng)險,通過法律規(guī)制引導(dǎo)保障人工智能技術(shù)健康、向善發(fā)展。(完)
受訪者簡介:

肖君擁,北京理工大學(xué)法學(xué)院教授、博士生導(dǎo)師,國家人權(quán)教育培訓(xùn)基地北京理工大學(xué)科技人權(quán)研究中心執(zhí)行主任。中國法學(xué)會法理學(xué)研究會和憲法學(xué)研究會理事。著有《人民主權(quán)論》《國際人權(quán)法講義》《人權(quán)的道德維度》等。主講《國際人權(quán)法》獲北京市高校優(yōu)質(zhì)本科課程。曾數(shù)次參加聯(lián)合國人權(quán)理事會大會和邊會發(fā)言,多次赴美國、歐洲等地參加國際人權(quán)對話交流。

京公網(wǎng)安備 11010102003980號