人工智能、特別是生成式人工智能服務在近年來的迅速發(fā)展,不僅給全球社會帶來了改變和新的增長機遇,也給技術監(jiān)管、社會治理和人權保護帶來了相當程度上的挑戰(zhàn)。盡管國際人權法暫時沒有專門用以應對人工智能影響的條約,但是國際社會和各國政府都普遍認為人工智能可能給人權的實踐帶來諸多挑戰(zhàn),這包括隱私、健康、教育、工作、言論自由和平等權的方方面面。近年來,來自公司、民間社會和各國政府的人工智能道德原則激增。中國在合理監(jiān)管人工智能、發(fā)展負責任人工智能、促進人權保護方面走在了世界人工智能治理的前列,中國的先行經(jīng)驗對于人工智能在人類社會的安全、平等和可控發(fā)展提供了寶貴范例和治理模版。
1.積極高效的人工智能立法
我國通過推出一系列法規(guī),在人工智能的監(jiān)管和負責任方面領先于世界其他國家和地區(qū)。2023年,人工智能立法進入快車道,《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》于2023年1月生效,重點關注算法生成內容和中國境內的互聯(lián)網(wǎng)新信息服務?!痘ヂ?lián)網(wǎng)信息服務算法推薦管理規(guī)定》于2023年3月生效,對包括生成式、合成式算法在內的算法推薦技術進行了系統(tǒng)的規(guī)定。《生成式人工智能服務管理暫行辦法》于2023年8月生效,對在中國境內開發(fā)并使用生成式人工智能技術的各個主體進行更廣泛和全面的監(jiān)管。這三個法規(guī)在內容、算法和產(chǎn)品方面,分別對人工智能從研發(fā)、運行到用戶使用的各個環(huán)節(jié)進行了有效規(guī)定,在整體上確立了發(fā)展與安全、促進創(chuàng)新和依法治理并重的策略,并且在監(jiān)管層面特別注重人工智能的社會影響。
另外,在研究倫理方面,2023年12月開始試行的《科技倫理審查辦法》也給人工智能的進一步發(fā)展提供了規(guī)范基礎和制度保障。與此同時,我國在數(shù)據(jù)保護、網(wǎng)絡安全、不正當競爭以及電子商務方面的現(xiàn)有法律,同樣可以繼續(xù)適用于人工智能的治理。通過一系列人工智能法規(guī)的先行經(jīng)驗,我國人工智能行業(yè)在一開始就特別注重透明度、準確度和可靠性,并且為技術尊重社會公德和倫理道德的發(fā)展、個人權利的創(chuàng)新和最大程度減少基于民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視提供了保障。
2.全面系統(tǒng)的人工智能負責任發(fā)展機制
隨著人工智能技術的迅速發(fā)展,特別是以ChatGPT、文心一言為代表的生成式人工智能應用的快速出現(xiàn),與人工智能相關的糾紛逐漸顯化,人工智能對肖像權、名譽權、榮譽權、隱私權和個人信息權益的方方面面造成了挑戰(zhàn)。具體到人權領域,人工智能也具備制造大規(guī)模、系統(tǒng)的算法歧視,權利侵害和人權損害的可能性,并且已經(jīng)造成了復雜的法律問題。中國通過立法和實踐構造出一套全面系統(tǒng)的人工智能負責任機制,這將極大促進人工智能歸責和可信發(fā)展。
2.1技術的豐富性
盡管生成式人工智能是人工智能研究和治理的重點,但是我國的人工智能法規(guī)充分關注了人工智能應用的豐富可能性。從目前的技術監(jiān)管上,法規(guī)討論的主要分為四類:
第一,“算法推薦技術”,這包括極大影響用戶、消費者和普通民眾信息獲取的個性化推送算法、檢索和過濾算法(如搜索引擎的自動識別)、分類與選擇算法(如社交媒體的熱搜)、生成與合成算法(如AIGC服務)以及調度與決策算法(如外賣平臺騎手的公平調度)。
第二,“深度合成技術”,我國的法規(guī)從各種信息收集、處理和再生成的全過程,對利用深度學習、虛擬現(xiàn)實等合成類算法生成文本、語音、非語音(如音樂)、圖像和視頻、三維重構、數(shù)字仿真等信息的技術,進行全面和有效的規(guī)定。
第三,“生成式人工智能”,相關法規(guī)按照“有能力生成文本、圖片、聲音、視頻等內容的模型和相關技術”的定義,從應用的結果端給迅速發(fā)展中的人工智能最寬泛的規(guī)定。這有效應對了人工智能技術對權利和人權侵害的潛在風險。
第四,“具有倫理風險的科技活動”,我國最新的《科技倫理審查辦法》針對“具有輿論社會動員能力和社會意識引導能力的算法模型”、“面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統(tǒng)”兩類研究,首次以清單形式規(guī)定需要開展倫理審查,這回應了社會公眾對于人工智能的潛在擔憂,同時也預見性地規(guī)范了人工智能的透明和可控。
2.2主體的全面性
在主體方面,我國立法在促進人工智能行業(yè)快速發(fā)展和創(chuàng)新的同時,也明確了歸責的主體,這對規(guī)范人工智能侵害人權時的責任人提供了有效進路。在算法推薦技術方面,主要的責任主體是服務提供者;在深度合成技術方面,服務提供者、技術支持者、使用者以及任何涉及應用深度合成技術的其他實體,比如網(wǎng)絡平臺都可能是最終的責任人;生成式人工智能則更加關注服務提供者;而倫理審查則關注研究者,首次提出任何從事相關科研活動的高校、科研機構、醫(yī)療和衛(wèi)生機構以及企業(yè)都具有倫理審查義務。通過全面的歸責,人工智能的開發(fā)、應用、商業(yè)化、日常使用的全過程,都有相應的義務承擔者,對可能出現(xiàn)的權利沖突進行了有效的厘清。
2.3義務的系統(tǒng)性
在具體義務方面,我國立法特別重視人工智能技術發(fā)展的情景性,并將人工智能義務主體的責任延伸至人工智能開發(fā)和應用的全過程,這極大地保障了社會公眾利益、個人權利和人權標準與技術的和諧治理與共融發(fā)展。
在推出新的人工智能產(chǎn)品、服務或應用程序前,主要的義務包括算法的備案、安全評估、應用程序分發(fā)平臺的程序性審查、以及從事某些研發(fā)活動的開發(fā)者的倫理審查。在生成式人工智能方面,我國的法規(guī)也特別強調訓練數(shù)據(jù)、數(shù)據(jù)標注過程對于個人信息等權利的尊重,并且要求開發(fā)者采取有效措施提高訓練數(shù)據(jù)質量,增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性。
在人工智能產(chǎn)品、服務或應用程序的日常運營期間,主要的義務包括積極和禁止性義務兩類:前者包括遵守法律法規(guī),尊重社會公德和倫理,遵守商業(yè)道德和職業(yè)道德,遵循公正公平、公開透明、科學合理和誠實信用的原則等;而后者包括不得利用算法推薦服務進行虛假注冊賬戶、非法交易賬戶、虛假點贊、轉發(fā)和評論、非法屏蔽信息、過度推薦、操縱榜單等各種近年來社會關注的爭議行為,其根本目的在于規(guī)制網(wǎng)絡輿論操縱等對社會公益、個人權利的挑戰(zhàn)。其他的禁止性規(guī)定也包括對不正當競爭等的規(guī)制等。
最后,在人工智能的使用方面,我國法規(guī)也特別關注了對于用戶、消費者中未成年、老年人和勞動者群體權益的保護。例如,就算法服務的提供,用戶不被差別待遇的權利在實務界和學術界廣泛討論后被納入規(guī)制;對于未成年人,義務人不得設置誘導用戶沉迷、并且應當采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務;特別關注向老年人提供服務的義務人,強調其應當保障老年人依法享有的權益,充分考慮老年人出行、就醫(yī)、消費、辦事等需求;而面對平臺經(jīng)濟和各種用工的新業(yè)態(tài),我國也通過人工智能治理充分保障勞動者權利,強調向勞動者提供工作調度服務的,應當保護勞動者取得勞動報酬、休息休假等合法權益。
3.人工智能與人權沖突
盡管人工智能技術帶來了巨大的便利和效率,但同時也引發(fā)了一系列人權方面的擔憂:人工智能的決策過程往往缺乏透明度,特別是極速發(fā)展的生成式人工智能已經(jīng)造成了現(xiàn)實的風險,尤其是在涉及個人隱私和數(shù)據(jù)保護方面;人工智能的廣泛應用也已經(jīng)在相當程度上加劇了社會不平等,強化了歧視,形成了某些大規(guī)模的系統(tǒng)侵害。國際社會和各國政府普遍認為,對于人權的關注不僅不會阻礙創(chuàng)新,也為監(jiān)管人工智能提供了一個可信框架。
面對人工智能和人權之間復雜而微妙的關系,中國的立法已經(jīng)形成了世界范圍內最系統(tǒng)的先行經(jīng)驗,通過有效規(guī)范人工智能的全面過程,中國的人工智能治理充分保障社會利用人工智能帶來的益處、擴大正向效益、促進創(chuàng)新發(fā)展,同時,又通過合理的政策和法律手段,實現(xiàn)技術進步與人權保護的平衡,不斷確保人工智能技術為社會的可持續(xù)發(fā)展服務。
?。ㄗ髡撸河诩t運,斯坦福大學法律與科技中心研究員)

京公網(wǎng)安備 11010102003980號