19日在西南政法大學舉行的2025·亞洲人權論壇上,人工智能(AI)治理成為論壇討論焦點。針對AI帶來的隱私、算法歧視等問題,有人權專家建議完善法律法規(guī),推動跨國協(xié)同立法,并建立多元共治機制,平衡技術創(chuàng)新與人權保障。
“人工智能在應用中有可能侵害人類的生命權、健康權、財產(chǎn)權、勞動權、隱私權、平等權等,數(shù)據(jù)過度收集、數(shù)據(jù)濫用、數(shù)據(jù)跨境傳輸都有可能帶來侵害人權的問題。”北京理工大學科技人權研究中心執(zhí)行主任、法學院教授肖君擁舉例稱,人工智能工具在提升效率的同時有可能使決策者成為技術的附庸,削弱專業(yè)化的思維,比如說醫(yī)療領域里面存在雙重的誤診風險。對于應對這些風險的法治化路徑,他提出要加強人工智能人權風險的立法保障、社會防控,此外還要加強技術管控和國際合作。
針對國家法律是否能夠為約束和監(jiān)管AI活動而開展跨境工作,蒙古國立大學法學院副教授烏揚加·邁阿馬爾在線上發(fā)言稱,AI監(jiān)管是個嚴峻問題,國際社會已起草多份文件進行回應,例如聯(lián)合國、歐盟等機構都制定了相應的法律和條例。同時,世界多國在立法方面也在跟進,這表明國際社會都在加速構建AI治理體系和監(jiān)管體系。“國際法能夠跟上AI的快速演變,所以在國際層面需要多做努力來確保公約和國際協(xié)議能夠保障人權。”
“科技競爭是如今世界各國進行博弈的主戰(zhàn)場和前沿陣地。在此背景下,應把人權納入全球治理視野中,用人權來‘馴化’科技競爭,確保科技發(fā)展的利益公平普享。”吉林大學法學院教授、人權研究院副院長劉紅臻表示,以AI技術為例,其科技倫理和技術標準尚未建立全球化的統(tǒng)一標準,規(guī)則制定應強調共商、共建和共享,保證所有國家平等參與,建立開放包容、和平安全的科技治理秩序。
隨著人工智能產(chǎn)業(yè)的發(fā)展,“主權AI”與“AI主權”的概念區(qū)分及其對產(chǎn)業(yè)發(fā)展的影響也引起業(yè)界關注。西南政法大學人工智能法學院博士張翔認為,“主權AI”本質上是一種技術控制工具,以地緣政治競爭為核心,而“AI主權”本質上是一種治理框架,融合技術、法律與倫理規(guī)則。未來,發(fā)展中國家需平衡技術自主與人權保護之間的關系,避免陷入“數(shù)字陷阱”;國際合作也應積極推動開源生態(tài)與多元價值共存。

京公網(wǎng)安備 11010102003980號