近年來,人工智能技術(shù)快速發(fā)展,正深刻改變著人類生產(chǎn)生活方式,也影響著青少年兒童的學習與生活,在創(chuàng)造發(fā)展機遇的同時,也催生出一些風險和挑戰(zhàn)。比如隨著情感陪伴類應(yīng)用軟件的大量出現(xiàn),未成年人深度依賴人工智能,在道德標準和價值判斷方面容易被不良導向侵蝕,不利于其價值觀的培養(yǎng)和形成。這些問題引發(fā)了大量關(guān)注。在安全可控前提下實現(xiàn)人工智能技術(shù)的高質(zhì)量使用,亟須從法律層面定邊界、壓責任、強約束。
完善一體化治理?路徑
當前,我國已構(gòu)建較為完整的法律制度框架:以未成年人保護法、個人信息保護法、網(wǎng)絡(luò)安全法為基礎(chǔ),銜接《未成年人網(wǎng)絡(luò)保護條例》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》,對面向未成年人的使用時間、權(quán)限、消費管理,以及防沉迷措施等作出明確要求。
但是,與生成式人工智能在未成年人生活場景中的快速滲透相比,上述規(guī)范性文件仍存在短板。一是對象與場景細化不足,未明確列舉“未成年人專用模式”最低功能,監(jiān)護同意與學校授權(quán)的邊界不夠明晰;二是平臺義務(wù)的工程化與可驗證性不足,準入分級、顯著標識、風險提示等口徑不一,執(zhí)行差異較大;三是救濟的及時性與可及性不足、證據(jù)規(guī)則有待完善,電子數(shù)據(jù)采信與行為保全缺乏統(tǒng)一、可復(fù)制、可推廣的適用指引。
為此,有必要在現(xiàn)行法律制度框架下,統(tǒng)籌制度規(guī)則,完善可執(zhí)行、可核驗、可追責、可救濟的一體化治理路徑,給未成年人使用生成式人工智能裝上“法治護欄”。
從法律層面定邊?界、壓責任、強約束
平臺技術(shù)規(guī)范應(yīng)在法律制度框架下明確權(quán)利義務(wù)關(guān)系、責任承擔與程序規(guī)則等內(nèi)容,使平臺義務(wù)、家校共治與司法救濟形成閉環(huán),讓技術(shù)回歸“助學不代學、賦能不綁架”。
明確權(quán)與責的法律邊界。對于未成年人使用的場景,應(yīng)實行“可用—試用—禁用”分類,配套“清單管理+分級授權(quán)”,細化監(jiān)護人同意與學校授權(quán)邊界;平臺對“明知或應(yīng)知”是未成年用戶而未盡審慎義務(wù)的,應(yīng)依據(jù)未成年人保護法的網(wǎng)絡(luò)保護專章、未成年人網(wǎng)絡(luò)保護條例相關(guān)條款等依法追責,形成可預(yù)期的責任邊界。
建立健全準入分級與顯著標識制度。實行“白名單—負面清單—分級標識”的準入與展示:安全、教育價值明確的納入白名單;長程聯(lián)網(wǎng)、持久記憶、群體畫像等高風險能力列入負面清單或以“特別許可”限場景、時段使用;其余產(chǎn)品按風險等級醒目標注,便于家長和師生快速識別。
進一步明確平臺義務(wù)與安全默認。將“安全即默認”寫入平臺法定義務(wù)與產(chǎn)品基線,比如應(yīng)將前置風險評估、顯著標識、留痕可審計、快速處置與申訴復(fù)核等納入憑條技術(shù)規(guī)范。對于一些存在嚴重風險的情形,依法采取功能降級、限期整改、暫?;蛳录艿入A梯式懲戒,提升違法成本。推動將平臺技術(shù)規(guī)范與《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等關(guān)于安全評估、監(jiān)督檢查、日志留存與(算法)備案等規(guī)定銜接執(zhí)行。
完善電子證據(jù)規(guī)則與司法救濟制度。完善電子證據(jù)保全與行為保全銜接,打通“發(fā)現(xiàn)—認定—舉證—裁判”快速通道;對誘導沉迷、仿聲仿臉、人格權(quán)受侵害等情形,建立“先行禁令+即時止損”機制,支持在線申請、跨域協(xié)作保全與結(jié)果互認,提升救濟可及性與時效。
建設(shè)長效協(xié)同機制
面對生成式人工智能,對未成年人最有力的保護不是“禁絕”應(yīng)用,而是通過修改配套規(guī)章及完善國家標準,對生成式人工智能應(yīng)用予以規(guī)范化管理。督促平臺認真履行責任,規(guī)范發(fā)展,并督促家校切實履行對未成年人的監(jiān)管職責,將生成式人工智能的發(fā)展對未成年人的負面影響降到最低。
為此,應(yīng)建設(shè)長效化協(xié)同機制,推動家校簽署生成式人工智能正當使用合約,明確可用場景、禁止清單與處置辦法。
同時,平臺還需要強化兩項支撐能力。
一是加強對生成式人工智能應(yīng)用的科學管理。教育主場景優(yōu)先使用本地模型;開展校園域外鏈安全體檢,命中高風險即聯(lián)動撤回并全程留痕;建立執(zhí)法協(xié)查接口;允許開發(fā)者在發(fā)現(xiàn)新版本有問題時,快速恢復(fù)到之前穩(wěn)定的工作版本,實現(xiàn)“制度能落地、能力可調(diào)用”。
二是在使用過程中,平臺應(yīng)強化設(shè)定邊界、保留證據(jù)、自主校驗的基礎(chǔ)能力。配套可量化的治理工具,比如將依賴度指數(shù)、融合時長、對話深度等形成分位指標,越線可觸發(fā)家校聯(lián)動干預(yù)與個別化干預(yù)。再比如,對于高強度情感交流,平臺可默認關(guān)閉回應(yīng),長時間對話將觸發(fā)情感強度降級,進而降低未成年人對其的依賴性。
(作者:王磊,系黑龍江大學計算機與大數(shù)據(jù)學院〔網(wǎng)絡(luò)安全學院〕教授)

京公網(wǎng)安備 11010102003980號