編者按
?
為落實中共中央宣傳部、教育部、科技部印發(fā)《關(guān)于推動學(xué)術(shù)期刊繁榮發(fā)展的意見》精神,順應(yīng)媒體融合發(fā)展趨勢,積極適應(yīng)移動化、智能化發(fā)展方向,《法律適用》推出網(wǎng)絡(luò)優(yōu)先出版等新型出版模式。目前,已于“中國知網(wǎng)”上線最新一期《法律適用》知網(wǎng)全部首發(fā)文章,并于微信公眾平臺同步推出,敬請關(guān)注!
AI善治學(xué)術(shù)工作組
AI善治學(xué)術(shù)工作組,執(zhí)筆人包括:張凌寒,中國政法大學(xué)數(shù)據(jù)法治研究院教授;楊建軍,西北政法大學(xué)法治學(xué)院教授;文禹衡,湘潭大學(xué)法學(xué)學(xué)部副教授;程瑩,中國信通院政策與經(jīng)濟研究所主任工程師;鄭志峰,西南政法大學(xué)民商法學(xué)院教授;趙精武,北京航空航天大學(xué)法學(xué)院副教授;韓旭至,華東政法大學(xué)數(shù)字法治研究院副院長;徐小奔,中南財經(jīng)政法大學(xué)知識產(chǎn)權(quán)研究中心研究員、法學(xué)院副教授。本文系司法部2024年度法治建設(shè)與法學(xué)理論研究部級科研項目重點課題“人工智能時代網(wǎng)絡(luò)空間安全風(fēng)險識別與法律應(yīng)對”(項目編號:24SFB1011)的階段性成果。
文章發(fā)表于《法律適用》2025年第3期“年度綜述”欄目,第146-166頁。因文章篇幅較長,為方便電子閱讀,已略去原文注釋。
?
摘要2024年可視為中國人工智能法治研究的新元年,進一步夯實了人工智能法治研究的中國敘事結(jié)構(gòu)和自主知識體系。在研究議題上,呈現(xiàn)出“續(xù)章出新篇”的特點。在“續(xù)章”方面,決策式人工智能(算法)持久不衰,人工智能生成內(nèi)容的版權(quán)問題重者恒重,智慧司法、自動駕駛、具身智能和元宇宙等人工智能應(yīng)用場景平分秋色,人工智能法律責(zé)任研究仍然側(cè)重民刑。在“新篇”方面,生成式人工智能風(fēng)險治理堪稱學(xué)術(shù)熱點,人工智能數(shù)據(jù)語料庫建設(shè)成為焦點,人工智能法治進入研究元年。
關(guān)鍵詞
中國法學(xué)自主知識體系 生成式人工智能 人工智能訓(xùn)練 人工智能立法 決策式人工智能 人工智能生成內(nèi)容

?
引言:人工智能法治研究的新元年在人工智能重塑全球治理格局的過程中,構(gòu)建中國人工智能自主知識體系是不可回避的重大命題。我國法學(xué)界一開始就有構(gòu)建中國人工智能自主知識體系的自覺,逐漸擺脫西方法學(xué)范式移植和法律路徑依賴,注重立足本土法治資源和實踐問題,在傳統(tǒng)法學(xué)與現(xiàn)代科技的張力中尋找人工智能治理的創(chuàng)新突破口,形成了“以人為本—AI善治”的價值坐標(biāo)。從知識生產(chǎn)維度來看,2017—2023年人工智能法治研究所凝聚的智識,已經(jīng)相繼體現(xiàn)在2019年的《新一代人工智能治理原則》和2023年的《全球人工智能治理倡議》之中,形成了人工智能法治的中國敘事和東方智慧。
2017年興起的人工智能法治研究熱潮,以高被引文章《人工智能時代的制度安排與法律規(guī)制》為標(biāo)志,可謂之“元年”。2024年,人工智能法治研究進入了“新元年”,這意味著人工智能法治研究已經(jīng)從“前沿?zé)狳c”成為不可忽視的主流學(xué)術(shù)討論主題。具體體現(xiàn)在以下兩個方面:第一,從CLSCI期刊文獻(xiàn)數(shù)量和增幅上看,2024年人工智能法治研究文獻(xiàn)總量達(dá)到2017—2023年文獻(xiàn)總量的33.35%,2024年人工智能法治研究發(fā)文量較2023年增加168篇,環(huán)比增長47.86%,增幅創(chuàng)歷史新高;第二,在2024年CLSCI期刊文獻(xiàn)中,人工智能法治研究成果也取得了歷史性突破,519篇文獻(xiàn)中的CLSCI期刊文獻(xiàn)量達(dá)136篇(占比26.20%),首次突破三位數(shù),較2023年增加65篇,環(huán)比增長91.55%。(見圖1)


?
一、人工智能法治研究的指導(dǎo)思想
當(dāng)今世界百年未有之大變局加速演進,全球創(chuàng)新版圖和經(jīng)濟結(jié)構(gòu)經(jīng)歷深刻調(diào)整。人工智能已經(jīng)成為國際激烈競爭的新焦點和各方搶占的制高點,世界主要發(fā)達(dá)國家紛紛加強人工智能謀劃部署,力圖在新一輪國際科技競爭中掌握主動權(quán)。目前,中國、歐盟、美國等均將人工智能立法提上議事日程。我國第十三屆、第十四屆全國人大常委會立法規(guī)劃將人工智能立法列入其中,國務(wù)院2023年、2024年也連續(xù)兩年將人工智能法草案列入年度立法計劃??v觀人類社會的發(fā)展歷程,每一次重大技術(shù)革命,都會帶來新的治理難題,給傳統(tǒng)法律框架帶來挑戰(zhàn),但也預(yù)示著國家治理的機遇和法治的進步。
人工智能是我國推進社會高質(zhì)量發(fā)展的重要發(fā)力點。***總書記強調(diào),“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,加快發(fā)展新一代人工智能是事關(guān)我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機遇的戰(zhàn)略問題”“加快發(fā)展新一代人工智能是我們贏得全球科技競爭主動權(quán)的重要戰(zhàn)略抓手,是推動我國科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升的重要戰(zhàn)略資源”?!吨泄仓醒腙P(guān)于進一步全面深化改革 推進中國式現(xiàn)代化的決定》(以下簡稱《決定》)指出,要“完善推動新一代信息技術(shù)、人工智能、航空航天、新能源、新材料、高端裝備、生物醫(yī)藥、量子科技等戰(zhàn)略性產(chǎn)業(yè)發(fā)展政策和治理體系,引導(dǎo)新興產(chǎn)業(yè)健康有序發(fā)展”。2024年《政府工作報告》首次提出了“人工智能+”行動,進一步明確了人工智能在國家發(fā)展戰(zhàn)略中的重要地位?!稕Q定》還強調(diào),要“加快形成同新質(zhì)生產(chǎn)力更相適應(yīng)的生產(chǎn)關(guān)系,促進各類先進生產(chǎn)要素向發(fā)展新質(zhì)生產(chǎn)力集聚”。人工智能作為引領(lǐng)未來的戰(zhàn)略性新興技術(shù),已經(jīng)成為發(fā)展新質(zhì)生產(chǎn)力、推動科技革命和產(chǎn)業(yè)升級的核心引擎,同時新質(zhì)生產(chǎn)力也成為推動新發(fā)展階段經(jīng)濟增長的新動能。
高水平安全也是我國推進人工智能技術(shù)產(chǎn)業(yè)發(fā)展的重要指導(dǎo)思想?!稕Q定》明確要求,“完善生成式人工智能發(fā)展和管理機制”“加強網(wǎng)絡(luò)空間法治建設(shè),健全網(wǎng)絡(luò)生態(tài)治理長效機制”“加強網(wǎng)絡(luò)安全體制建設(shè),建立人工智能安全監(jiān)管制度”,提出了加強人工智能法治的改革任務(wù)。近年來,我國陸續(xù)出臺《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》,在全球范圍內(nèi)率先開展人工智能領(lǐng)域的規(guī)范制定工作,發(fā)布《新一代人工智能倫理規(guī)范》《人工智能安全治理框架》,積極進行制度探索。2025年1月12日至13日,中央政法工作會議要求,善于通過科學(xué)立法解決新問題,針對重點領(lǐng)域、新興領(lǐng)域、涉外領(lǐng)域,司法部要主動研究提出立法建議。比如要研究無人駕駛、低空經(jīng)濟、人工智能、虛擬貨幣、數(shù)據(jù)權(quán)屬等新問題。
我國也積極參與全球人工智能治理合作,提出中國主張,作出中國貢獻(xiàn)。2024年7月1日,第78屆聯(lián)合國大會以協(xié)商一致方式通過了我國提出的加強人工智能能力建設(shè)國際合作決議,140多個國家參加決議聯(lián)署。這是全球首個聚焦人工智能能力建設(shè)的共識性文件,充分彰顯我國對人工智能發(fā)展和治理的負(fù)責(zé)任態(tài)度和重要引領(lǐng)作用。三天后,2024世界人工智能大會暨人工智能全球治理高級別會議發(fā)表《人工智能全球治理上海宣言》,提出要促進人工智能發(fā)展,維護人工智能安全,構(gòu)建人工智能治理體系,加強社會參與和提升公眾素養(yǎng),提升生活品質(zhì)與社會福祉。該宣言為全球人工智能的治理范式和治理路徑提供了新思路,得到各界積極響應(yīng)。我國遵循科技創(chuàng)新發(fā)展的規(guī)律,堅持發(fā)展與治理、創(chuàng)新與安全并重,在聯(lián)合國框架內(nèi)切實推動人工智能治理的國際合作,為全球人工智能發(fā)展和治理作出中國貢獻(xiàn)。
綜上,中國人工智能法治形成了以“發(fā)展”與“治理”為支點的自主知識體系。該自主知識體系有助于促進人工智能產(chǎn)業(yè)的健康發(fā)展和增進社會福祉,為中國在全球科技競爭中贏得戰(zhàn)略主動。歐美從互聯(lián)網(wǎng)時代積累形成的“技術(shù)先發(fā)優(yōu)勢”,已經(jīng)在人工智能時代被我國迎頭趕上。當(dāng)前,歐美等國家正以前所未有的速度加速推進人工智能領(lǐng)域的立法進程,力圖通過“率先”立法來確立并鞏固其在該領(lǐng)域的主導(dǎo)地位。面對這一發(fā)展趨勢,我國要應(yīng)勢而為,積極推動人工智能立法,構(gòu)筑參與人工智能全球治理的前提和基礎(chǔ)。人工智能立法也離不開自主知識體系的支撐,亟待學(xué)界進一步凝聚共識、沉淀夯實、豐富發(fā)展中國人工智能自主知識體系。2024年的人工智能法治研究成果正繼續(xù)為中國乃至全球的人工智能法治秩序體系建設(shè)進一步夯實和深化知識基礎(chǔ)和理論儲備。

?
二、生成式人工智能風(fēng)險治理堪稱學(xué)術(shù)熱點生成式人工智能的法治研究成果在2024年呈現(xiàn)爆發(fā)式增長,占據(jù)本年度人工智能法治研究成果總量的22.54%,倍增于2023年生成式人工智能論文成果總量。面對生成式人工智能對社會現(xiàn)實和社會意識的顛覆性影響,各領(lǐng)域?qū)W者從不同角度提出實踐法治問題,試圖建構(gòu)行之有效的分析框架。研究成果集中在五個主要領(lǐng)域,即生成式人工智能的風(fēng)險治理、版權(quán)因應(yīng)、侵權(quán)歸責(zé)、刑事規(guī)制和個人信息保護。其中,風(fēng)險治理議題熱度最高,可以歸納為制度沿用、風(fēng)險規(guī)制、治理轉(zhuǎn)型,折射了高自主性智能科技何以治理的現(xiàn)實隱憂。
(一)制度沿用:致力于適用現(xiàn)有法律規(guī)則
《生成式人工智能服務(wù)管理暫行辦法》作為全球第一部專門規(guī)制生成式人工智能的法律文本,引起了廣泛關(guān)注。但其性質(zhì)為部門規(guī)章,主要聚焦信息內(nèi)容安全問題,因此其私法上的地位、義務(wù)和責(zé)任仍有待研究。多數(shù)意見認(rèn)為,該辦法并未從私法上明確生成式人工智能服務(wù)提供者的法律性質(zhì),應(yīng)明確服務(wù)提供者為侵權(quán)法上的特殊責(zé)任主體,規(guī)定專門的免責(zé)機制,有條件地免除其賠償損失責(zé)任。不過,也有學(xué)者主張生成式人工智能侵權(quán)的加害人具有“不確定性和群體性”,侵權(quán)法“一對一的主體模式”適用空間有限,可將侵權(quán)責(zé)任歸屬于“人—機聯(lián)合體”,進而施加于人工智能的各參與者。
生成式人工智能服務(wù)提供者的注意義務(wù)可能來自“危險之先行行為引發(fā)的義務(wù)”“法令上義務(wù)”和“一般防范損害發(fā)生之義務(wù)”,且可通過概括預(yù)見能力判斷其注意義務(wù)。具體來說,注意義務(wù)主要包括語料處理義務(wù)、對齊微調(diào)義務(wù)、內(nèi)容審查義務(wù)和用戶管理義務(wù)。此外,民法典上的通知規(guī)則要求服務(wù)提供者負(fù)有“避免致害內(nèi)容再次生成的義務(wù)”;民法上的誠實信用原則與經(jīng)濟法上的產(chǎn)品信息披露義務(wù)為生成式人工智能生成內(nèi)容的標(biāo)識義務(wù)提供了“自律”與“他律”的法律依據(jù)。
在著作權(quán)方面,有研究提出由于著作權(quán)侵權(quán)領(lǐng)域的接觸規(guī)則失靈,對接觸的證明將轉(zhuǎn)變?yōu)閷^錯的證明。此外,應(yīng)類型化設(shè)置“避風(fēng)港規(guī)則”適用的責(zé)任豁免規(guī)則,形塑選擇性適用著作權(quán)合理使用規(guī)則的阻卻違法事由認(rèn)定機制。
(二)風(fēng)險規(guī)制:尊重技術(shù)特性并立足現(xiàn)實國情
大模型的數(shù)據(jù)訓(xùn)練和部署應(yīng)用會引發(fā)不同的風(fēng)險,各自的風(fēng)險根源在于“訓(xùn)練數(shù)據(jù)的質(zhì)量問題和敏感性”和“模型被濫用、模型的負(fù)外部性和通用性”。生成式人工智能除了大模型相關(guān)風(fēng)險以外,還存在個人信息與著作權(quán)保護風(fēng)險、內(nèi)容錯誤的誤導(dǎo)風(fēng)險,以及算法偏見、失控和濫用風(fēng)險。此外,ChatGPT-4在運行過程中表現(xiàn)出來的各種內(nèi)生性缺陷,使其極易發(fā)生數(shù)據(jù)泄露、數(shù)據(jù)污染、數(shù)據(jù)侵權(quán)等方面的刑事法律風(fēng)險。
風(fēng)險規(guī)制以全面識別和預(yù)防為核心理念,為此需要健全風(fēng)險識別與評估、預(yù)警與救濟等全鏈條治理機制,將生成內(nèi)容、數(shù)據(jù)信息、模型算法一并納入規(guī)制,形成三位一體的完整閉環(huán)規(guī)制策略,以將生成內(nèi)容的潛在風(fēng)險降到最低程度。借鑒域外經(jīng)驗,可讓行業(yè)協(xié)會、研究機構(gòu)等“中間行為者”發(fā)揮規(guī)制作用,采取“自中而外的規(guī)制方法”建立合作型規(guī)制空間。不過,在借鑒域外法時需要注意,歐盟集中統(tǒng)一式的風(fēng)險分級分類方案具有不科學(xué)、僵化等問題,對生成式人工智能與大模型的規(guī)制也不盡合理。我國應(yīng)堅持對人工智能風(fēng)險的場景化規(guī)制,將人工智能應(yīng)用者或其構(gòu)成產(chǎn)品作為風(fēng)險規(guī)制的對象,而對人工智能系統(tǒng)及其提供者,則主要關(guān)注國家安全、重大公共安全規(guī)制與其他領(lǐng)域的自我規(guī)制。
(三)治理轉(zhuǎn)型:場景治理宏觀且尚未形成理念共識
生成式人工智能作為生產(chǎn)工具改變了社會生產(chǎn)生活的形態(tài),引發(fā)了超出現(xiàn)行法律規(guī)制的新生問題,并導(dǎo)致私人技術(shù)資本逐步成為數(shù)字空間的真實權(quán)力擁有者;“本體論身份引發(fā)的價值張力、訓(xùn)練數(shù)據(jù)的代表性偏差與安全系統(tǒng)被動保護”也帶來了技術(shù)治理的三重困境。生成式人工智能的法治問題是典型的“科林格里奇困境”,因此從“規(guī)制”到“治理”的轉(zhuǎn)型,成為生成式人工智能法治研究的重要方向。例如,大型語言模型及相關(guān)應(yīng)用的法律風(fēng)險治理面臨微觀和宏觀層面的系列挑戰(zhàn),需要平衡多方面的目標(biāo),應(yīng)當(dāng)基于包容審慎監(jiān)管、分層治理、深度治理和敏捷治理的路徑對大型語言模型的法律風(fēng)險治理開展謹(jǐn)慎、靈活的探索性制度實踐,進而逐步完善生成式人工智能的風(fēng)險治理體系。
在理念方面,人工智能的法律治理首先要融入“共治”的理念,既要著眼人工智能的社會意義,又要體現(xiàn)廣泛的社會性和人的固有價值。還可借鑒“憲法人工智能”的基本理念,構(gòu)建“動態(tài)的內(nèi)容反饋評估機制”以實現(xiàn)生成內(nèi)容治理的路徑矯正。在不同治理場景中,要克服傳統(tǒng)規(guī)制理念和手段對治理生成式人工智能存在的路徑偏差。例如,“以審慎原則,發(fā)展原則、生態(tài)原則為核心的規(guī)制理念”可以應(yīng)對生成式人工智能數(shù)據(jù)污染的治理需求;再如,強化算法歧視治理、明確算法的輔助性地位和實現(xiàn)決策過程的透明化的治理路徑有助于防范生成式人工智能輔助行政決策的算法隱患;又如,治理生成式人工智能虛假信息應(yīng)在不同階段設(shè)置不同的處置主體和處置手段,應(yīng)盡早介入,實施精準(zhǔn)處置,實現(xiàn)有效反制,采取全鏈條式治理策略。
綜上,生成式人工智能風(fēng)險治理的議題展現(xiàn)百花齊放的態(tài)勢,通過引入域外經(jīng)驗或借鑒跨學(xué)科知識,誕生了多種的新型治理理念、治理原則和治理框架,在治理強度與方法上存在較多分歧。在不同學(xué)術(shù)觀點的精彩碰撞中,學(xué)者對本領(lǐng)域研究方向達(dá)成了一定的共識,生成式人工智能法治思路初具雛形,在法治軌道上進行技術(shù)創(chuàng)新成為治理前提,生成式人工智能的內(nèi)容生產(chǎn)成為治理關(guān)鍵。風(fēng)險治理仍是人工智能立法的基礎(chǔ)性問題之一,未來有必要圍繞風(fēng)險規(guī)制的法治理念、策略、方案和規(guī)則等多個層面持續(xù)開展精細(xì)化研究。相比于人工智能,生成式人工智能并非新事物,人工智能法治研究“舊瓶”,仍可裝生成式人工智能“新酒”。接下來的研究應(yīng)著重厘清生成式人工智能和人工智能在法治底層邏輯上的關(guān)系,共性部分可直接援引人工智能法治研究成果,而不應(yīng)“重復(fù)造輪子”,個性部分應(yīng)展開充分的對話式研究,盡早求取“最大公約數(shù)”或形成互補性共識。

?
三、人工智能訓(xùn)練數(shù)據(jù)語料庫建設(shè)成為焦點在聚焦于人工智能訓(xùn)練數(shù)據(jù)語料庫建設(shè)的主題文獻(xiàn)中,法學(xué)類期刊被引總量最多、出版類單篇被引最高,研究內(nèi)容主要包括版權(quán)保護、數(shù)據(jù)權(quán)利和個人信息保護三大方面。
(一)版權(quán)保護的“合理使用”與“版權(quán)許可”之爭
“合理使用”是解決人工智能訓(xùn)練數(shù)據(jù)版權(quán)保護問題的“多數(shù)說”。人工智能訓(xùn)練數(shù)據(jù)中對版權(quán)作品的使用屬于“非表達(dá)性”或“轉(zhuǎn)換性”使用,構(gòu)成合理使用,且著作權(quán)合理使用應(yīng)作為數(shù)據(jù)訓(xùn)練著作權(quán)侵權(quán)規(guī)制路徑的最優(yōu)解。在立法上,應(yīng)完善合理使用條款。具體路徑上,可在著作權(quán)法中加入“為人工智能數(shù)據(jù)訓(xùn)練使用他人已經(jīng)發(fā)表的作品”的合理使用條款;或在《著作權(quán)法實施條例》中增設(shè)計算機分析的合理使用類型,并通過三步檢驗法予以限制;或者是建立安全港制度,引入科研和業(yè)務(wù)改進例外的數(shù)據(jù)合理使用制度,進一步細(xì)化公開數(shù)據(jù)利用規(guī)則。在司法上,明確合法性認(rèn)定條件。可通過司法判例明確網(wǎng)絡(luò)數(shù)據(jù)來源合法性認(rèn)定條件,協(xié)調(diào)版權(quán)規(guī)則確定線下數(shù)據(jù)使用合理性制度邊界,構(gòu)建開放機制滿足公共數(shù)據(jù)參與語料庫建設(shè)的需求。
“版權(quán)許可”是解決人工智能訓(xùn)練數(shù)據(jù)版權(quán)保護問題的“少數(shù)說”。一是法定許可,提出將用戶訓(xùn)練算法使用作品的行為納入法定許可范圍,建構(gòu)包括“法定特殊情形+定價”兩部分的生成式人工智能預(yù)訓(xùn)練法定許可使用制度,并設(shè)立專門的集體管理組織負(fù)責(zé)著作權(quán)許可使用費的收取、轉(zhuǎn)付及維權(quán)。二是授權(quán)許可,提出建立一套整體協(xié)調(diào)但內(nèi)部區(qū)隔的模塊化授權(quán)許可機制,強調(diào)大型企業(yè)主動建立版權(quán)許可機制,以公平、合理、無歧視的方式進行授權(quán)聲明。此外,還有觀點提出基于自發(fā)于市場的“作者-內(nèi)容提供商-人工智能服務(wù)商”授權(quán)許可模式,引入版權(quán)人“選擇退出”機制,并適用避風(fēng)港規(guī)則。
(二)創(chuàng)新探索數(shù)據(jù)權(quán)利保護路徑
人工智能數(shù)據(jù)訓(xùn)練行為不必然構(gòu)成合理使用,數(shù)據(jù)權(quán)益難以被版權(quán)法周延保護。為此,可以通過數(shù)據(jù)產(chǎn)權(quán)路徑,借助數(shù)據(jù)許可等拓寬持有者授權(quán)渠道,設(shè)置經(jīng)營者和加工者特定義務(wù),兼顧數(shù)據(jù)效能釋放和主體權(quán)益保護。具體而言,應(yīng)在保障訓(xùn)練數(shù)據(jù)來源者的在先權(quán)利基礎(chǔ)上,使訓(xùn)練數(shù)據(jù)處理者享有訓(xùn)練數(shù)據(jù)持有權(quán)、使用權(quán)和經(jīng)營權(quán),與共同處理者分享平行的訓(xùn)練數(shù)據(jù)權(quán)利,并根據(jù)法律規(guī)定或合同約定負(fù)有向訓(xùn)練數(shù)據(jù)需求者提供訓(xùn)練數(shù)據(jù)的義務(wù),由此實現(xiàn)訓(xùn)練數(shù)據(jù)權(quán)利的模塊化設(shè)計。
(三)邁向包容審慎的個人信息保護
在生成式人工智能大模型的訓(xùn)練中,有關(guān)個人隱私、個人識別信息、醫(yī)療健康、生物信息等的敏感數(shù)據(jù)不應(yīng)納入訓(xùn)練數(shù)據(jù),除非在個人同意的情況下經(jīng)過去標(biāo)識化和去敏感性處理。應(yīng)在此基礎(chǔ)上,完善個人信息保護法規(guī)制,具體措施包括拓展個人信息處理的合法性基礎(chǔ)、改造告知同意機制、實施個人信息保護影響評估等。此外,還要強調(diào)以行政監(jiān)管為主導(dǎo)的保護機制,側(cè)重服務(wù)提供者的技術(shù)保護等義務(wù)。
綜上,人工智能訓(xùn)練數(shù)據(jù)語料庫建設(shè),需要在合理平衡好各方利益的基礎(chǔ)上才能實現(xiàn)“可持續(xù)”。毋庸置疑,個人信息應(yīng)當(dāng)受到保護,但在數(shù)據(jù)利益上,到底是通過版權(quán)保護,還是數(shù)據(jù)權(quán)利保護,學(xué)界眾說紛紜,有待達(dá)成共識。在未來,人工智能訓(xùn)練數(shù)據(jù)語料庫建設(shè)需要從以下三方面深入拓展。一是個人信息保護規(guī)則的細(xì)化,如個人信息分類分級保護、個人信息保護的具體評估標(biāo)準(zhǔn)等。二是形成利益保護共識,需確定是版權(quán)保護、數(shù)據(jù)權(quán)利保護的單一路徑,還是二者兼顧的多元路徑。三是完善配套規(guī)則,如人工智能訓(xùn)練數(shù)據(jù)的版權(quán)信息披露范圍、自由度、標(biāo)準(zhǔn)、例外等,人工智能訓(xùn)練數(shù)據(jù)中的數(shù)據(jù)安全保護分類分級、監(jiān)管制度等,以及包括倫理嵌入、技術(shù)保護能力提高等方面在內(nèi)的人工智能訓(xùn)練數(shù)據(jù)的協(xié)同治理。

?
四、人工智能立法進入研究元年由于立法議題的特殊性,相關(guān)研究成果主要集中在法學(xué)領(lǐng)域。現(xiàn)有研究內(nèi)容涵蓋人工智能立法的價值基礎(chǔ)、基本路徑、體系化構(gòu)建和倫理治理模式,以及人工智能在交通、教育、產(chǎn)品責(zé)任等具體應(yīng)用場景下的立法探討。不過,我國人工智能立法的定位和目標(biāo)、模式和路徑、框架和支撐等基礎(chǔ)性問題亟待解決。(一)立法的定位和目標(biāo)第一,立法定位。我國在實踐中快速形成了“科技和產(chǎn)業(yè)發(fā)展”和“信息內(nèi)容管理”兩種不同的人工智能立法定位,我國應(yīng)將人工智能納入前沿科技和新質(zhì)生產(chǎn)力范疇進行定位,以推動科技創(chuàng)新和產(chǎn)業(yè)創(chuàng)新深度融合?;蛘哒f,我國需要在立法層面實現(xiàn)從“技術(shù)安全法”到“促進技術(shù)創(chuàng)新”的重心轉(zhuǎn)變,建構(gòu)基于綜合治理范式的“人工智能技術(shù)促進法”。不過,也有學(xué)者主張“安全”元素,認(rèn)為人工智能立法應(yīng)當(dāng)包含促進法、安全法與程序法的三重定位,以及認(rèn)為人工智能法應(yīng)當(dāng)以發(fā)展與安全并重為指導(dǎo)思想。總體上講,人工智能法應(yīng)當(dāng)定位于基本法并充分發(fā)揮其高階引領(lǐng)作用,具體應(yīng)采取“立總則、廓主線、留接口、適時靈活推進”的“總則式”進路。第二,立法目標(biāo)。人工智能已經(jīng)成為當(dāng)前國際技術(shù)競爭與規(guī)則競爭的關(guān)鍵領(lǐng)域。圍繞發(fā)展應(yīng)用之目標(biāo),一是須知“不發(fā)展是最大的不安全”,我國應(yīng)當(dāng)高擎發(fā)展旗幟,系統(tǒng)部署促進人工智能技術(shù)產(chǎn)業(yè)發(fā)展的專門制度,充分促進人工智能技術(shù)在生產(chǎn)生活中的應(yīng)用;二是通過可信人工智能的理論檢視和制度建構(gòu),破除人工智能發(fā)展應(yīng)用之最大障礙,從根本上推動人工智能技術(shù)的應(yīng)用和發(fā)展。圍繞技術(shù)促進之目標(biāo),我國應(yīng)當(dāng)避免單一治理范式的局限,構(gòu)建“風(fēng)險預(yù)防—市場激勵—創(chuàng)新資源保障”相結(jié)合的綜合治理框架。此外,人工智能的有效治理是法律、倫理、市場和技術(shù)標(biāo)準(zhǔn)等多種工具融合運用的結(jié)果,法律并非唯一有效的工具,應(yīng)當(dāng)推動科技倫理的法治化。該問題上的分歧在于分析框架和論證邏輯。部分學(xué)者立足于我國人工智能產(chǎn)業(yè)“領(lǐng)先的追趕者”的獨特地位,推衍出發(fā)展為先的立法目標(biāo)和包容審慎的治理原則。部分學(xué)者則以我國人工智能治理實踐中快速形成的兩種立法定位為邏輯起點,深入分析二者優(yōu)劣,并結(jié)合技術(shù)特性及治理趨勢,深刻論證我國人工智能法的合理定位。還有學(xué)者主張明確可信人工智能是我國人工智能立法的重要方向,可信人工智能法律建構(gòu)之關(guān)鍵在于遵循以人為本、人類主導(dǎo)、技術(shù)中立等外在準(zhǔn)則和透明、安全、可問責(zé)等內(nèi)在準(zhǔn)則,捍衛(wèi)現(xiàn)代法治的傳統(tǒng)和憲法確認(rèn)的公民的基本權(quán)利,維護人類福祉。應(yīng)當(dāng)說,學(xué)者之間已經(jīng)形成較大共識,普遍承認(rèn)人工智能法具有風(fēng)險治理(安全)和技術(shù)促進(發(fā)展)的雙重屬性,并認(rèn)為在當(dāng)下科技變革和國際競爭之特殊時代,我國應(yīng)將人工智能法主要定位為“技術(shù)促進和產(chǎn)業(yè)發(fā)展法”,以法律制度破除發(fā)展桎梏、推動技術(shù)進步。(二)立法的模式和路徑關(guān)于立法模式和路徑,學(xué)者觀點存在明顯分歧。一派贊同集中統(tǒng)一式立法模式,主張為促進人工智能高質(zhì)量發(fā)展與高水平安全單獨立法。整體策略上,由全國人大常委會以人工智能為主題的綜合性法律為主進行統(tǒng)一立法,根據(jù)人工智能不同應(yīng)用場景和生命周期分別開展配套法規(guī)立法。在具體路徑上,主要有三種不同主張。其一,注重務(wù)實。借由靈活的立法形式,應(yīng)對立法與科技發(fā)展之間的時效差異。也就是說,可以考慮通過靈活的載體形式,以小快靈立法、全面性立法乃至法典化等形式適時、穩(wěn)步推進。其二,優(yōu)化層次。借由分層治理的思路,應(yīng)對技術(shù)更新、產(chǎn)業(yè)迭代帶來的問題。具體而言,“人工智能法”應(yīng)當(dāng)是我國人工智能領(lǐng)域的基本法律,旨在定基調(diào)、明方向,僅對立法目的、調(diào)整對象、基本原則、重要制度以及一般規(guī)則等基礎(chǔ)性問題予以明確,具體的細(xì)節(jié)制度應(yīng)在時機成熟時、實踐檢驗下通過行政法規(guī)、部門規(guī)章等規(guī)范性文件以及國家標(biāo)準(zhǔn)等確定。其三,引入“系統(tǒng)—控制論”。在法律體系化方法中嵌入“系統(tǒng)—控制論”原理來整合領(lǐng)域立法素材,并以人工智能“研發(fā)—生產(chǎn)—服務(wù)—使用”節(jié)點為橫軸,以“具體風(fēng)險控制”和“抽象權(quán)利保護”兩種控制模式為縱軸,構(gòu)筑人工智能立法制度譜系的基本線索。另一派則贊同分散場景式立法模式,主張對人工智能風(fēng)險實施場景化規(guī)制。以解決具體問題為目標(biāo)進行分散式立法,保持靈活性、小步快跑,可由全國人大常委會就人工智能安全與發(fā)展涉及的重大原則問題先制定一份法律問題的決定,明確基本原則與方向,然后通過不同部門法的“立改廢釋”分別推進。同時,將人工智能風(fēng)險還原到具體的行業(yè)、整體產(chǎn)品與已有的法律關(guān)系中,利用已有的行業(yè)和領(lǐng)域性風(fēng)險監(jiān)管以及現(xiàn)有的法律關(guān)系對其進行監(jiān)管。例如,人工智能倫理審查制度宜在科技倫理治理框架內(nèi)單行立法。學(xué)者們在人工智能立法路徑上達(dá)成了部分共識,即強調(diào)在當(dāng)下階段保持立法的靈活性,先以“總則”“原則”或“框架”等形式明定方向、凝聚共識,為人工智能發(fā)展提供必要的制度保障,同時防止超前立法阻礙技術(shù)進步。(三)立法的框架和支撐在治理框架方面,我國人工智能立法應(yīng)當(dāng)厘清一個基本誤區(qū),即人工智能不能被假定為生成式人工智能,人工智能的技術(shù)路線與應(yīng)用方式十分龐雜,應(yīng)當(dāng)對其進行適當(dāng)區(qū)分,采取分層多支式的治理框架。人工智能的開發(fā)者與開發(fā)活動、提供者與提供活動、使用者與使用活動、監(jiān)管者與監(jiān)管活動,構(gòu)成了人工智能法調(diào)整對象的主客坐標(biāo),建議關(guān)注人工智能法對外的空間效力邊界,以及對內(nèi)的與人工智能要素法和人工智能應(yīng)用法的協(xié)調(diào)。在制度支撐方面,我國人工智能立法應(yīng)當(dāng)高度重視數(shù)據(jù)的基礎(chǔ)性地位,應(yīng)當(dāng)從建立完善的數(shù)據(jù)倫理體系、推動數(shù)據(jù)技術(shù)的負(fù)責(zé)任創(chuàng)新、邁向數(shù)據(jù)法律的整體性治理三個層次推進全面、系統(tǒng)的數(shù)據(jù)治理體系建設(shè)。此外,還應(yīng)當(dāng)融入倫理治理元素,通過樹立養(yǎng)成主義而非決斷主義的理念,將科技倫理框架有序轉(zhuǎn)換為法律治理方案。大體而言,我國學(xué)者就人工智能立法問題形成了兩個層次的共識:一為統(tǒng)一立法之共識,即建議采取集中統(tǒng)一式立法模式規(guī)制人工智能活動;二為立法定位之共識,即特別強調(diào)人工智能法之技術(shù)發(fā)展和產(chǎn)業(yè)促進定位,謹(jǐn)防立法過度對技術(shù)發(fā)展之阻抑。此外,具體制度之上的共識和分歧并存,包括分類管理制度、個人權(quán)益保障制度、國際合作制度等共識,而分類管理方案、個人權(quán)益類型、國際合作模式、發(fā)展支撐措施等制度設(shè)計層面則存在一定的分歧。總的來說,立法本身是一場復(fù)雜的利益平衡活動,人工智能立法是一個重大的理論和實踐問題,以下三個問題需要學(xué)界關(guān)注并形成更多的共識。第一,下沉到事實判斷問題之上,以符合社會生活實際為坐標(biāo),對涉及人工智能的利益關(guān)系去“假”存“真”;第二,深入到價值判斷問題之上,著重類型化討論哪些利益關(guān)系適合應(yīng)用人工智能法加以調(diào)整以及如何實現(xiàn);第三,細(xì)化到具體問題之上,這些利益關(guān)系如何通過人工智能立法的體例框架、內(nèi)容規(guī)則和配套制度等得以安放。這些問題亟需加強對話,以便立法時機一旦成熟即可供給智力資源。

?
五、決策式人工智能(算法)持久不衰以算法為代表的決策式人工智能,在2024年總發(fā)文量方面與上一年度基本持平,發(fā)文趨勢仍保持上升態(tài)勢,這意味著人工智能法治下的算法研究已經(jīng)度過了快速增長期,進入了相對穩(wěn)定的成熟階段,持續(xù)吸引著學(xué)界的關(guān)注與投入。圍繞“算法”展開的研究,已經(jīng)從“是什么”的基礎(chǔ)階段,進入了“如何管”的探索階段,已經(jīng)從初期的認(rèn)知轉(zhuǎn)向了更深層的應(yīng)用治理,跳出了“講概念、下定義”的框架,向更加系統(tǒng)化、精細(xì)化的方向發(fā)展,著重探尋有效的“規(guī)制之法”,這種研究動向也能從側(cè)面說明“算法治理”的持久熱度與重要程度。(一)算法治理的主客體二分積極倫理觀的樹立可以為算法技術(shù)向善的實現(xiàn)提供理論指引,但是欲實現(xiàn)算法科技倫理對算法行為的更好規(guī)制,就需要通過法律控制的思路以增強其外在約束力,這意味著法律在算法治理中起到獨特作用。在整體策略上,需要考慮到算法規(guī)制“從合法到可信”的轉(zhuǎn)向需求。具體而言,增強可信度意味著需要提高算法的可解釋性或者透明度。一方面,技術(shù)上制造可解釋人工智能是實現(xiàn)算法透明的一種新的選擇;另一方面,如果確因安全因素不予公開算法,則需要滿足利益沖突標(biāo)準(zhǔn)、價值比較標(biāo)準(zhǔn)與替代方案標(biāo)準(zhǔn)等三項利益衡量標(biāo)準(zhǔn)。需要認(rèn)識到,揭開算法面紗、露出隱藏的主體,以及規(guī)訓(xùn)僭越的客體是算法治理的關(guān)鍵。基于此,可歸納算法治理的兩大切入點,即圍繞主體展開的責(zé)任與義務(wù)配置,以及圍繞客體(算法)展開的應(yīng)用失范治理。在前者上,學(xué)界雖有爭議,但基本認(rèn)同算法背后的平臺是主要的歸責(zé)主體。然而,由此引申的平臺義務(wù)仍不能形成共識。以平臺注意義務(wù)為例,多數(shù)學(xué)者認(rèn)同應(yīng)提高平臺的注意義務(wù)。但如何提高,仍是見仁見智。例如,有學(xué)者建議“互聯(lián)網(wǎng)平臺在算法純粹輸出場景下無需承擔(dān)概括性的注意義務(wù),同時應(yīng)當(dāng)在算法流量傾斜場景下承擔(dān)更高的注意義務(wù)”。又如,還有學(xué)者主張分別從整體和個體層面出發(fā),對算法推薦服務(wù)提供者承擔(dān)較高注意義務(wù)的邊界進行系統(tǒng)劃定和完善衡量。在后者上,算法應(yīng)用失范依然主要表現(xiàn)為算法黑箱、算法共謀和算法歧視等,但是治理思路卻更加多元,大體上可歸納為場景化治理、類型化治理、部門法治理三種思路,以部門法治理研究成果居多。其一,場景化治理思路,算法分場景應(yīng)用的特性為這一治理思路提供了合理依據(jù)。將算法引入不同場景有不同難度,不同場景應(yīng)當(dāng)設(shè)置不同的人機分工關(guān)系和算法的任務(wù)范圍,這要求將算法應(yīng)用場景進行分類,制定“因景制宜”的治理策略。例如,應(yīng)根據(jù)常規(guī)場景、關(guān)鍵場景和爭議場景分別確定算法規(guī)制的路徑選擇和技術(shù)方案。具體就司法場景而言,數(shù)據(jù)和算法驅(qū)動的新一輪司法改革主要體現(xiàn)在四種一體化平臺——智慧審判平臺、智慧執(zhí)行平臺、智慧訴訟服務(wù)平臺以及智慧管理平臺的構(gòu)建和運行上。其二,類型化治理思路,算法技術(shù)的多元特性為這一治理思路提供了合理依據(jù)。例如,可以將算法分為傳達(dá)型算法、誘導(dǎo)型算法、修正型算法和驅(qū)動型算法,在對算法進行類型化構(gòu)建的基礎(chǔ)之上進行算法規(guī)制。其三,部門法治理思路,算法治理跨領(lǐng)域的特性為這一治理思路提供了合理依據(jù)。在多個法律部門中,行政法和反壟斷法領(lǐng)域的算法治理研究熱度較高。在行政法領(lǐng)域中,將“人權(quán)司法方法適用于算法行政爭議”具有一定的現(xiàn)實功能,但需要注意的是,自動化行政中算法解釋節(jié)點要采取事后解釋并輔之以事前解釋。同時,基于法國實踐的教訓(xùn)來看,以算法行政公開透明為中心的行政法規(guī)制框架無法有效應(yīng)對多元的復(fù)合風(fēng)險。在反壟斷法領(lǐng)域中,現(xiàn)行反壟斷法律規(guī)制體系的實施,面臨著算法共謀行為認(rèn)定難、共謀證據(jù)固定難、共謀責(zé)任劃分難等挑戰(zhàn),算法黑箱、算法歧視等問題未有效解決,還出現(xiàn)了如算法驅(qū)動型差別待遇等新問題。以算法推薦為例,其過程的確存在一定的黑箱風(fēng)險,應(yīng)通過通知—刪除(過濾)措施做有效的應(yīng)對。同時,可以考慮通過動態(tài)構(gòu)建差異化的受保護特征清單、打造具有一致性和可預(yù)測性的算法歧視審查框架,以及建立合法性與必要性并重的算法影響評估機制,多角度尋求算法反壟斷的有效實現(xiàn)路徑。除此之外,公法領(lǐng)域注重全鏈條制度構(gòu)建,主張圍繞事前算法制定環(huán)節(jié)、事中算法運行環(huán)節(jié)、事后算法審查環(huán)節(jié)整體性構(gòu)建關(guān)于算法目的的公法規(guī)制框架;私法領(lǐng)域注重保障多主體平衡,主張建立算法審查制度、基本權(quán)利保護責(zé)任制度以及算法問責(zé)制度,配置用戶算法解釋權(quán)和申訴權(quán)等。(二)算法治理的多維方案現(xiàn)有研究成果形成了算法治理的豐富框架,為應(yīng)對算法帶來的復(fù)雜挑戰(zhàn)提供了多維度的解決方案。例如,在算法治理模式的選擇上,可以構(gòu)建“數(shù)據(jù)—模型—結(jié)果”三維一體的治理模式。又如,在算法治理工具的選擇上,算法審計能夠很好地契合自動化決策的社會技術(shù)系統(tǒng)屬性,因而可以將其視為算法治理的有效工具。再如,在算法治理方式的選擇上,應(yīng)推動新興技術(shù)工具融入治理實踐,借鑒“以鏈治鏈”的形式,推動形成“以算法治算法”的治理方式。總的來說,算法治理研究熱度依舊,廣度和深度則更勝。在主體責(zé)任與義務(wù)配置的問題上,需要盡快將學(xué)界共識以法律等形式固定下來,確定的責(zé)任歸屬能夠為各主體的行為及其后果提供清晰指引。同時,需要加強對義務(wù)履行機制的研究,探索建立算法透明度、可解釋性、可問責(zé)性等具體實施標(biāo)準(zhǔn),為實踐提供更加完善的治理方案。在治理算法應(yīng)用失范的問題上,需要立足現(xiàn)有研究成果,比較不同治理思路和模式的優(yōu)劣,重點評估算法審計、算法影響評估等治理工具和方式的有效性,盡快形成共識,探索出具有可操作性的治理框架。如此,算法治理才能走向更加規(guī)范化、體系化,推動我國人工智能法治體系持續(xù)完善。

?
六、人工智能生成內(nèi)容的版權(quán)問題恒重
在人工智能涉及的知識產(chǎn)權(quán)問題中,版權(quán)問題一直是重中之重。尤其是2024年,人工智能生成內(nèi)容的可版權(quán)性和權(quán)利歸屬問題成為聚焦話題,研究成果集中在法學(xué)、出版和社科綜合領(lǐng)域。(一)人工智能生成內(nèi)容的可版權(quán)性肯定論仍占多數(shù),主張人工智能生成內(nèi)容具備獨創(chuàng)性,屬于“作品”。一方面,人工智能生成內(nèi)容具備“作品”的構(gòu)成要件。人工智能作品具備接近于傳統(tǒng)作品的客觀價值,在性質(zhì)上應(yīng)歸屬于著作權(quán)法保護的“作品”范圍之中。但是,人工智能生成內(nèi)容的可版權(quán)性標(biāo)準(zhǔn)應(yīng)該從作者身份轉(zhuǎn)向獨創(chuàng)性,因為該問題的關(guān)鍵在于用戶是否直接觸發(fā)創(chuàng)作行為并貢獻(xiàn)足夠多的獨創(chuàng)性表達(dá)。人工智能生成內(nèi)容能否構(gòu)成作品,應(yīng)該具體考慮個案的不同情景,只有生成內(nèi)容能達(dá)到獨創(chuàng)性的判斷標(biāo)準(zhǔn),才可構(gòu)成作品,且越能體現(xiàn)出使用者個性化表達(dá)的生成物,越有可能構(gòu)成作品。具體而言,同比例復(fù)制的孿生內(nèi)容不屬于作品,差異化表達(dá)的伴生內(nèi)容屬于演繹作品,創(chuàng)造性表現(xiàn)的原生內(nèi)容屬于原創(chuàng)作品。另一方面,承認(rèn)人工智能生成內(nèi)容的可版權(quán)性符合利益平衡的正當(dāng)性。著作權(quán)法的“寬進寬出”結(jié)構(gòu)提示我們,將用戶做出獨創(chuàng)性表達(dá)的人工智能生成內(nèi)容納入著作權(quán)法,是在認(rèn)知層面最為經(jīng)濟的利益平衡分析框架,基于獨立創(chuàng)作例外和版權(quán)救濟手段的靈活性,承認(rèn)人工智能生成內(nèi)容獲得作品資格的可能性,并不會過度妨礙公眾自由。并且,賦予人工智能生成內(nèi)容相應(yīng)的知識產(chǎn)權(quán)保護,有利于鼓勵用戶利用人工智能從事知識創(chuàng)造活動,促進相關(guān)智力成果的傳播和利用,而這反過來又有利于促進對人工智能的研發(fā)和投資,引導(dǎo)資本不斷向人工智能產(chǎn)業(yè)注入,從而推動產(chǎn)業(yè)良性發(fā)展。同時,否定論也逐漸增多,多維度論證人工智能生成物不具備可版權(quán)性。一是人工智能生成內(nèi)容不具備“表達(dá)”的形式要件。用戶貢獻(xiàn)(如提示行為)不能決定構(gòu)成內(nèi)容的表達(dá)性要素,仍然屬于“思想”,而非“表達(dá)”。以圖片為例,由于用戶輸入的提示詞與人工智能生成的圖片之間并不具有直接的對應(yīng)關(guān)系,故而提示詞相對于圖片而言僅屬于思想而不構(gòu)成表達(dá)。二是人工智能生成內(nèi)容不具備“獨創(chuàng)性”的實質(zhì)要件。人類在人工智能內(nèi)容生成過程中關(guān)于模型、提示詞、參數(shù)的選擇修改不具有著作權(quán)法意義上的創(chuàng)造性,人工智能與傳統(tǒng)輔助創(chuàng)作工具存在本質(zhì)區(qū)別。三是人工智能生成內(nèi)容可版權(quán)不符合利益平衡原則。人工智能生成內(nèi)容版權(quán)壟斷會產(chǎn)生公共資源被搶占、作者權(quán)益被威脅和消費者選擇受限的危害,不宜受到版權(quán)保護。此外,我國單獨承認(rèn)人工智能生成物的可版權(quán)性,將導(dǎo)致國際保護的不平衡,即以《伯爾尼公約》其他成員國為起源國的人工智能生成內(nèi)容可以在我國獲得保護,而以我國為起源國的人工智能生成內(nèi)容難以在其他成員國獲得保護。(二)人工智能生成內(nèi)容的版權(quán)歸屬第一,使用者說。生成式人工智能的使用者基于創(chuàng)作行為取得作者身份和著作權(quán),可通過共同創(chuàng)作、委托創(chuàng)作等既有著作權(quán)法律關(guān)系的權(quán)屬規(guī)則將著作權(quán)原始分配給人工智能的人類使用者,或者通過將署名權(quán)和其他著作權(quán)進行分離的制度設(shè)計,將生成式作品的其他著作權(quán)分配給使用者。第二,設(shè)計者說。將人工智能設(shè)計者作為作者,可以激勵設(shè)計者開發(fā)更符合創(chuàng)作需求的人工智能產(chǎn)品,使用者作為委托人,通過提示詞引導(dǎo)人工智能生成內(nèi)容,并優(yōu)先根據(jù)合同約定權(quán)利歸屬與風(fēng)險規(guī)避。第三,共有說。著作權(quán)共有模式,即著作權(quán)由使用者和人工智能技術(shù)公司這兩個直接參與者共同享有,人工智能技術(shù)公司再代為行使大語言模型所收入內(nèi)容數(shù)據(jù)的著作權(quán)人這一間接參與者的權(quán)利,從而兼顧各方利益主體的權(quán)利。第四,約定優(yōu)先綜合說。該說提出,基于信息成本、介入程度、負(fù)外部性以及域外經(jīng)驗的分析框架,人工智能生成內(nèi)容的版權(quán)歸屬應(yīng)以約定優(yōu)先,法定缺省規(guī)則則依各方介入程度確定,可在個案中結(jié)合實質(zhì)貢獻(xiàn)、投資激勵和利益平衡原則確定著作權(quán)歸屬。例如,根據(jù)“創(chuàng)作主義”或“投資主義”原則,將著作權(quán)分配給有意思能力和責(zé)任能力的自然人或法人,即在當(dāng)事人約定優(yōu)先的情況下,以歸屬創(chuàng)作者為一般原則,同時兼顧投資者利益。此外,針對純粹人工智能生成的作品這一特殊類型,有不同的版權(quán)歸屬學(xué)說,如全權(quán)用戶歸屬模式、條件性用戶歸屬模式、訂閱依賴歸屬模式、開發(fā)者保留歸屬模式等。綜上,關(guān)于人工智能生成內(nèi)容可版權(quán)性之分歧,主要在于兩個層次:人工智能生成內(nèi)容應(yīng)劃歸“思想”,還是“表達(dá)”范疇;若認(rèn)可人工智能生成內(nèi)容的“表達(dá)”屬性,是否應(yīng)當(dāng)賦予其著作權(quán)。關(guān)于人工智能生成內(nèi)容的著作權(quán)歸屬問題,學(xué)者之間基本達(dá)成共識,普遍認(rèn)為不應(yīng)歸屬于人工智能,分歧在于歸屬哪一類“人”。雖有多種主張,但大多數(shù)學(xué)者認(rèn)為應(yīng)將著作權(quán)賦予人工智能工具的使用者。DeepSeek取得跨越式進步,但人工智能生成內(nèi)容的版權(quán)問題本質(zhì)依然沒改變,法律層面仍然無需激進的制度性變革。未來的研究應(yīng)該區(qū)分輸入端和輸出端,不應(yīng)籠統(tǒng)地討論生成式人工智能的版權(quán)問題,輸入端主要是作品型語料的版權(quán)問題,在輸出端應(yīng)當(dāng)著眼于兩個問題。其一,輸出內(nèi)容是否侵權(quán),以及侵權(quán)時的注意義務(wù)和責(zé)任承擔(dān);其二,輸出內(nèi)容版權(quán)歸屬確定過程的利益相關(guān)者識別,以及利益分配規(guī)則的科學(xué)性和可操作性。

?
七、人工智能應(yīng)用場景細(xì)分領(lǐng)域平分秋色
2024年人工智能應(yīng)用場景的法治研究,主要圍繞智慧司法、自動駕駛、具身智能(人形機器人)和元宇宙四個主題展開,研究成果數(shù)量相差不大。刊發(fā)智慧司法研究成果的期刊較為分散,而自動駕駛、具身智能和元宇宙研究成果主要集中刊發(fā)在部分刊物當(dāng)中。(一)智慧司法法律人工智能是智慧司法的技術(shù)基礎(chǔ),相關(guān)研究聚焦于其理論研究與實踐應(yīng)用。法律人工智能的理論研究聚焦道義邏輯與法律人工智能的關(guān)聯(lián),以及從規(guī)范封閉與認(rèn)知開放視角設(shè)計發(fā)展路線。實踐應(yīng)用則反思其“幻象”與“本相”,澄清法學(xué)界對數(shù)據(jù)法學(xué)相關(guān)學(xué)科的誤解,強調(diào)法學(xué)應(yīng)打破學(xué)科壁壘。法律人工智能雖有局限,但能作為司法論證助手,在人機交互平臺協(xié)助法官,與司法融合支撐法律命題證立。人機協(xié)作是智慧司法的最佳前景,應(yīng)當(dāng)在數(shù)字法治框架下構(gòu)建模式,發(fā)揮機器輔助決策優(yōu)勢,重塑司法公正。需通過虛實空間耦合、強化技術(shù)解釋權(quán)等舉措,深入推進數(shù)智技術(shù)驅(qū)動的中國式司法現(xiàn)代化。在類案裁判和輔助說理方面,法律人工智能雖能將價值判斷轉(zhuǎn)化為經(jīng)驗判斷并為法官提供參考,但無法替代法官選擇類案判斷的實質(zhì)標(biāo)準(zhǔn)。相比裁判結(jié)果預(yù)測,更應(yīng)關(guān)注司法人工智能輔助說理能力。刑事司法與人工智能的融合是重要的研究方向,需將人工干預(yù)機制從形式化向?qū)嵸|(zhì)化、體系化轉(zhuǎn)變,實體上明確輔助智能系統(tǒng)及決策在刑事司法中的定位,程序上遵循主體控制等原則。此外,人工智能嵌入商事仲裁可提升決策效能,人工智能仲裁裁決是仲裁法新發(fā)展,這種模式因為效率、經(jīng)濟、公正具有可欲性,算法轉(zhuǎn)變?yōu)槠涮峁┘夹g(shù)可行性。在智慧司法領(lǐng)域,職業(yè)共同體越來越清醒地認(rèn)識到,人工智能無法取代“人”,算法無法替代“法”。在法官經(jīng)驗數(shù)據(jù)和專家知識的持續(xù)“喂養(yǎng)”之下,也許法律人工智能可以“獨立”解決大部分標(biāo)準(zhǔn)化的事務(wù)性、非決策性工作,但至少多重司法價值平衡離不開法官的“價值理性”??梢哉J(rèn)為,法律人工智能不會取代法官審理案件,只會是輔助工具。(二)自動駕駛一是自動駕駛的生命沖突,即自動駕駛汽車“電車難題”。與傳統(tǒng)“電車難題”相比,自動駕駛汽車“電車難題”在倫理對象、選擇時機以及利益關(guān)聯(lián)方面存在特殊性,大大增加了法律規(guī)制的難度。目前的學(xué)說分歧,主要在于生命可衡量性:有學(xué)者認(rèn)為對生命的緊急避險并非沒有限制,在特殊情況下生命價值具有相對可衡量性,應(yīng)構(gòu)建刑法緊急避險的自動駕駛程序設(shè)計指導(dǎo);也有學(xué)者認(rèn)為除了存在危險共同體的情形外,生命原則上不具有可衡量性,在保護的優(yōu)先性上應(yīng)采取“無辜第三人>車內(nèi)乘客>制造了法益沖突狀態(tài)的危險源”的順序。二是自動駕駛的注意義務(wù)與刑事責(zé)任。容許風(fēng)險本質(zhì)是對法益風(fēng)險的合理分配,應(yīng)以此為基礎(chǔ)形塑主體間更合理的注意義務(wù)體系。自動駕駛汽車生產(chǎn)者的注意義務(wù)認(rèn)定需要求助于過失犯的一般性規(guī)定,并運用產(chǎn)品責(zé)任方面公認(rèn)的原則。自動駕駛研發(fā)者是否違反結(jié)果預(yù)見義務(wù)需要參考當(dāng)時的科學(xué)技術(shù)水平。違反自動駕駛汽車設(shè)計缺陷的注意義務(wù)則具有刑事違法性,應(yīng)對自動駕駛汽車犯罪設(shè)立嚴(yán)格責(zé)任模式和過失責(zé)任模式。不同意見認(rèn)為,刑法理論沒有必要創(chuàng)設(shè)人工智能罪刑體系,紓解自動駕駛事故歸責(zé)困境的路徑為恪守信賴原則以限縮駕駛?cè)俗⒁饬x務(wù),在被允許的危險理論視角下,研發(fā)者責(zé)任不應(yīng)為嚴(yán)格責(zé)任。三是自動駕駛的民事責(zé)任與保險制度。重新分配自動駕駛技術(shù)民事責(zé)任的歸屬,研究保險制度如何適應(yīng)新的技術(shù)發(fā)展需求是當(dāng)前研究焦點之一。以自動駕駛汽車為代表的替代型人工智能致人損害時應(yīng)適用產(chǎn)品責(zé)任規(guī)則,但在產(chǎn)品缺陷判斷問題上存在實踐難題。在完全和高度自動駕駛階段,使用者應(yīng)為機動車責(zé)任保險的第三者;在有條件自動駕駛階段,使用者過錯責(zé)任仍然受到機動車責(zé)任保險的保障。(三)具身智能第一,法律地位之爭??隙ㄕf認(rèn)為,人形機器人與人類本體差距正在縮小,其功能與外觀可使其成為人類社會互動的參與者。具有“反事實”因果能力的智能機器人能夠納入權(quán)利主體理論,并且根據(jù)人類尊嚴(yán)和法律需求設(shè)置不同的權(quán)利主體層級。否定說認(rèn)為,將人形機器人確定為法律主體,既不符合傳統(tǒng)法理及其背后演進的邏輯,也違背立法目的,更會引發(fā)人類社會系統(tǒng)性的生存危機。第二,個人信息、隱私與數(shù)據(jù)法益保護。人形機器人在與人類交互過程中,會掌握大量個人信息,存在泄露的風(fēng)險。應(yīng)在隱私類型化理論的基礎(chǔ)上,考慮制定人形機器人應(yīng)用場景和風(fēng)險分類方案,引入前置法確立的數(shù)據(jù)分類分級保護規(guī)則,指導(dǎo)數(shù)據(jù)犯罪立法完善與司法認(rèn)定,還需在人工智能立法中確立“通過設(shè)計來進行隱私和數(shù)據(jù)保護”的原則,并明確設(shè)計者的可責(zé)性。第三,法律責(zé)任承擔(dān)。在民事責(zé)任方面,對于人形機器人自主致人損害,需分別規(guī)定人形機器人提供者的產(chǎn)品責(zé)任、大模型提供者的共同侵權(quán)責(zé)任、人形機器人使用者的侵權(quán)責(zé)任;若考慮將人形機器人制造商作為最小成本規(guī)避者,可引入技術(shù)避風(fēng)港等豁免機制。就刑事責(zé)任而言,在當(dāng)前人工智能的發(fā)展階段,傳統(tǒng)的刑法教義學(xué)原理可以處理絕大部分的機器人刑法歸責(zé)問題,理論上主要存在代理責(zé)任、過失責(zé)任、嚴(yán)格責(zé)任、獨立責(zé)任四種各有利弊的刑法歸責(zé)模式。涉及AGI人形機器人刑法歸責(zé)的類型,主要存在間接正犯責(zé)任模式、過失責(zé)任模式以及AGI人形機器人直接責(zé)任模式三類觀點。(四)元宇宙其一,人身侵害之辯。以性犯罪為例,肯定論認(rèn)為針對虛擬人物的精神傷害就是針對現(xiàn)實人的傷害,無需媒介就可直接構(gòu)成從虛擬到現(xiàn)實的穿透。就網(wǎng)絡(luò)隔空性交的行為特征來看,隔空性交侵犯和現(xiàn)實性交侵犯在形式與本質(zhì)上趨近一致。否定論主張被害人可以隨時通過摘下眼鏡、取下頭盔等方式脫離元宇宙環(huán)境,很難認(rèn)為數(shù)字人實施的具有強制性外觀的行為足以穿透至物理世界,達(dá)成壓制被害人反抗的效果,進而充實“以暴力、脅迫或者其他方法”這一敘明的構(gòu)成要件要素。其二,金融治理之策。元宇宙為金融市場帶來了新的機遇和風(fēng)險,應(yīng)在智慧規(guī)制理論的基礎(chǔ)上,結(jié)合不同跨界融合場景對現(xiàn)實世界的影響程度而采用“跨界融合治理”模式。在數(shù)字貨幣監(jiān)管方面,應(yīng)采用信息披露、算法偏差糾正、隱私保護與反欺詐措施。在金融信息保護方面,應(yīng)審慎立法,專注于以消費者、用戶為核心的價值維護,需要新建歸責(zé)原理、避免“長臂管轄”,另辟金融信息保護路徑。其三,信息安全之治。就平臺而言,應(yīng)確立元宇宙平臺的審批備案義務(wù),明確信息技術(shù)服務(wù)提供者的安全評估和不良信息識別義務(wù),以及平臺運營者在不良信息傳播方面的法律責(zé)任。就勞動者而言,在元宇宙虛擬空間的勞動場景下,勞動者有權(quán)獲知用工方或穿戴設(shè)備提供者對其個人信息穿透與獲取的范圍、使用用途等,并獲知工作條件。就政府而言,不同類型的數(shù)據(jù)可能涉及不同程度的敏感性和隱私保護要求,為此相關(guān)部門需要制定分類標(biāo)準(zhǔn),并確立事前監(jiān)管的管理模式。總體上,在人工智能具體應(yīng)用場景的法律問題研究中,智慧司法和自動駕駛等議題的討論越來越務(wù)實,但在人形機器人和元宇宙等議題上仍不乏“科幻元素”。在要素式起訴狀、答辯狀已經(jīng)開始實踐的當(dāng)下,智慧司法相關(guān)研究亟待投入更多的資源,主要包括智慧司法科學(xué)理論構(gòu)建、社會主義核心價值觀融入法律人工智能、人工智能量刑,以及生成式證據(jù)偏在性和質(zhì)證問題。在自動駕駛汽車的產(chǎn)品準(zhǔn)入市場之前,責(zé)任承擔(dān)等制度設(shè)計也迫在眉睫,需要在解釋論和立法論上深入研究并達(dá)成共識,并以此為前提細(xì)化責(zé)任規(guī)則。對于諸如人形機器人、元宇宙等探索性較強的議題,則應(yīng)脫“虛”向“實”,回歸到人類中心、社會實體等本質(zhì)問題之上,比如數(shù)據(jù)安全、隱私和個人信息保護,以及責(zé)任承擔(dān)問題等。此外,相比于人工智能的其他應(yīng)用,人臉識別應(yīng)用已經(jīng)融入社會生活,其法律治理應(yīng)得到足夠重視,尤其是相關(guān)原則或規(guī)則如何適用,比如“最小必要原則”的“最小”和“必要”如何判斷等。
?
八、人工智能法律責(zé)任側(cè)重民刑
2024年的人工智能法律責(zé)任研究的特點,與2017—2023年期間的人工智能法律責(zé)任研究的“重民刑而輕行”大體一致。變化之處在于行政責(zé)任的探討已經(jīng)微乎其微,少量行政責(zé)任探討主要聚焦于人工智能體執(zhí)法并承擔(dān)執(zhí)法責(zé)任的可能性。
(一)人工智能刑事責(zé)任
除了上文已經(jīng)提及的自動駕駛和人形機器人的刑事責(zé)任問題外,人工智能刑事責(zé)任問題主要涉及以ChatGPT、DeepSeek為代表的生成式人工智能刑事責(zé)任承擔(dān)問題。刑事責(zé)任由人工智能承擔(dān),還是由人類承擔(dān),存在不同觀點。有學(xué)者認(rèn)為,ChatGPT、DeepSeek等生成式人工智能與人類一樣可能是同時受自然法則(他律的、自然律的因果性)和道德法則(自律的、由自由而來的因果性)支配的物種,從而推定其可能擁有自由意志,進而滿足承擔(dān)刑事責(zé)任或者成為刑事責(zé)任主體的最本質(zhì)條件。也有學(xué)者主張,ChatGPT、DeepSeek類生成式人工智能產(chǎn)品投入流通時,如果符合國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)且不存在當(dāng)前科學(xué)技術(shù)水平能夠發(fā)現(xiàn)的缺陷,一般不宜追究產(chǎn)品提供者的刑事責(zé)任,在產(chǎn)品投入流通后,產(chǎn)品提供者應(yīng)承擔(dān)適度的安全管理義務(wù),若違反有可能追究其刑事責(zé)任。
(二)人工智能民事責(zé)任
第一,產(chǎn)品責(zé)任。人工智能產(chǎn)品責(zé)任針對人工智能生產(chǎn)研發(fā)端的風(fēng)險損害,解決的是生產(chǎn)者一方的責(zé)任承擔(dān)問題。產(chǎn)品責(zé)任支持者提出,應(yīng)重塑產(chǎn)品缺陷判斷標(biāo)準(zhǔn),特別考量人工智能產(chǎn)品的新安全需求,并區(qū)分輔助型與替代型人工智能,合理判斷人工智能自主行為與使用人行為是否構(gòu)成替代原因,引入因果關(guān)系推定規(guī)則,以注意義務(wù)的違反判斷生產(chǎn)者過失并以此作為認(rèn)定產(chǎn)品缺陷的標(biāo)尺。產(chǎn)品責(zé)任反對者則認(rèn)為,人工智能系統(tǒng)無法像傳統(tǒng)產(chǎn)品一樣保證不出錯,且產(chǎn)品構(gòu)成類人工智能系統(tǒng)的風(fēng)險和收益取決于嵌入產(chǎn)品而非人工智能本身;產(chǎn)品責(zé)任的規(guī)制思路弱化了人工智能技術(shù)廣泛存在的嵌入性特征,可能使未來的很多人工智能脫離法律監(jiān)管框架。
第二,應(yīng)用責(zé)任。人工智能應(yīng)用責(zé)任針對人工智能部署應(yīng)用端的風(fēng)險損害,解決的是服務(wù)提供者、使用者一方的責(zé)任承擔(dān)問題。有學(xué)者主張生成式人工智能的服務(wù)提供者、使用者應(yīng)按照主體對算法規(guī)則、數(shù)據(jù)投喂、關(guān)鍵詞選擇所作“貢獻(xiàn)”的比例承擔(dān)相應(yīng)的責(zé)任,也有學(xué)者建議服務(wù)提供者原則上應(yīng)當(dāng)承擔(dān)具有間接侵權(quán)責(zé)任屬性的“相應(yīng)的補充責(zé)任”。有學(xué)者反對概括性地界定歸責(zé)思路,主張引入基于風(fēng)險的類型化思維,對于高風(fēng)險人工智能確立無過錯責(zé)任,對于有限風(fēng)險與低風(fēng)險人工智能分別適用過錯推定責(zé)任與過錯責(zé)任,以實現(xiàn)風(fēng)險與歸責(zé)的動態(tài)平衡。
第三,歸責(zé)原則。人工智能民事責(zé)任之認(rèn)定應(yīng)當(dāng)綜合運用各類歸責(zé)原則,不應(yīng)排除特定歸責(zé)機制,以實現(xiàn)風(fēng)險與收益的精準(zhǔn)匹配。過錯責(zé)任、過錯推定責(zé)任與無過錯責(zé)任的適用之爭是人工智能歸責(zé)原則議題的核心?!斑^錯責(zé)任”支持者認(rèn)為,過錯責(zé)任可以成為規(guī)制生成式人工智能侵權(quán)的重要原則,在產(chǎn)品缺陷認(rèn)定時通過復(fù)興生產(chǎn)者過失要素可以妥當(dāng)表達(dá)適當(dāng)減輕生產(chǎn)者責(zé)任的價值衡量結(jié)論。“過錯推定責(zé)任”支持者認(rèn)為,過錯推定原則可以充分救濟受害人因人工智能生成內(nèi)容侵權(quán)造成的損失,也能夠反向激勵服務(wù)提供者提高注意義務(wù);既符合服務(wù)提供者與受害人地位不平等、技術(shù)復(fù)雜性高、信息不對稱的現(xiàn)狀,也符合強化受害人救濟的現(xiàn)實需求?!盁o過錯責(zé)任”支持者認(rèn)為,無過錯責(zé)任不僅制度成本更低、救濟效果更好,而且未必會導(dǎo)致對人工智能創(chuàng)新活動的過度抑制,反而會有助于維護社會對人工智能產(chǎn)業(yè)及人工智能監(jiān)管體制的信任?;诰S護著作權(quán)人合法權(quán)益、合理分配社會風(fēng)險、有效降低監(jiān)管成本的考慮,AIGC服務(wù)提供者適用無過錯責(zé)任承擔(dān)著作權(quán)侵權(quán)損害賠償責(zé)任更為適宜。
第四,“避風(fēng)港規(guī)則”。支持者認(rèn)為,網(wǎng)絡(luò)時代設(shè)立的通知規(guī)則是極具價值的避風(fēng)港規(guī)則,可以直接適用于生成式人工智能侵權(quán),而非類推適用。當(dāng)然生成式人工智能也在一定程度上改變了傳統(tǒng)的通知規(guī)則,尤其是豐富了“必要措施”義務(wù)。有學(xué)者主張,應(yīng)從區(qū)分兩種情況進行適度調(diào)整:對于訓(xùn)練數(shù)據(jù)和生成內(nèi)容都構(gòu)成侵權(quán)的,可以引入“面向未來的審查義務(wù)”;訓(xùn)練數(shù)據(jù)不侵權(quán)而生成內(nèi)容侵權(quán)的,采取“消除”措施即可,實施責(zé)任豁免。反對者則認(rèn)為,AIGC服務(wù)提供者不再屬于傳統(tǒng)網(wǎng)絡(luò)著作權(quán)侵權(quán)中的技術(shù)中立者,因而無法適用“避風(fēng)港規(guī)則”主張免責(zé)。裁判者可以通過動態(tài)衡量服務(wù)提供者的注意義務(wù)內(nèi)容而控制責(zé)任水平,無需再贅余地適用避風(fēng)港原則進行責(zé)任限制。
總體上講,學(xué)者基于不同視角和方法就人工智能的民事責(zé)任問題進行了深入探討,雖有分歧,但也達(dá)成了兩點共識。第一,反對“整齊劃一”的歸責(zé)方式,主張基于風(fēng)險的不同類型和水平,綜合配置各種歸責(zé)機制,尤其不應(yīng)排斥特定歸責(zé)形式的運用。第二,強調(diào)民事責(zé)任科學(xué)分配之于技術(shù)創(chuàng)新的有效引導(dǎo),偏重從政策激勵視角研究責(zé)任規(guī)則的設(shè)置,如無過錯責(zé)任之合理運用、通知規(guī)則之正確適用、缺陷認(rèn)定標(biāo)準(zhǔn)之適度更新等。人工智能在行政領(lǐng)域的應(yīng)用很難體現(xiàn)“獨立性近人行為”,最多是行政主體的“替身”,而不是“替代”,因而行政責(zé)任的研究空間很小。而刑事責(zé)任的本質(zhì)在于人工智能主體性,在當(dāng)前研究已較充分的時間節(jié)點上,可探討空間不大。未來人工智能法律責(zé)任研究,應(yīng)從以下三個方面深入和拓展人工智能民事責(zé)任問題:其一,不同歸責(zé)原則在人工智能應(yīng)用場景下的功能和定位,如何形成科學(xué)完整的歸責(zé)配置體系;其二,除直接適用或改造通知規(guī)則外,是否有必要構(gòu)建適應(yīng)生成式人工智能的其他避風(fēng)港規(guī)則,以及是整體適用還是分階段適用避風(fēng)港規(guī)則;其三,加強特殊應(yīng)用場景(如自動駕駛、輔助診療)中的人工智能民事責(zé)任認(rèn)定研究,實現(xiàn)一般原則與特殊規(guī)則之銜接。

?
結(jié)語
當(dāng)DeepSeek突然發(fā)布比ChatGPT問世時還令大眾沸騰,當(dāng)“秧BOT”現(xiàn)身春晚舞臺轉(zhuǎn)手絹,作為研究者的我們已經(jīng)在人工智能應(yīng)用的一波又一波浪潮中回歸“冷靜”。因為當(dāng)我們回顧中國人工智能法治研究的2017—2023年“斷代史”之后,再審視2024年“新元年”時發(fā)現(xiàn),在以人類為中心的社會秩序中,人工智能的本質(zhì)問題并沒有改變,至少人工智能法治的核心問題沒有質(zhì)變。比如,DeepSeek依然落入生成式人工智能范疇,而“秧BOT”是具身智能(人形機器人)的具象化展現(xiàn)。當(dāng)然,這并不意味著研究沒有進展,2024年的中國人工智能法治研究呈現(xiàn)出“續(xù)章出新篇”的特點。“續(xù)章”意味著人工智能法治研究議題已形成“整體穩(wěn)定”的知識生產(chǎn)格局,“新篇”意味著人工智能法治研究共同體能保持“局部活力”的知識生產(chǎn)能力。法學(xué)界的貢獻(xiàn)之一在于人工智能法治知識生產(chǎn),并為構(gòu)建人工智能法治秩序體系提供智力資源。放眼未來,在《決定》形成的人工智能“發(fā)展和治理并重,兼顧國際合作”的敘事結(jié)構(gòu)中,人工智能法治研究應(yīng)該更加注重豐富中國人工智能法學(xué)自主知識體系,進而向全球呈現(xiàn)中國人工智能法治的學(xué)術(shù)體系和話語體系。? ? 來源:《法律適用》2025年第3期
????策劃:??高童非
? ? 編輯:? 李志強