目前世界范圍內對生成式人工智能技術的重視不單單僅是重視技術本身,,更體現(xiàn)了對該技術背后蘊藏的解放和發(fā)展當前其他領域生產(chǎn)力潛力的關注,。《生成式人工智能服務管理辦法(征求意見稿)》的出臺顯示出我國對于生成式人工智能技術發(fā)展的關注與支持,,為相關科研機構,、企業(yè)的發(fā)展納入到合規(guī)、安全的框架之中,,這對于構建本土化AIGC研發(fā)環(huán)境極其有利,。
4月11日,,國家互聯(lián)網(wǎng)信息辦公室發(fā)布關于《生成式人工智能服務管理辦法(征求意見稿)》(下稱《辦法》)公開征求意見的通知,。本《辦法》征求意見稿的出臺可謂在近期大火的生成式人工智能行業(yè)中掀起軒然大波,就此我們對《辦法》的具體條款進行解讀,。
第一條:為促進生成式人工智能健康發(fā)展和規(guī)范應用,,根據(jù)《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī),,制定本辦法,。
解讀:從立法路徑而言,該辦法是在網(wǎng)安法,、數(shù)安法,、個保法“三駕馬車”的前提下提出的,因此企業(yè)應該關注生成式人工智能服務的本質,。該類服務首先是一個網(wǎng)絡應用,,其次是一個“數(shù)據(jù)密集型”應用,且極其容易觸碰“個人信息”的雷區(qū),,因此在合規(guī)中企業(yè)不僅僅需要關注本辦法,,更多的是關注監(jiān)管要求的沿革路徑,其相對于網(wǎng)安數(shù)安個保法的基礎性條款有了哪些地方新的升級和新的要求,。
第二條:研發(fā),、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內公眾提供服務的,,適用本辦法,。
本辦法所稱生成式人工智能,,是指基于算法、模型,、規(guī)則生成文本、圖片,、聲音,、視頻、代碼等內容的技術,。
解讀:本條規(guī)定了《辦法》監(jiān)管對象的范圍,。當生成式人工智能的產(chǎn)品不再是內部的自行使用、測試使用或是為某個領域某個企業(yè)的定向開發(fā),,而是在互聯(lián)網(wǎng)上向公眾提供公開的服務時便需要符合本法規(guī),。
何為“生成式人工智能”,第二條第二款中給出了一個十分寬泛的定義,,廣義的“算法模型和規(guī)則生成文本,、圖片、聲音的”可以涵蓋大多數(shù)網(wǎng)絡應用,,任何人工信息的輸入皆需要經(jīng)過算法模型或者是一定規(guī)則的處理,,最終以另一種信息的表現(xiàn)形式呈現(xiàn)在輸出端,因此在實務中執(zhí)法部門如何理解“生成”二字尤為重要,。
第四條:提供生成式人工智能產(chǎn)品或服務應當遵守法律法規(guī)的要求,,尊重社會公德、公序良俗,,符合以下要求:
(一)利用生成式人工智能生成的內容應當體現(xiàn)社會主義核心價值觀,,不得含有顛覆國家政權、推翻社會主義制度,,煽動分裂國家,、破壞國家統(tǒng)一,宣揚恐怖主義,、極端主義,,宣揚民族仇恨、民族歧視,,暴力,、淫穢色情信息,虛假信息,,以及可能擾亂經(jīng)濟秩序和社會秩序的內容,。
(二)在算法設計、訓練數(shù)據(jù)選擇,、模型生成和優(yōu)化,、提供服務等過程中,,采取措施防止出現(xiàn)種族、民族,、信仰,、國別、地域,、性別,、年齡、職業(yè)等歧視,。
(三)尊重知識產(chǎn)權,、商業(yè)道德,不得利用算法,、數(shù)據(jù),、平臺等優(yōu)勢實施不公平競爭。
(四)利用生成式人工智能生成的內容應當真實準確,,采取措施防止生成虛假信息,。
(五)尊重他人合法利益,防止傷害他人身心健康,,損害肖像權,、名譽權和個人隱私,侵犯知識產(chǎn)權,。禁止非法獲取,、披露、利用個人信息和隱私,、商業(yè)秘密,。
解讀:此條可謂是實質統(tǒng)領性的條款,關注內容,、算法,、數(shù)據(jù)、平臺不正競爭,、用戶隱私等各個層面的問題,。首先是以國家統(tǒng)一、國家安全為第一要務,,重視內容監(jiān)管,。生成內容不能觸碰違反社會主義核心價值觀的底線,且謹防打著人工智能的旗號進行違法有害內容的有意輸出,。其次是謹防“算法偏見”現(xiàn)象,。除了杜絕主動輸出危害內容之外,也對在算法設計、數(shù)據(jù)選取等較為隱性的服務實現(xiàn)步驟進行規(guī)制,,實現(xiàn)從模型到數(shù)據(jù)的全過程平等無偏見,。
同時,提前為可能在算法,、算力,、數(shù)據(jù)等方面的壟斷的企業(yè)打了“預防針”。國家提倡數(shù)字時代的共享共治,,在保護企業(yè)智力成果,、投入成本的同時也謹防惡性競爭、市場壟斷等行為的發(fā)生,。
可以看出政府努力引領“可信”生成式人工智能服務的發(fā)展,。對于該類服務來說“可信”是最難以達成的,,黑箱模型使得很少有有效手段阻止模型輸出內容的“胡說八道”,,即便是行業(yè)頂尖的GPT-4也難以避免該現(xiàn)象的發(fā)生。并且,,核心問題指向服務生成內容可信程度的波動化,,一時超常的準確表現(xiàn),一時難以分辨的潛藏錯誤是阻礙對該類服務賦予更多信任的主要原因,。因此第四條第四款中只是要求企業(yè)采取一定的措施對生成內容準確性進行維護,。
第五條:利用生成式人工智能產(chǎn)品提供聊天和文本、圖像,、聲音生成等服務的組織和個人(以下稱“提供者”),,包括通過提供可編程接口等方式支持他人自行生成文本、圖像,、聲音等,,承擔該產(chǎn)品生成內容生產(chǎn)者的責任;
解讀:第五條進一步明確在公眾用戶和產(chǎn)品服務提供商之間的關系,,將“生成內容生產(chǎn)者”的責任劃歸到產(chǎn)品服務提供商(文中稱為“提供者”)之下,。在這里有些很有趣的地方,譬如A公司調用B公司的接口向公眾C提供服務,,誰是內容提供商,?若B公司的接口并不向公眾開放,而是通過其他方式供給于A,,那么A才需要承擔法律上內容生產(chǎn)者的責任,;但若B公司也以公開的形式向A公司出售服務,那么AB兩公司權利義務關系依照本辦法可能還存在模糊之處,。
《辦法》中將將數(shù)據(jù)合法性也劃歸到“提供者”之下,,對服務背后的數(shù)據(jù)進行統(tǒng)一的要求,可以看出日后提供者身份的“認定”是兵家必爭之地。該條最直接的意義便是對模型輸入端進行優(yōu)化,,從而盡可能地保證輸出端內容的純凈性,、準確性。從長遠的來看,,該要求對整個數(shù)據(jù)相關產(chǎn)業(yè)鏈提出的新的要求,,是對整個行業(yè)數(shù)據(jù)收集、傳輸,、交易,、檢驗、維護與保護的全面規(guī)制,。同時也完全符合現(xiàn)行立法對數(shù)據(jù)處理的各方面要求,,能夠極大程度防止后續(xù)違法行為的發(fā)生,屬于一舉多得,。
第八條:生成式人工智能產(chǎn)品研制中采用人工標注時,,提供者應當制定符合本辦法要求,清晰,、具體,、可操作的標注規(guī)則,對標注人員進行必要培訓,,抽樣核驗標注內容的正確性,。
解讀:網(wǎng)絡中對此條款的爭議很大,說很有可能促使誕生“打標員”這一新職業(yè),,人工智能行業(yè)也可以是“勞動密集型”的,。事實上,標注的成本不論是過去還是現(xiàn)在都是相當?shù)母叩?,為了標注的準確性,,減少錯誤標注的數(shù)據(jù)污染,復雜的規(guī)則制定,、培訓,、檢驗已經(jīng)成為行業(yè)的基本操作,服務的開發(fā)者會自發(fā)使得標注盡量標準化來提高模型的表現(xiàn),。
第十條:提供者應當明確并公開其服務的適用人群,、場合、用途,,采取適當措施防范用戶過分依賴或沉迷生成內容,。
解讀:這條的設立頗具有先見之明的。在過去,,網(wǎng)絡服務提供內容導致用戶沉迷的例子不在少數(shù),,而深度合成內容具有高度的擬人性和強交互性,,讓人難以區(qū)分,很可能會深陷其中,,不愿接受現(xiàn)實的樣子,。不符合法律規(guī)定的相關服務很有可能成為新時代的“賽博大煙”。
第十一條:提供者在提供服務過程中,,對用戶的輸入信息和使用記錄承擔保護義務,。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,,不得向他人提供用戶輸入信息,。法律法規(guī)另有規(guī)定的,從其規(guī)定,。
解讀:信息泄露問題在對話式內容生成服務中已經(jīng)初見端倪,。服務提供者為了根據(jù)用戶的輸入提供“完全個性化”的輸出,需要將輸入投喂到模型當中,,很難在數(shù)據(jù)處理的過程中保證數(shù)據(jù)的“靜止性”,。近期中國支付清算協(xié)會也發(fā)布倡議書,提示支付行業(yè)從業(yè)人員合規(guī)使用ChatGPT等工具,,以避免行業(yè)關鍵數(shù)據(jù)泄露風險,。
“畫像”是一個行業(yè)中的詞,,并沒有規(guī)范的定義,,何種行為可以被定義為“畫像”也是至關重要的問題。對用戶輸入的整合和統(tǒng)計當然的可以提供更為個性化的服務,,微軟近期的服務甚至可以將本地文件內容整合其中,,但是這種行為在本條中似乎被排除。之后行業(yè)如何在不“畫像”的情形下提供更為智能的服務是整個行業(yè)需要思考的問題,。
第十三條:提供者應當建立用戶投訴接收處理機制,,及時處置個人關于更正、刪除,、屏蔽其個人信息的請求,;發(fā)現(xiàn)、知悉生成的文本,、圖片,、聲音、視頻等侵害他人肖像權,、名譽權,、個人隱私、商業(yè)秘密,,或者不符合本辦法要求時,,應當采取措施,,停止生成,防止危害持續(xù),。
第十五條:對于運行中發(fā)現(xiàn),、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,,應在3個月內通過模型優(yōu)化訓練等方式防止再次生成,。
第十九條:提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德,、社會公德行為時,,包括從事網(wǎng)絡炒作、惡意發(fā)帖跟評,、制造垃圾郵件,、編寫惡意軟件,實施不正當?shù)纳虡I(yè)營銷等,,應當暫?;蛘呓K止服務。
解讀:對于生成式人工智能的“非法輸出”,,政府可以說是有預見的,,并不是一刀切的禁止,而是給企業(yè)留有相當?shù)挠嗟?。一方面提供者需要建立用戶投訴接收處理機制,,另一方面需要主動進行內容核查,發(fā)現(xiàn)違法內容及時采取措施,,停止服務,,防止危害持續(xù)生成,并在限定時間內優(yōu)化模型,。這對提供商整個模型反饋更新機制提出了很高的要求,。
寫在最后
目前《辦法》還處在征求意見階段,未來一定會收納各方意見進行調整,?!掇k法》的出臺對于整個行業(yè)的發(fā)展是引導、也是壓力,。各個開發(fā)者需要在數(shù)據(jù)維護,、模型設計、模型輸出,、用戶交互等全流程進行新的服務設計和改進,。目前世界范圍內對生成式人工智能技術的重視不單單僅是重視技術本身,更體現(xiàn)了對該技術背后蘊藏的解放和發(fā)展當前其他領域生產(chǎn)力潛力的關注,?!掇k法》的出臺顯示出我國對于生成式人工智能技術發(fā)展的關注與支持,,為相關科研機構、企業(yè)的發(fā)展納入到合規(guī),、安全的框架之中,,這對于構建本土化AIGC研發(fā)環(huán)境極其有利。(財富中文網(wǎng))
作者肖颯為財富中文網(wǎng)專欄作家,,“科技+金融”深度法律服務者
本內容為作者獨立觀點,,不代表財富中文網(wǎng)立場。未經(jīng)允許不得轉載,。
編輯:劉蘭香