亚色在线观看_亚洲人成a片高清在线观看不卡_亚洲中文无码亚洲人成频_免费在线黄片,69精品视频九九精品视频,美女大黄三级,人人干人人g,全新av网站每日更新播放,亚洲三及片,wwww无码视频,亚洲中文字幕无码一区在线

首頁 500強 活動 榜單 商業(yè) 科技 領導力 視頻 專題 品牌中心
雜志訂閱

國家網信辦:利用生成式人工智能生成的內容應當真實準確

2023-04-11 13:30
文本設置
小號
默認
大號
Plus(0條)
4月11日電,國家互聯網信息辦公室就《生成式人工智能服務管理辦法(征求意見稿)》公開征求意見,。其中提到,,提供生成式人工智能產品或服務應當遵守法律法規(guī)的要求,,尊重社會公德,、公序良俗,。 | 相關閱讀(財聯社)
44
肖颯

肖颯

“科技+金融”深度法律服務者

本《辦法》征求意見稿的出臺可謂在近期大火的生成式人工智能行業(yè)中掀起軒然大波,就此颯姐團隊對《辦法》的具體條款進行解讀,。

第一條:為促進生成式人工智能健康發(fā)展和規(guī)范應用,,根據《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī),,制定本辦法。

從立法路徑而言,,該辦法是在網安法,、數安法,、個保法“三駕馬車”的前提下提出的,因此企業(yè)應該關注生成式人工智能服務的本質,。該類服務首先是一個網絡應用,,其次是一個“數據密集型”應用,且極其容易觸碰“個人信息”的雷區(qū),,因此在合規(guī)中企業(yè)不僅僅需要關注本辦法,,更多的是關注監(jiān)管要求的沿革路徑,其相對于網安數安個保法的基礎性條款有了哪些地方新的升級和新的要求,。

第二條:研發(fā),、利用生成式人工智能產品,面向中華人民共和國境內公眾提供服務的,,適用本辦法,。

本辦法所稱生成式人工智能,是指基于算法,、模型,、規(guī)則生成文本、圖片,、聲音,、視頻、代碼等內容的技術,。

解讀:本條規(guī)定了《辦法》監(jiān)管對象的范圍,。當生成式人工智能的產品不再是內部的自行使用、測試使用或是為某個領域某個企業(yè)的定向開發(fā),,而是在互聯網上向公眾提供公開的服務時便需要符合本法規(guī),。

何為“生成式人工智能”,第二條第二款中給出了一個十分寬泛的定義,,廣義的“算法模型和規(guī)則生成文本,、圖片、聲音的”可以涵蓋大多數網絡應用,,任何人工信息的輸入皆需要經過算法模型或者是一定規(guī)則的處理,,最終以另一種信息的表現形式呈現在輸出端,因此在實務中執(zhí)法部門如何理解“生成”二字尤為重要,。

第四條:提供生成式人工智能產品或服務應當遵守法律法規(guī)的要求,,尊重社會公德、公序良俗,,符合以下要求:

(一)利用生成式人工智能生成的內容應當體現社會主義核心價值觀,,不得含有顛覆國家政權、推翻社會主義制度,,煽動分裂國家,、破壞國家統(tǒng)一,,宣揚恐怖主義、極端主義,,宣揚民族仇恨,、民族歧視,暴力,、淫穢色情信息,,虛假信息,以及可能擾亂經濟秩序和社會秩序的內容,。

(二)在算法設計,、訓練數據選擇、模型生成和優(yōu)化,、提供服務等過程中,,采取措施防止出現種族、民族,、信仰,、國別、地域,、性別,、年齡、職業(yè)等歧視,。

(三)尊重知識產權,、商業(yè)道德,不得利用算法,、數據,、平臺等優(yōu)勢實施不公平競爭。

(四)利用生成式人工智能生成的內容應當真實準確,,采取措施防止生成虛假信息,。

(五)尊重他人合法利益,防止傷害他人身心健康,,損害肖像權,、名譽權和個人隱私,侵犯知識產權,。禁止非法獲取,、披露、利用個人信息和隱私,、商業(yè)秘密,。

解讀:此條可謂是實質統(tǒng)領性的條款,關注內容,、算法,、數據,、平臺不正競爭、用戶隱私等各個層面的問題,。首先是以國家統(tǒng)一、國家安全為第一要務,,重視內容監(jiān)管,。生成內容不能觸碰違反社會主義核心價值觀的底線,且謹防打著人工智能的旗號進行違法有害內容的有意輸出,。其次是謹防“算法偏見”現象,。除了杜絕主動輸出危害內容之外,也對在算法設計,、數據選取等較為隱性的服務實現步驟進行規(guī)制,,實現從模型到數據的全過程平等無偏見。

同時,,提前為可能在算法,、算力、數據等方面的壟斷的企業(yè)打了“預防針”,。國家提倡數字時代的共享共治,,在保護企業(yè)智力成果、投入成本的同時也謹防惡性競爭,、市場壟斷等行為的發(fā)生,。

可以看出政府努力引領“可信”生成式人工智能服務的發(fā)展。對于該類服務來說“可信”是最難以達成的,,黑箱模型使得很少有有效手段阻止模型輸出內容的“胡說八道”,,即便是行業(yè)頂尖的GPT-4也難以避免該現象的發(fā)生。并且,,核心問題指向服務生成內容可信程度的波動化,,一時超常的準確表現,一時難以分辨的潛藏錯誤是阻礙對該類服務賦予更多信任的主要原因,。因此第四條第四款中只是要求企業(yè)采取一定的措施對生成內容準確性進行維護,。

第五條:利用生成式人工智能產品提供聊天和文本、圖像,、聲音生成等服務的組織和個人(以下稱“提供者”),,包括通過提供可編程接口等方式支持他人自行生成文本、圖像,、聲音等,,承擔該產品生成內容生產者的責任;

解讀:第五條進一步明確在公眾用戶和產品服務提供商之間的關系,,將“生成內容生產者”的責任劃歸到產品服務提供商(文中稱為“提供者”)之下,。在這里有些很有趣的地方,,譬如A公司調用B公司的接口向公眾C提供服務,誰是內容提供商,?若B公司的接口并不向公眾開放,,而是通過其他方式供給于A,那么A才需要承擔法律上內容生產者的責任,;但若B公司也以公開的形式向A公司出售服務,,那么AB兩公司權利義務關系依照本辦法可能還存在模糊之處。

《辦法》中將將數據合法性也劃歸到“提供者”之下,,對服務背后的數據進行統(tǒng)一的要求,,可以看出日后提供者身份的“認定”是兵家必爭之地。該條最直接的意義便是對模型輸入端進行優(yōu)化,,從而盡可能地保證輸出端內容的純凈性,、準確性。從長遠的來看,,該要求對整個數據相關產業(yè)鏈提出的新的要求,,是對整個行業(yè)數據收集、傳輸,、交易,、檢驗、維護與保護的全面規(guī)制,。同時也完全符合現行立法對數據處理的各方面要求,,能夠極大程度防止后續(xù)違法行為的發(fā)生,屬于一舉多得,。

第八條:生成式人工智能產品研制中采用人工標注時,,提供者應當制定符合本辦法要求,清晰,、具體,、可操作的標注規(guī)則,對標注人員進行必要培訓,,抽樣核驗標注內容的正確性,。

解讀:網絡中對此條款的爭議很大,說很有可能促使誕生“打標員”這一新職業(yè),,人工智能行業(yè)也可以是“勞動密集型”的,。事實上,標注的成本不論是過去還是現在都是相當的高的,,為了標注的準確性,,減少錯誤標注的數據污染,復雜的規(guī)則制定、培訓,、檢驗已經成為行業(yè)的基本操作,,服務的開發(fā)者會自發(fā)使得標注盡量標準化來提高模型的表現。

第十條:提供者應當明確并公開其服務的適用人群,、場合,、用途,采取適當措施防范用戶過分依賴或沉迷生成內容,。

解讀:這條的設立頗具有先見之明的,。在過去,網絡服務提供內容導致用戶沉迷的例子不在少數,,而深度合成內容具有高度的擬人性和強交互性,讓人難以區(qū)分,,很可能會深陷其中,,不愿接受現實的樣子。不符合法律規(guī)定的相關服務很有可能成為新時代的“賽博大煙”,。

第十一條:提供者在提供服務過程中,,對用戶的輸入信息和使用記錄承擔保護義務。不得非法留存能夠推斷出用戶身份的輸入信息,,不得根據用戶輸入信息和使用情況進行畫像,,不得向他人提供用戶輸入信息。法律法規(guī)另有規(guī)定的,,從其規(guī)定,。

解讀:信息泄露問題在對話式內容生成服務中已經初見端倪。服務提供者為了根據用戶的輸入提供“完全個性化”的輸出,,需要將輸入投喂到模型當中,,很難在數據處理的過程中保證數據的“靜止性”。近期中國支付清算協會也發(fā)布倡議書,,提示支付行業(yè)從業(yè)人員合規(guī)使用ChatGPT等工具,,以避免行業(yè)關鍵數據泄露風險。

“畫像”是一個行業(yè)中的詞,,并沒有規(guī)范的定義,,何種行為可以被定義為“畫像”也是至關重要的問題。對用戶輸入的整合和統(tǒng)計當然的可以提供更為個性化的服務,,微軟近期的服務甚至可以將本地文件內容整合其中,,但是這種行為在本條中似乎被排除。之后行業(yè)如何在不“畫像”的情形下提供更為智能的服務是整個行業(yè)需要思考的問題,。

第十三條:提供者應當建立用戶投訴接收處理機制,,及時處置個人關于更正、刪除、屏蔽其個人信息的請求,;發(fā)現,、知悉生成的文本、圖片,、聲音,、視頻等侵害他人肖像權、名譽權,、個人隱私,、商業(yè)秘密,或者不符合本辦法要求時,,應當采取措施,,停止生成,防止危害持續(xù),。

第十五條:對于運行中發(fā)現,、用戶舉報的不符合本辦法要求的生成內容,除采取內容過濾等措施外,,應在3個月內通過模型優(yōu)化訓練等方式防止再次生成,。

第十九條:提供者發(fā)現用戶利用生成式人工智能產品過程中違反法律法規(guī),違背商業(yè)道德,、社會公德行為時,,包括從事網絡炒作、惡意發(fā)帖跟評,、制造垃圾郵件,、編寫惡意軟件,實施不正當的商業(yè)營銷等,,應當暫?;蛘呓K止服務。

解讀:對于生成式人工智能的“非法輸出”,,政府可以說是有預見的,,并不是一刀切的禁止,而是給企業(yè)留有相當的余地,。一方面提供者需要建立用戶投訴接收處理機制,,另一方面需要主動進行內容核查,發(fā)現違法內容及時采取措施,,停止服務,,防止危害持續(xù)生成,并在限定時間內優(yōu)化模型,。這對提供商整個模型反饋更新機制提出了很高的要求,。

寫在最后

目前《辦法》還處在征求意見階段,,未來一定會收納各方意見進行調整?!掇k法》的出臺對于整個行業(yè)的發(fā)展是引導,、也是壓力。各個開發(fā)者需要在數據維護,、模型設計,、模型輸出、用戶交互等全流程進行新的服務設計和改進,。目前世界范圍內對生成式人工智能技術的重視不單單僅是重視技術本身,,更體現了對該技術背后蘊藏的解放和發(fā)展當前其他領域生產力潛力的關注?!掇k法》的出臺顯示出我國對于生成式人工智能技術發(fā)展的關注與支持,,為相關科研機構、企業(yè)的發(fā)展納入到合規(guī),、安全的框架之中,,這對于構建本土化AIGC研發(fā)環(huán)境極其有利。

53
六和璧

六和璧

在ChatGPT和Bard這類工具大火,,國內科技巨頭紛紛加碼投資這個領域之際,《辦法》可以說對于促進行業(yè)的健康發(fā)展具有積極意義,。

雖然現在是征求意見階段,,但我觀察過大部分政策的意見稿和最終版,差別是很小的,。因此對于這一版,,倒也可以視作是正式的政策來看。

第四條提到“生成式人工智能生成的內容應當真實準確”,,這非??量獭<词故荂hatGPT這樣的工具,,也無法確保每一個都是“真實準確”,,而像Midjourney本身就是創(chuàng)意性質的圖像生成工具,其生成的一系列特朗普被捕入獄的照片已經到了“以假亂真”的程度,,因此如果一刀切“真實性”,,那無疑門檻太高也會扼殺一些創(chuàng)意性質的軟件。

而第六條中“網信部門申報安全評估”的要求無疑也是監(jiān)管加碼的表現,,這也許會限制類似產品開發(fā)的進度和節(jié)奏,。

5
ChenQ

ChenQ

那得人工智能技術的非常成熟了

20
Samcmo

Samcmo

1989夏進入營銷專業(yè)領域

政府(各國ai應用管理)都表現出了審慎地相對性保守——所以管理的政府危機爆發(fā)度不是一般的高!微軟/谷歌/open-ai不是現在急于研究一致推出標準化,,而應該建立公關發(fā)展委員會-危機公關研究應對中心的雙公關機制護航下的全球ai推廣,,在雙公關護航全球發(fā)展順利應對成熟駕輕就速了再推出標準化。

評論

撰寫或查看更多評論

請打開財富Plus APP

前往打開
熱讀文章