如果你已經(jīng)開始在工作流程中加入生成式人工智能工具,例如ChatGPT,,你就可能已經(jīng)注意到了一個相當驚人的情況:雖然人工智能可以幫助你更有效率地寫作或編碼或畫圖,,但它也需要花費許多功夫才能夠把作品調(diào)整成類似于由你自己創(chuàng)作的東西。
因此,,對于生成式人工智能,,用戶面臨著一個基本的利弊權(quán)衡。為了最大限度地提高其效率優(yōu)勢,,你需要犧牲一些對作品的“保真度”,,也就是生成式人工智能在維持你獨特風格或觀點上的忠實或準確度,。
“如果重點在于加快工作速度以及提高生產(chǎn)力,那么為了提高速度,,你可能就必須在某個地方放棄某些東西,。”凱洛格學院的管理經(jīng)濟學和決策學助理教授塞巴斯蒂安·馬丁說道,。
對個人來說,,這種利弊取舍雖然痛苦,但至少直截了當,。你可以把人工智能生成的作品視為“足夠好”而接受它,,或是投入更多的時間將作品個性化,比如通過事前提供更多信息,、調(diào)整提示或事后對作品進行編輯,。對于具有獨特風格或觀點的個人,他們甚至可能認為對人工智能作品進行個性化是弊大于利的麻煩事,,因此干脆棄之不用,。
然而,當每一個人都開始使用這些工具時,,會是什么情況呢,?速度與保真度之間的利弊取舍是否會對社會具有更廣泛的短期與長期影響?
馬丁在一項與美國加州大學洛杉磯分校同事弗朗西斯科·卡斯特羅和高?。ㄗg音)共同進行的新研究中發(fā)現(xiàn),,使用人工智能創(chuàng)建內(nèi)容會增加我們集體產(chǎn)出作品的同質(zhì)性,,即使我們試圖把作品進行個性化也不會改變,。此外,這些內(nèi)容還會繼承人工智能在訓練過程中可能學到的任何偏見,。換句話說,,少數(shù)人工智能公司的工作者的品味與偏見可能最終會滲透到整個社會之中。研究還發(fā)現(xiàn),,這些效應的負面影響會隨著人工智能生成的作品用來訓練下一代人工智能而加劇,。
然而,從更積極的角度來看,,該研究表明,,創(chuàng)建鼓勵用戶提供信息以及促進手動編輯的人工智能工具能夠預防出現(xiàn)這些結(jié)果的最糟糕的情況。
機遇與風險并存
馬丁非常熟悉生成式人工智能具有的速度與保真度之間的利弊權(quán)衡,。畢竟他的母語是法語,,他經(jīng)常需要依賴語法檢查軟件Grammarly來提高他的書面英語。他說:“我節(jié)省了大量時間,!”
盡管如此,,馬丁也承認使用這個工具無可避免地會影響他寫的文章,。這倒不是什么嚴重的問題,最多就是個人慣用的標點符號,、遣詞用字和句子結(jié)構(gòu)受到影響,。“Grammarly寫出來的東西不會和我自己寫的東西一模一樣,?!彼f,“同樣的事物可以用不同的方式寫出來,,有時僅僅是風格不同而已,。”
但其他時候,,差異具有較大的意義,。無論我們將一個事件描述為“抗議”或“騷亂”,或是從中間偏右或中間偏左的觀點撰寫一則新聞,,都會有意義地塑造讀者對事件的印象,。更廣泛地說,隨著時間的推移,,當每個人的集體品味都受到相同算法的影響時,,會出現(xiàn)什么樣的情況?
為了找到答案,,馬丁,、卡斯特羅和高健建立了一個數(shù)學模型來模擬整個社會使用相同人工智能工具的結(jié)果。
在他們的模型中,,具有各種不同偏好的用戶使用人工智能執(zhí)行相同的任務,,并且能夠選擇依照自己的喜好把作品進行個性化。這些個性化是通過交換關于每一個用戶的偏好信息來實現(xiàn)的,。用戶根據(jù)自己的情況決定要花費多少精力:提供更多信息意味著人工智能將可以更好地展現(xiàn)獨特偏好,,但這也需要更多的工作。提供較少的信息會更快更容易,,但會產(chǎn)生更加一般化的結(jié)果,,沒有特殊性。如果用戶提供的信息有限,,那么即便是最好的人工智能也無法猜出用戶的真正偏好,,但它能夠在訓練過程中通過學習整個群體各式各樣的偏好來做出有根據(jù)的猜測。
研究人員想知道,,個人用戶會如何決定這些工具的使用,,以及他們的選擇總體而言意味著什么?
受到算法啟發(fā)
該模型證實,,對具有最常見或中間偏好的用戶來說,,最佳的決定是按照原樣接受人工智能產(chǎn)出的作品,;但是,具有不太常見偏好的用戶則會被激勵向人工智能提供額外信息或編輯人工智能作品以使其與默認作品不同,。而對具有邊緣偏好的用戶而言,,人工智能根本不會節(jié)省時間,這類用戶最好自己創(chuàng)建內(nèi)容,。
該模型也發(fā)現(xiàn),,人工智能生成內(nèi)容的同質(zhì)性總是高于用戶生成內(nèi)容,這個結(jié)論在個人層面是正確的,,在此層面人工智能的益處來自于將我們自己的一些折衷偏好來代替更流行的偏好,。該結(jié)論在群體層面也同樣正確。人工智能生成內(nèi)容呈現(xiàn)的偏好范疇比群體的偏好范圍變化更小,,這是因為具有邊緣品味的用戶根本不使用這項工具,,以至于效果被放大。
此外,,這種一致性會隨著時間推移而累積,,因為人工智能生成的內(nèi)容會用來訓練下一代人工智能,于是形成了一種研究人員稱為的同質(zhì)性“死亡螺旋”,。新人工智能用同質(zhì)性更高的數(shù)據(jù)加以訓練,,因此創(chuàng)造出同質(zhì)性內(nèi)容的可能性更大。于是用戶需要花費更多的時間與精力來調(diào)整人工智能生成的作品以符合自己的偏好,,有些人不愿意這么做,,從而導致更加同質(zhì)化。
該模型顯示,,人工智能的另一個問題,,即偏見,也會隨著時間的推移而累積,。由于大多數(shù)人工智能是由少數(shù)人創(chuàng)建與訓練(典型方式是采用RLHF,,即基于人類反饋的強化學習),因此一些偏見滲入初始人工智能產(chǎn)出的作品幾乎不可避免,。用戶可以通過一些努力來消除這種偏見,不過如果偏見夠小,,大多數(shù)人可能就會認為不值得去處理,,或者甚至根本沒有注意到。
但如果我們都這樣做,,那這種能夠理解的個人行為就會累積,。隨著時間的推移,“任何人工智能偏見實際上可能轉(zhuǎn)變?yōu)樯鐣??!瘪R丁說道,。
這讓人工智能公司對社會產(chǎn)出作品具有巨大影響,即使用戶竭盡所能加以限制也無法改變,。
前進的道路
研究人員發(fā)現(xiàn),,有一些方法可以緩解與人工智能相關的社會問題。最有希望的一個方法是讓更多的人與人工智能互動并且自己編輯人工智能生成的作品,。只要模型生成的作品能夠反映出用戶的真實偏好,,同質(zhì)性和偏見便不會泛濫失控,而要能做到反映真實偏好就需要用戶清楚表達自己的偏好,。
在實踐中,,這或許意味著人工智能在生成結(jié)果之前先詢問用戶一些問題,以便更好地了解用戶的獨特風格或觀點,。這也許還意味著提供多個作品版本,。
“不是給你一個版本,而是嘗試給你兩個截然不同的版本讓你選擇,?!瘪R丁表示。
他承認,,這些建議在短期內(nèi)會減慢用戶的速度,,從而使該技術的用處稍有降低。但從長遠來看,,無論對于用戶還是對于人工智能工具來說,,這種策略“肯定非常好”。
馬丁對生成式人工智能在內(nèi)容創(chuàng)作中發(fā)揮的作用仍然持樂觀態(tài)度——只要它繼續(xù)反映人類的全方位偏好,。事實上,,讓大量新作家、藝術家或程序員更容易進行創(chuàng)作甚至可能會帶來好處,。
他說:“人工智能還可以讓更多的人從事他們以前無法做到的事情,,這可能會增加一點多樣性?!保ㄘ敻恢形木W(wǎng))