AI模型“生成不了白人”,,谷歌高級副總裁道歉

蘇牧野
在美國國父一例中,,Gemini違反了歷史常識,而這令人發(fā)笑的低級錯誤可能是最容易“糾正”的一類,。有技術(shù)專家分析Gemini出錯原因時猜測,,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現(xiàn)種族多樣性的關(guān)鍵詞,比如用戶輸入的“一個廚師的肖像”這樣的提示語,,會被調(diào)整為“一位土著廚師的肖像”,。
事實上,人工智能最近幾年的發(fā)展一而再,、再而三地說明,,人類專家越少的干預(yù)反而越能產(chǎn)生好的模型效果。
換句話說,,“美國國父”是真實存在過的人物,,對他們的描繪大致可以被判定為準確或不準確的。相比較起來,,那些沒有正確答案的問題,,對AI來說要棘手得多,。

福榮
谷歌Gemini的圖片生成功能因為過于“政治正確”,生成了很多嚴重偏離事實的圖片,,遭到網(wǎng)友吐槽,,稱其為“人工智能種族主義”,谷歌致歉,,連夜下架Gemini文生圖功能,,現(xiàn)在谷歌高級副總裁也來道歉了,可見事態(tài)嚴重,。
大家肯定會好奇為什么會出現(xiàn)這個問題呢,?我在網(wǎng)上看到一位谷歌AI的前高管說法:谷歌可能在背后在用戶提示詞基礎(chǔ)上添加了種族多樣性術(shù)語。在這種情況下,,像“士兵的肖像”這樣的提示詞可能會變成“土著士兵的肖像”,。在這種情況下,可以隨機選擇附加術(shù)語,,那么谷歌算法上的某種“政治正確”就很可能會更加優(yōu)先地顯示基于深色膚色生成的圖像,。比如說,如果 Gemini 為每個提示生成 10 張圖像,,谷歌會讓系統(tǒng)分析圖像中描繪的人的膚色,,并將膚色較深的人的圖像推到隊列中的較高位置。因此,,如果 Gemini 只顯示前 4 張圖,,那么最有可能看到膚色較深的。這也就解釋了為什么人們看到這些本應(yīng)是白人形象的歷史人物變成深膚色了,。
我感覺這會是一個轉(zhuǎn)折點事件,。大家都知道互聯(lián)網(wǎng)平臺發(fā)布內(nèi)容都是要進行內(nèi)容審核。很顯然這次Gemini沒有進行審核,,也很難審核,,這是否意味著未來加強AIGC的監(jiān)管會先從內(nèi)容審核切入,?讓我們拭目以待吧,。