最近美國社交媒體上一個持續(xù)發(fā)酵的話題是:AI因為太講政治正確而翻車了,。
事情是這樣的:有人請谷歌的AI大模型Gemini作一幅“美國開國元勛”的肖像畫,,Gemini給出了四幅圖,,包括一位佩戴傳統(tǒng)頭飾的美洲原住民男子,、一位黑人男子、一位膚色較深的非白人男子以及一位亞裔男子,。
而我們都知道,,從華盛頓到杰斐遜,一眾美國開國元勛,,全是白人,。事實上,他們中的不少人當時還在自家莊園中蓄著黑奴,,這在后世被視作他們政治生涯的污點,。
這些圖被分享到社交媒體后引發(fā)嘩然,馬斯克等一眾意見領(lǐng)袖炮轟這是“反文明”,、“瘋狂的種族主義”,。當然,這里的種族主義,,指的是對白種人的反向歧視,。
這又引發(fā)了一波仿效行動:網(wǎng)友們請Gemini生成各種人像圖,結(jié)果發(fā)現(xiàn)它就像被施了魔咒,,就是不大情愿畫出白人形象,。風(fēng)暴愈演愈烈,谷歌公開道歉,,并暫停了Gemini的人像作圖功能,。
這場風(fēng)波,看似大模型犯的低級錯誤,,實際上卻可能源于人類的弄巧成拙,。有技術(shù)專家分析,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現(xiàn)種族多樣性的關(guān)鍵詞,,比如把用戶輸入的“一位廚師的肖像”的提示語,,調(diào)整成了“一位土著廚師的肖像”,。
這樣的干預(yù),顯然是為了糾正令人擔心的“算法歧視”現(xiàn)象,。
過去幾十年間用于機器訓(xùn)練的數(shù)據(jù)中,,白人的、男性的數(shù)據(jù)遠比其他膚色的,、女性的更豐富,,導(dǎo)致機器在人臉識別時普遍“偏愛”白人中年男性。比如,,早在2015年,,谷歌就因其照片應(yīng)用程序?qū)晌缓谌说恼掌瑯擞洖椤按笮尚伞倍狼浮V钡阶罱?,一項調(diào)查發(fā)現(xiàn),,美國開發(fā)的算法對亞裔和非洲裔的人臉識別錯誤率要比對白人的高10倍以上;而亞洲開發(fā)的算法中,,對白人和亞洲人的識別錯誤率差距較小,。
再比如,亞馬遜曾經(jīng)試圖開發(fā)一種自動化招聘系統(tǒng),,利用機器學(xué)習(xí)來分析求職者的簡歷并為他們打分,。實踐一年后,工程師們發(fā)現(xiàn),,這套算法“不喜歡女性”,,因為基于數(shù)據(jù),它得出了“男性更可靠”的觀點,,降低了女性簡歷的權(quán)重,。
也就是說,假如放任不管,,算法將加劇人類社會中的偏見和不平等,。但是,人類若要干預(yù),,應(yīng)該干預(yù)到什么程度,?依據(jù)什么準則?
美國國父是真實存在過的人物,,因此算法可以根據(jù)歷史常識來減少錯誤,。甚至有技術(shù)專家觀察到,對于這類問題,,人類越少干預(yù),,大模型越能產(chǎn)生更準確或更接近真相的結(jié)果。
但對于那些沒有正確答案,、需要體現(xiàn)某種價值判斷的問題,,算法處理起來就棘手得多,。比如,算法完全可以根據(jù)俄烏兩國的人口,、經(jīng)濟、軍力,、地緣格局,,精準高效地算出哪國更有可能在戰(zhàn)爭中獲勝,但至于這場戰(zhàn)爭該不該發(fā)生,,它必定給不出答案,。AI代表了人類工具理性的新高峰,但問題一旦關(guān)涉價值理性和道德判斷,,就超出了它的能力范圍,。
那么我們是否可以為AI劃出一個讓它揚長避短的工作范圍?簡單說,,由人類決定一件事情要不要做,、怎么做之后,讓AI幫忙,,把這件事最高效地做成,。
但這種想法將技術(shù)視作完全中性的工具,忽視了一點,,那就是技術(shù)反過來會影響人,,人無時無刻不受到技術(shù)的調(diào)節(jié)和改造。
美國技術(shù)哲學(xué)家唐·伊德(Don Ihde)舉過伊甸園的例子:伊甸園中的人最初是赤身裸體的,,用知覺直接感受這個世界,,偷吃了智慧樹上的果實后,人突然有了羞恥心,,用無花果樹的葉子做成衣服,。于是,衣服成了人類歷史上第一件技術(shù)制品,,它的出現(xiàn),,加上后來出現(xiàn)的眼鏡、汽車,、手機等技術(shù)工具,,完全重構(gòu)了我們感知和理解世界的方式。
一個更現(xiàn)代的例子,,是準媽媽在孕期的超聲波檢查,。通過這項技術(shù),一對夫婦能探查嬰兒是否健康,,如果有畸形,,可能選擇放棄分娩,。因此,生不生孩子這樣重大的道德決策,,實際上是人和技術(shù)共同完成的,。
最前沿的機器學(xué)習(xí)中,甚至已經(jīng)開始嵌入道德取舍,。比如,,自動駕駛技術(shù)不僅要讓機器學(xué)會轉(zhuǎn)動車輪的角度、油門剎車的力度,,還要學(xué)習(xí)在即將發(fā)生碰撞,,不得不選擇犧牲一方、保全另一方的緊急狀況下,,如何做出抉擇,。麻省理工學(xué)院的認知科學(xué)家伊亞德·拉萬(Iyad Rahwan)就說過,每次自動駕駛汽車做出避讓動作時,,它已經(jīng)“暗中決定了不同群體的危險程度”,。
因此,技術(shù)哲學(xué)家主張,,技術(shù)已經(jīng)不再是一個中立的工具,,人與技術(shù)的關(guān)系嚴格來說是一種交互關(guān)系,甚至可以說是交往關(guān)系,。既然技術(shù)可以反過來影響人,,我們就可以將倫理價值嵌入到技術(shù)中,使用技術(shù)來促使人按照道德規(guī)范來行動,。
這么看來,,Gemini“不愿畫白人”風(fēng)波,有它的積極意義,。它說明算法工程師們意識到了數(shù)據(jù)內(nèi)含的歧視與不公,,并展開了積極行動;它矯枉過正引發(fā)的討論,,進一步提升了全社會的警覺,,起碼讓我們不會在無意識中,任由技術(shù)進一步放大這種不公,。
AI已不僅是執(zhí)行命令的工具,,它就是一面人類審視自我的“鏡子”,倒映出了人類自己的價值觀和道德標準,。而且,,它在某種程度上已經(jīng)開始反過來塑造我們新的道德認知。
那么如何設(shè)計AI,才能使其成為促進社會正義和道德進步的積極力量,?這不僅是工程師的責任,,也是全社會共同面臨的課題。伴隨著這個問題,,人類與技術(shù)的關(guān)系將進入一個新紀元,。(財富中文網(wǎng))