最近美國社交媒體上一個(gè)持續(xù)發(fā)酵的話題是:AI因?yàn)樘v政治正確而翻車了,。
事情是這樣的:有人請谷歌的AI大模型Gemini作一幅“美國開國元勛”的肖像畫,,Gemini給出了四幅圖,包括一位佩戴傳統(tǒng)頭飾的美洲原住民男子,、一位黑人男子,、一位膚色較深的非白人男子以及一位亞裔男子。
而我們都知道,,從華盛頓到杰斐遜,,一眾美國開國元勛,,全是白人。事實(shí)上,,他們中的不少人當(dāng)時(shí)還在自家莊園中蓄著黑奴,,這在后世被視作他們政治生涯的污點(diǎn)。
這些圖被分享到社交媒體后引發(fā)嘩然,,馬斯克等一眾意見領(lǐng)袖炮轟這是“反文明”,、“瘋狂的種族主義”。當(dāng)然,,這里的種族主義,,指的是對白種人的反向歧視。
這又引發(fā)了一波仿效行動:網(wǎng)友們請Gemini生成各種人像圖,,結(jié)果發(fā)現(xiàn)它就像被施了魔咒,,就是不大情愿畫出白人形象。風(fēng)暴愈演愈烈,,谷歌公開道歉,,并暫停了Gemini的人像作圖功能。
這場風(fēng)波,,看似大模型犯的低級錯誤,,實(shí)際上卻可能源于人類的弄巧成拙。有技術(shù)專家分析,,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現(xiàn)種族多樣性的關(guān)鍵詞,,比如把用戶輸入的“一位廚師的肖像”的提示語,調(diào)整成了“一位土著廚師的肖像”,。
這樣的干預(yù),顯然是為了糾正令人擔(dān)心的“算法歧視”現(xiàn)象,。
過去幾十年間用于機(jī)器訓(xùn)練的數(shù)據(jù)中,,白人的、男性的數(shù)據(jù)遠(yuǎn)比其他膚色的,、女性的更豐富,,導(dǎo)致機(jī)器在人臉識別時(shí)普遍“偏愛”白人中年男性。比如,,早在2015年,,谷歌就因其照片應(yīng)用程序?qū)晌缓谌说恼掌瑯?biāo)記為“大猩猩”而道歉。直到最近,,一項(xiàng)調(diào)查發(fā)現(xiàn),,美國開發(fā)的算法對亞裔和非洲裔的人臉識別錯誤率要比對白人的高10倍以上;而亞洲開發(fā)的算法中,,對白人和亞洲人的識別錯誤率差距較小,。
再比如,,亞馬遜曾經(jīng)試圖開發(fā)一種自動化招聘系統(tǒng),利用機(jī)器學(xué)習(xí)來分析求職者的簡歷并為他們打分,。實(shí)踐一年后,,工程師們發(fā)現(xiàn),這套算法“不喜歡女性”,,因?yàn)榛跀?shù)據(jù),,它得出了“男性更可靠”的觀點(diǎn),降低了女性簡歷的權(quán)重,。
也就是說,,假如放任不管,算法將加劇人類社會中的偏見和不平等,。但是,,人類若要干預(yù),應(yīng)該干預(yù)到什么程度,?依據(jù)什么準(zhǔn)則,?
美國國父是真實(shí)存在過的人物,因此算法可以根據(jù)歷史常識來減少錯誤,。甚至有技術(shù)專家觀察到,,對于這類問題,人類越少干預(yù),,大模型越能產(chǎn)生更準(zhǔn)確或更接近真相的結(jié)果,。
但對于那些沒有正確答案、需要體現(xiàn)某種價(jià)值判斷的問題,,算法處理起來就棘手得多,。比如,算法完全可以根據(jù)俄烏兩國的人口,、經(jīng)濟(jì),、軍力、地緣格局,,精準(zhǔn)高效地算出哪國更有可能在戰(zhàn)爭中獲勝,,但至于這場戰(zhàn)爭該不該發(fā)生,它必定給不出答案,。AI代表了人類工具理性的新高峰,,但問題一旦關(guān)涉價(jià)值理性和道德判斷,就超出了它的能力范圍,。
那么我們是否可以為AI劃出一個(gè)讓它揚(yáng)長避短的工作范圍,?簡單說,由人類決定一件事情要不要做、怎么做之后,,讓AI幫忙,,把這件事最高效地做成。
但這種想法將技術(shù)視作完全中性的工具,,忽視了一點(diǎn),,那就是技術(shù)反過來會影響人,人無時(shí)無刻不受到技術(shù)的調(diào)節(jié)和改造,。
美國技術(shù)哲學(xué)家唐·伊德(Don Ihde)舉過伊甸園的例子:伊甸園中的人最初是赤身裸體的,,用知覺直接感受這個(gè)世界,偷吃了智慧樹上的果實(shí)后,,人突然有了羞恥心,,用無花果樹的葉子做成衣服。于是,,衣服成了人類歷史上第一件技術(shù)制品,,它的出現(xiàn),加上后來出現(xiàn)的眼鏡,、汽車,、手機(jī)等技術(shù)工具,完全重構(gòu)了我們感知和理解世界的方式,。
一個(gè)更現(xiàn)代的例子,,是準(zhǔn)媽媽在孕期的超聲波檢查。通過這項(xiàng)技術(shù),,一對夫婦能探查嬰兒是否健康,,如果有畸形,可能選擇放棄分娩,。因此,,生不生孩子這樣重大的道德決策,實(shí)際上是人和技術(shù)共同完成的,。
最前沿的機(jī)器學(xué)習(xí)中,,甚至已經(jīng)開始嵌入道德取舍。比如,,自動駕駛技術(shù)不僅要讓機(jī)器學(xué)會轉(zhuǎn)動車輪的角度、油門剎車的力度,,還要學(xué)習(xí)在即將發(fā)生碰撞,,不得不選擇犧牲一方、保全另一方的緊急狀況下,,如何做出抉擇,。麻省理工學(xué)院的認(rèn)知科學(xué)家伊亞德·拉萬(Iyad Rahwan)就說過,每次自動駕駛汽車做出避讓動作時(shí),它已經(jīng)“暗中決定了不同群體的危險(xiǎn)程度”,。
因此,,技術(shù)哲學(xué)家主張,技術(shù)已經(jīng)不再是一個(gè)中立的工具,,人與技術(shù)的關(guān)系嚴(yán)格來說是一種交互關(guān)系,,甚至可以說是交往關(guān)系。既然技術(shù)可以反過來影響人,,我們就可以將倫理價(jià)值嵌入到技術(shù)中,,使用技術(shù)來促使人按照道德規(guī)范來行動。
這么看來,,Gemini“不愿畫白人”風(fēng)波,,有它的積極意義。它說明算法工程師們意識到了數(shù)據(jù)內(nèi)含的歧視與不公,,并展開了積極行動,;它矯枉過正引發(fā)的討論,進(jìn)一步提升了全社會的警覺,,起碼讓我們不會在無意識中,,任由技術(shù)進(jìn)一步放大這種不公。
AI已不僅是執(zhí)行命令的工具,,它就是一面人類審視自我的“鏡子”,,倒映出了人類自己的價(jià)值觀和道德標(biāo)準(zhǔn)。而且,,它在某種程度上已經(jīng)開始反過來塑造我們新的道德認(rèn)知,。
那么如何設(shè)計(jì)AI,才能使其成為促進(jìn)社會正義和道德進(jìn)步的積極力量,?這不僅是工程師的責(zé)任,,也是全社會共同面臨的課題。伴隨著這個(gè)問題,,人類與技術(shù)的關(guān)系將進(jìn)入一個(gè)新紀(jì)元,。(財(cái)富中文網(wǎng))