最近美國社交媒體上一個持續(xù)發(fā)酵的話題是:AI因為太講政治正確而翻車了,。
事情是這樣的:有人請谷歌的AI大模型Gemini作一幅“美國開國元勛”的肖像畫,Gemini給出了四幅圖,包括一位佩戴傳統(tǒng)頭飾的美洲原住民男子,、一位黑人男子,、一位膚色較深的非白人男子以及一位亞裔男子。
而我們都知道,,從華盛頓到杰斐遜,,一眾美國開國元勛,全是白人,。事實上,,他們中的不少人當時還在自家莊園中蓄著黑奴,這在后世被視作他們政治生涯的污點,。
這些圖被分享到社交媒體后引發(fā)嘩然,,馬斯克等一眾意見領袖炮轟這是“反文明”、“瘋狂的種族主義”,。當然,,這里的種族主義,指的是對白種人的反向歧視,。
這又引發(fā)了一波仿效行動:網(wǎng)友們請Gemini生成各種人像圖,,結果發(fā)現(xiàn)它就像被施了魔咒,就是不大情愿畫出白人形象,。風暴愈演愈烈,,谷歌公開道歉,并暫停了Gemini的人像作圖功能,。
這場風波,,看似大模型犯的低級錯誤,實際上卻可能源于人類的弄巧成拙,。有技術專家分析,,谷歌很可能是在“幕后”向用戶的提示語中添加了更能體現(xiàn)種族多樣性的關鍵詞,比如把用戶輸入的“一位廚師的肖像”的提示語,,調整成了“一位土著廚師的肖像”,。
這樣的干預,顯然是為了糾正令人擔心的“算法歧視”現(xiàn)象,。
過去幾十年間用于機器訓練的數(shù)據(jù)中,,白人的、男性的數(shù)據(jù)遠比其他膚色的,、女性的更豐富,,導致機器在人臉識別時普遍“偏愛”白人中年男性。比如,,早在2015年,,谷歌就因其照片應用程序將兩位黑人的照片標記為“大猩猩”而道歉。直到最近,一項調查發(fā)現(xiàn),,美國開發(fā)的算法對亞裔和非洲裔的人臉識別錯誤率要比對白人的高10倍以上,;而亞洲開發(fā)的算法中,對白人和亞洲人的識別錯誤率差距較小,。
再比如,,亞馬遜曾經(jīng)試圖開發(fā)一種自動化招聘系統(tǒng),利用機器學習來分析求職者的簡歷并為他們打分,。實踐一年后,,工程師們發(fā)現(xiàn),這套算法“不喜歡女性”,,因為基于數(shù)據(jù),它得出了“男性更可靠”的觀點,,降低了女性簡歷的權重,。
也就是說,假如放任不管,,算法將加劇人類社會中的偏見和不平等,。但是,人類若要干預,,應該干預到什么程度,?依據(jù)什么準則?
美國國父是真實存在過的人物,,因此算法可以根據(jù)歷史常識來減少錯誤,。甚至有技術專家觀察到,對于這類問題,,人類越少干預,,大模型越能產(chǎn)生更準確或更接近真相的結果。
但對于那些沒有正確答案,、需要體現(xiàn)某種價值判斷的問題,,算法處理起來就棘手得多。比如,,算法完全可以根據(jù)俄烏兩國的人口,、經(jīng)濟、軍力,、地緣格局,,精準高效地算出哪國更有可能在戰(zhàn)爭中獲勝,但至于這場戰(zhàn)爭該不該發(fā)生,,它必定給不出答案,。AI代表了人類工具理性的新高峰,但問題一旦關涉價值理性和道德判斷,就超出了它的能力范圍,。
那么我們是否可以為AI劃出一個讓它揚長避短的工作范圍,?簡單說,由人類決定一件事情要不要做,、怎么做之后,,讓AI幫忙,把這件事最高效地做成,。
但這種想法將技術視作完全中性的工具,,忽視了一點,那就是技術反過來會影響人,,人無時無刻不受到技術的調節(jié)和改造,。
美國技術哲學家唐·伊德(Don Ihde)舉過伊甸園的例子:伊甸園中的人最初是赤身裸體的,用知覺直接感受這個世界,,偷吃了智慧樹上的果實后,,人突然有了羞恥心,用無花果樹的葉子做成衣服,。于是,,衣服成了人類歷史上第一件技術制品,它的出現(xiàn),,加上后來出現(xiàn)的眼鏡,、汽車、手機等技術工具,,完全重構了我們感知和理解世界的方式,。
一個更現(xiàn)代的例子,是準媽媽在孕期的超聲波檢查,。通過這項技術,,一對夫婦能探查嬰兒是否健康,如果有畸形,,可能選擇放棄分娩,。因此,生不生孩子這樣重大的道德決策,,實際上是人和技術共同完成的,。
最前沿的機器學習中,甚至已經(jīng)開始嵌入道德取舍,。比如,,自動駕駛技術不僅要讓機器學會轉動車輪的角度、油門剎車的力度,,還要學習在即將發(fā)生碰撞,,不得不選擇犧牲一方,、保全另一方的緊急狀況下,如何做出抉擇,。麻省理工學院的認知科學家伊亞德·拉萬(Iyad Rahwan)就說過,,每次自動駕駛汽車做出避讓動作時,它已經(jīng)“暗中決定了不同群體的危險程度”,。
因此,,技術哲學家主張,技術已經(jīng)不再是一個中立的工具,,人與技術的關系嚴格來說是一種交互關系,,甚至可以說是交往關系。既然技術可以反過來影響人,,我們就可以將倫理價值嵌入到技術中,,使用技術來促使人按照道德規(guī)范來行動。
這么看來,,Gemini“不愿畫白人”風波,,有它的積極意義。它說明算法工程師們意識到了數(shù)據(jù)內含的歧視與不公,,并展開了積極行動;它矯枉過正引發(fā)的討論,,進一步提升了全社會的警覺,,起碼讓我們不會在無意識中,任由技術進一步放大這種不公,。
AI已不僅是執(zhí)行命令的工具,,它就是一面人類審視自我的“鏡子”,倒映出了人類自己的價值觀和道德標準,。而且,,它在某種程度上已經(jīng)開始反過來塑造我們新的道德認知。
那么如何設計AI,,才能使其成為促進社會正義和道德進步的積極力量,?這不僅是工程師的責任,也是全社會共同面臨的課題,。伴隨著這個問題,,人類與技術的關系將進入一個新紀元。(財富中文網(wǎng))