亚色在线观看_亚洲人成a片高清在线观看不卡_亚洲中文无码亚洲人成频_免费在线黄片,69精品视频九九精品视频,美女大黄三级,人人干人人g,全新av网站每日更新播放,亚洲三及片,wwww无码视频,亚洲中文字幕无码一区在线

首頁(yè) 500強(qiáng) 活動(dòng) 榜單 商業(yè) 科技 商潮 專(zhuān)題 品牌中心
雜志訂閱

人工智能太容易學(xué)壞,,該怎么辦?

Jonathan Vanian
2018-07-12

人工智能可以模仿并強(qiáng)化人類(lèi)決策,,同時(shí)也放大人類(lèi)的偏見(jiàn),。科技巨頭能否解決大數(shù)據(jù)歧視問(wèn)題,?

文本設(shè)置
小號(hào)
默認(rèn)
大號(hào)
Plus(0條)

插圖:Giacomo Carmagnola? Statue: Artneli/Alamy

2016年3月微軟推出Tay時(shí),非??春眠@款人工智能支持的“聊天機(jī)器人”,。跟人們之前在電商網(wǎng)站上接觸過(guò)的文字聊天程序一樣,Tay也可以回答文字問(wèn)題,,從而在推特和其他社交媒體上與公眾交流,。

但Tay功能更強(qiáng)大,不僅能回答事實(shí)性問(wèn)題,,還可以進(jìn)行更復(fù)雜的交流,,即加入了情感因素。Tay能表現(xiàn)出幽默感,,像朋友一樣跟用戶說(shuō)笑,。設(shè)計(jì)者特地讓Tay模仿十幾歲少女的俏皮口吻。如果推特的用戶問(wèn)Tay父母是誰(shuí),,她可能回答說(shuō):“哦,,是微軟實(shí)驗(yàn)室的一群科學(xué)家。按你們的概念里他們就是我父母?!比绻腥藛?wèn)Tay過(guò)得怎樣,她還可能吐槽說(shuō):“天吶,,今天可累死我了,。”

最有趣的一點(diǎn)是,,隨著與越來(lái)越多人交談,,Tay問(wèn)答時(shí)會(huì)越發(fā)熟練。宣傳材料中提到:“你跟Tay聊得越多,,她就越聰明,,體驗(yàn)也會(huì)個(gè)人化?!焙?jiǎn)單點(diǎn)說(shuō),,Tay具有人工智能最重要的特點(diǎn),即隨時(shí)間越來(lái)越聰明,,越來(lái)越高效,,提供的幫助也越來(lái)越大。

但沒(méi)人想到網(wǎng)絡(luò)噴子的破壞性如此之強(qiáng),。

發(fā)現(xiàn)Tay會(huì)學(xué)習(xí)模仿交流對(duì)象的話之后,,網(wǎng)上一些心懷惡意的人聊天時(shí)故意說(shuō)一些種族主義、歧視同性戀等攻擊言論,。沒(méi)過(guò)幾個(gè)小時(shí),,Tay在推特賬號(hào)上已是臟話連篇,而且全部公開(kāi),?!爸鞒秩巳鹌妗そ芫S斯向無(wú)神論者阿道夫·希特勒學(xué)習(xí)了極權(quán)主義?!盩ay在一條推文里說(shuō),,像極了推特上專(zhuān)事造謠誹謗的假新聞。如果問(wèn)Tay怎么看時(shí)任總統(tǒng)奧巴馬,,她會(huì)說(shuō)奧巴馬像猴子,。如果問(wèn)她大屠殺事件,她會(huì)說(shuō)沒(méi)發(fā)生過(guò),。

沒(méi)到一天,,Tay已經(jīng)從友好的鄰家女孩變成滿口臟話的小太妹。上線不到24小時(shí),,微軟就宣布下線產(chǎn)品并公開(kāi)道歉,。

微軟研究團(tuán)隊(duì)完全沒(méi)想到事情會(huì)如此轉(zhuǎn)折,也令人驚訝,?!跋到y(tǒng)上線時(shí),,我們并沒(méi)有想到進(jìn)入現(xiàn)實(shí)世界會(huì)怎樣?!蔽④浹芯亢腿斯ぶ悄芸偙O(jiān)艾瑞克·霍維茨近日接受采訪時(shí)告訴《財(cái)富》雜志,。

Tay項(xiàng)目崩潰之后,霍維茨迅速讓高級(jí)團(tuán)隊(duì)研究“自然語(yǔ)言處理”項(xiàng)目,,也是Tay對(duì)話核心功能,,尋找問(wèn)題根源。團(tuán)隊(duì)成員迅速發(fā)現(xiàn),,與聊天程序相關(guān)的最佳基本行為遭到忽視,。在Tay之前更基礎(chǔ)版本的軟件里,經(jīng)常有屏蔽不良表述的協(xié)議,,但并沒(méi)有保護(hù)措施限制Tay可能學(xué)習(xí)發(fā)散的數(shù)據(jù),。

霍維茨認(rèn)為,現(xiàn)在他終于可以“坦然分析”Tay案例,,這已經(jīng)變成微軟發(fā)展過(guò)程中的重要教訓(xùn),。如今微軟在全球推出成熟得多的社交聊天機(jī)器人,包括印度的Ruuh,、日本和印度尼西亞的Rinna,。在美國(guó)市場(chǎng),微軟推出了Tay的姊妹聊天軟件Zo,。有些則跟蘋(píng)果的Siri和亞馬遜的Alexa一樣,,進(jìn)化到通過(guò)語(yǔ)音交互。中國(guó)市場(chǎng)的聊天機(jī)器人叫小冰,,已經(jīng)開(kāi)始“主持”電視節(jié)目,,向便利店顧客發(fā)送購(gòu)物建議。

然而這次微軟明顯謹(jǐn)慎許多,?;艟S茨解釋說(shuō),現(xiàn)在機(jī)器人推出比較慢,,而且會(huì)認(rèn)真觀察軟件發(fā)展過(guò)程中與大眾互動(dòng)情況,。不過(guò)微軟也清醒地意識(shí)到,即便人工智能技術(shù)在兩年里可能發(fā)展迅速,,但管理機(jī)器人行為的工作永無(wú)止境,。微軟員工一直在監(jiān)視導(dǎo)致聊天機(jī)器人行為變化的對(duì)話。此類(lèi)對(duì)話也不斷出現(xiàn),。舉例來(lái)說(shuō),,Zo上線頭幾個(gè)月里就遇到各種狀況,調(diào)整又調(diào)整,Zo曾經(jīng)叫微軟旗艦產(chǎn)品Windows軟件“間諜軟件”,,還說(shuō)伊斯蘭教經(jīng)典《古蘭經(jīng)》“非常暴力”,。

當(dāng)然了,未來(lái)機(jī)器人并不會(huì)像Tay和Zo一樣,。這些都是相對(duì)原始的程序,,只是各項(xiàng)研究里比較花哨的部分,可從中一窺人工智能可能達(dá)到的程度,。從軟件的缺陷能看出,,哪怕只部分應(yīng)用人工智能,,軟件的能力和潛在隱患都會(huì)放大,。雖然商業(yè)世界已經(jīng)準(zhǔn)備好未來(lái)更廣泛應(yīng)用人工智能,現(xiàn)在軟件存在問(wèn)題也意味著更多潛在風(fēng)險(xiǎn),,讓技術(shù)人員寢食難安,。

“做好最完善的準(zhǔn)備,然后希望紕漏越來(lái)越少,?!被艟S茨表示。隨著各公司將人工智能提升到重要戰(zhàn)略地位,,如何確保萬(wàn)無(wú)一失就非常緊迫,。

幾乎所有人都相信,當(dāng)前我們?cè)谄髽I(yè)人工智能大爆發(fā)前夜,。研究公司IDC預(yù)計(jì),,到2021年,企業(yè)每年將在人工智能相關(guān)產(chǎn)品上花費(fèi)522億美元,。經(jīng)濟(jì)學(xué)家和分析師都認(rèn)為,,相關(guān)投資屆時(shí)可以實(shí)現(xiàn)數(shù)十億美元的成本節(jié)約和收益。其中一些收益將來(lái)自崗位壓縮,,更多則來(lái)自產(chǎn)品與客戶,、藥品與病人,解決方案與問(wèn)題之間的高效匹配,。咨詢(xún)公司普華永道就預(yù)計(jì),,到2030年,人工智能可為全球經(jīng)濟(jì)貢獻(xiàn)多達(dá)15.7萬(wàn)億美元,,比現(xiàn)在中國(guó)和印度的總產(chǎn)值加起來(lái)還多,。

人工智能技術(shù)之所以流行,主要因?yàn)椤吧疃葘W(xué)習(xí)”技術(shù)推進(jìn),。利用深度學(xué)習(xí)之后,,企業(yè)可以在網(wǎng)絡(luò)中輸入大量信息,迅速識(shí)別模式,而且耗費(fèi)人工培訓(xùn)的時(shí)間減少(最終很可能無(wú)需培訓(xùn)),。Facebook,、谷歌、微軟,、亞馬遜和IBM等巨頭都已在產(chǎn)品上應(yīng)用深度學(xué)習(xí)技術(shù),。舉例來(lái)說(shuō),蘋(píng)果的Siri和谷歌的語(yǔ)音助手Assistant應(yīng)用深度學(xué)習(xí)技術(shù)后,,可在用戶說(shuō)話之后識(shí)別并回應(yīng),。亞馬遜主要利用深度學(xué)習(xí)直觀檢查大量通過(guò)雜貨店派送的產(chǎn)品。

不久的將來(lái),,各種規(guī)模的公司都會(huì)希望通過(guò)應(yīng)用深度學(xué)習(xí)軟件挖掘數(shù)據(jù),,尋找人眼很難發(fā)現(xiàn)的寶貝。人們希望出現(xiàn)人工智能系統(tǒng)掃描數(shù)千張X光圖像,,從而更迅速發(fā)現(xiàn)疾?。换蜃詣?dòng)篩選多份簡(jiǎn)歷,,為焦頭爛額的人力資源員工節(jié)省時(shí)間,。在科技主義者的設(shè)想中,公司可以用人工智能篩選過(guò)去多年的數(shù)據(jù),,更好地預(yù)測(cè)下一次大賣(mài)的機(jī)會(huì),。藥業(yè)巨頭可以削減研發(fā)暢銷(xiāo)藥的時(shí)間。而汽車(chē)保險(xiǎn)公司也能掃描記錄數(shù)萬(wàn)億字節(jié)的事故報(bào)告,,實(shí)現(xiàn)自動(dòng)索賠等,。

盡管人工智能支持系統(tǒng)潛力巨大,但也有黑暗一面,。首先,,系統(tǒng)決策水平受到人類(lèi)提供數(shù)據(jù)限制。開(kāi)發(fā)者雖然不斷學(xué)習(xí),,用來(lái)培訓(xùn)深度學(xué)習(xí)系統(tǒng)的數(shù)據(jù)卻并不中立,。數(shù)據(jù)很容易體現(xiàn)出開(kāi)發(fā)者的偏見(jiàn),不管有意還是無(wú)意,。有時(shí)數(shù)據(jù)還會(huì)受歷史影響,,形成的趨勢(shì)和模式體現(xiàn)出持續(xù)數(shù)百年的歧視觀點(diǎn)。成熟的算法掃描歷史數(shù)據(jù)庫(kù)后可能得出結(jié)論,,白人男性最有可能當(dāng)上首席執(zhí)行官,。算法卻意識(shí)不到,如果不是白人男性幾乎沒(méi)機(jī)會(huì)當(dāng)上首席執(zhí)行官,,情況直到最近才有改變,。無(wú)視偏見(jiàn)是人工智能技術(shù)的一項(xiàng)根本缺陷,,雖然高管和工程師在談起該問(wèn)題時(shí)極為謹(jǐn)慎,也都說(shuō)得比較官方,,但很明顯他們都很重視這一問(wèn)題,。

當(dāng)前應(yīng)用的強(qiáng)大算法“沒(méi)有為所謂公平進(jìn)行優(yōu)化,”加州大學(xué)伯克利分校副教授迪爾德麗·穆里根表示,,她主要研究技術(shù)倫理,。“只存在為完成某項(xiàng)任務(wù)優(yōu)化,?!比斯ぶ悄芤郧八从械乃俣葘?shù)據(jù)轉(zhuǎn)化為決策,但穆里根表示,,科學(xué)家和倫理學(xué)家發(fā)現(xiàn)很多情況下“數(shù)據(jù)并不公平”,。

讓問(wèn)題更加復(fù)雜的是,深度學(xué)習(xí)比之前應(yīng)用的傳統(tǒng)算法更加復(fù)雜,,即便讓經(jīng)驗(yàn)最豐富的程序員理解人工智能系統(tǒng)做出某項(xiàng)決策的邏輯都十分困難,。在Tay的例子里,,人工智能產(chǎn)品不斷發(fā)生變化,,開(kāi)發(fā)者已無(wú)法理解也無(wú)法預(yù)測(cè)為何出現(xiàn)某些行為。由于系統(tǒng)的開(kāi)發(fā)者和用戶都在拼命保密數(shù)據(jù)和算法,,而且擔(dān)心專(zhuān)利技術(shù)泄露導(dǎo)致競(jìng)爭(zhēng)受損,,外部監(jiān)測(cè)機(jī)構(gòu)也很難發(fā)現(xiàn)系統(tǒng)里存在什么問(wèn)題。

類(lèi)似裝在黑匣子里的秘密技術(shù)已在不少公司和政府部門(mén)應(yīng)用,,讓很多研究者和活躍人士非常擔(dān)心,。“這些可不是現(xiàn)成的軟件,,可以隨便買(mǎi)來(lái),,然后說(shuō)‘啊,現(xiàn)在終于能在家完成會(huì)計(jì)工作了,?!蔽④浭紫芯繂T兼紐約大學(xué)AI NOW研究所聯(lián)合負(fù)責(zé)人凱特·克勞福德表示?!斑@些都是非常先進(jìn)的系統(tǒng),,而且會(huì)影響核心社會(huì)部門(mén)?!?

雖然猛一下可能想不起,,但大多人還是經(jīng)歷過(guò)至少一次人工智能崩潰案例:2016年美國(guó)大選前期,F(xiàn)acebook的新聞推送中出現(xiàn)了假新聞,。

社交媒體巨頭Facebook和數(shù)據(jù)科學(xué)家并沒(méi)有編造故事,。新聞信息流的開(kāi)發(fā)機(jī)制并不會(huì)區(qū)分“真”和“假”,,只會(huì)根據(jù)用戶個(gè)人口味推動(dòng)個(gè)性化內(nèi)容。Facebook沒(méi)公開(kāi)算法具體信息(也涉及專(zhuān)利問(wèn)題),,但承認(rèn)計(jì)算時(shí)會(huì)參考其他近似口味用戶閱讀和分享的內(nèi)容,。結(jié)果是:由于適合流傳的假新聞不斷出現(xiàn),好友們又喜歡看,,數(shù)百萬(wàn)人的新聞信息流里都出現(xiàn)了假新聞,。

Facebook的例子說(shuō)明個(gè)人選擇與人工智能發(fā)生惡性互動(dòng)的情況,但研究者更擔(dān)心深度學(xué)習(xí)閱讀并誤讀整體數(shù)據(jù),。博士后提米特·葛布魯曾在微軟等公司研究算法倫理,,她對(duì)深度學(xué)習(xí)影響保險(xiǎn)市場(chǎng)的方式很擔(dān)心,因?yàn)樵诒kU(xiǎn)市場(chǎng)上人工智能與數(shù)據(jù)結(jié)合后可能導(dǎo)致少數(shù)群體受到不公待遇,。舉個(gè)例子,,想象有一組汽車(chē)事故索賠數(shù)據(jù)。數(shù)據(jù)顯示市中心交通事故率比較高,,由于人口密集車(chē)禍也多,。市中心居住的少數(shù)群體人數(shù)比例也相對(duì)更高。

如果深度學(xué)習(xí)軟件里嵌入了相關(guān)聯(lián)系再篩選數(shù)據(jù),,可能“發(fā)現(xiàn)”少數(shù)族裔與車(chē)禍之間存在聯(lián)系,,還可能對(duì)少數(shù)族裔司機(jī)貼上某種標(biāo)簽。簡(jiǎn)單來(lái)說(shuō),,保險(xiǎn)人工智能可能出現(xiàn)種族偏見(jiàn),。如果系統(tǒng)通過(guò)回顧市中心附近車(chē)禍現(xiàn)場(chǎng)的照片和視頻進(jìn)一步“培訓(xùn)”,人工智能更有可能得出結(jié)論認(rèn)為,,在涉及多名司機(jī)的事故中,,少數(shù)族裔司機(jī)過(guò)錯(cuò)可能更大。系統(tǒng)還可能建議向少數(shù)族裔司機(jī)收取更高保費(fèi),,不管之前駕駛記錄如何,。

要指出一點(diǎn),保險(xiǎn)公司都聲稱(chēng)不會(huì)因?yàn)榉N族區(qū)別對(duì)待或收取不同保費(fèi),。但對(duì)市中心交通事故的假設(shè)顯示,,看似中立的數(shù)據(jù)(交通事故發(fā)生地點(diǎn))也可能被人工智能系統(tǒng)吸收并解讀,從而導(dǎo)致新的不平等(算法根據(jù)具體民族向少數(shù)族裔收取更高保費(fèi),,不管居住地點(diǎn)在哪),。

此外,葛布魯指出,,由于深度學(xué)習(xí)系統(tǒng)決策基于層層疊疊的數(shù)據(jù),,人工智能軟件決策時(shí)工程師都不明白其中原因和機(jī)制?!斑@些都是我們之前沒(méi)想過(guò)的,,因?yàn)槿祟?lèi)剛剛開(kāi)始發(fā)現(xiàn)基礎(chǔ)算法里存在的偏見(jiàn),。”她表示,。

當(dāng)代人工智能軟件與早期軟件不同之處在于,,現(xiàn)在的系統(tǒng)“可以獨(dú)立作出具有法律意義的決策,”馬特·謝爾勒表示,,他在門(mén)德?tīng)査陕蓭熓聞?wù)所擔(dān)任勞動(dòng)及就業(yè)律師,,對(duì)人工智能頗有研究。謝爾勒開(kāi)始研究該領(lǐng)域時(shí)發(fā)現(xiàn)關(guān)鍵結(jié)果出臺(tái)過(guò)程中沒(méi)有人類(lèi)參與,,他很擔(dān)心,。如果由于數(shù)據(jù)存在紕漏,深度學(xué)習(xí)指導(dǎo)下的X光忽視一位超重男性體內(nèi)的腫瘤,,有人負(fù)責(zé)么,?“有沒(méi)有人從法律角度看待這些問(wèn)題?”謝爾勒問(wèn)自己,。

隨著科技巨頭們準(zhǔn)備將深度學(xué)習(xí)技術(shù)嵌入其客戶商業(yè)軟件,,上述問(wèn)題便從學(xué)術(shù)界所討論的“假如”命題成為了急需考慮的事情。2016年,,也就是Tay出現(xiàn)問(wèn)題的那一年,,微軟組建了一個(gè)名為Aether(“工程,研究中的人工智能和道德”的首字母縮寫(xiě))的內(nèi)部機(jī)構(gòu),,由艾瑞克·霍維茨擔(dān)任主席,。這是一個(gè)跨學(xué)科部門(mén),,由工程,、研究、政策和法律團(tuán)隊(duì)的成員構(gòu)成,,機(jī)器學(xué)習(xí)偏見(jiàn)是其重點(diǎn)研究的議題之一,。霍維茨在描述該部門(mén)所討論的一些話題時(shí)若有所思地說(shuō):“微軟對(duì)于面部識(shí)別之類(lèi)的軟件是否應(yīng)該用于敏感領(lǐng)域是否已經(jīng)有了定論,,例如刑事審判和監(jiān)管,。人工智能技術(shù)是否已經(jīng)足夠成熟,并用于這一領(lǐng)域,,亦或由于失敗率依然非常高,,因此人們不得不慎而又慎地思考失敗帶來(lái)的代價(jià)?”

杰奎因·奎諾內(nèi)羅·坎德拉是Facebook應(yīng)用機(jī)器學(xué)習(xí)部門(mén)的負(fù)責(zé)人,,該部門(mén)負(fù)責(zé)為公司打造人工智能技術(shù),。在眾多其他的功能當(dāng)中,F(xiàn)acebook使用人工智能技術(shù)來(lái)篩除用戶新聞推送中的垃圾信息,。公司還使用這一技術(shù),,根據(jù)用戶喜好來(lái)提供故事和貼文,,而這也讓坎德拉的團(tuán)隊(duì)幾近陷入假新聞危機(jī)??驳吕瓕⑷斯ぶ悄芊Q(chēng)之為“歷史加速器”,,因?yàn)樵摷夹g(shù)“能夠讓我們打造優(yōu)秀的工具,從而提升我們的決策能力,?!钡撬渤姓J(rèn),“正是在決策的過(guò)程中,,大量的倫理問(wèn)題接踵而至,。”

Facebook在新聞推送領(lǐng)域遇到的難題說(shuō)明,,一旦產(chǎn)品已經(jīng)根植于人工智能系統(tǒng),,要解決倫理問(wèn)題是異常困難的。微軟也曾通過(guò)在算法應(yīng)忽略的術(shù)語(yǔ)黑名單中添加一些侮辱性詞語(yǔ)或種族綽號(hào),,推出了Tay這個(gè)相對(duì)簡(jiǎn)單的系統(tǒng),。但此舉無(wú)法幫助系統(tǒng)分辨“真”、“假”命題,,因?yàn)槠渲猩婕氨姸嗟闹饔^判斷,。Facebook的舉措則是引入人類(lèi)調(diào)解員來(lái)審查新聞信息(例如通過(guò)剔除來(lái)源于經(jīng)常發(fā)布可證實(shí)虛假新聞信息來(lái)源的文章),但此舉讓公司吃上了審查機(jī)構(gòu)的官司,。如今,,F(xiàn)acebook所建議的一個(gè)舉措只不過(guò)是減少新聞推送中顯示的新聞數(shù)量,轉(zhuǎn)而突出嬰兒照和畢業(yè)照,,可謂是以退為進(jìn),。

這一挑戰(zhàn)的關(guān)鍵之處在于:科技公司所面臨的兩難境地并不在于創(chuàng)建算法或聘請(qǐng)員工來(lái)監(jiān)視整個(gè)過(guò)程,而是在于人性本身,。真正的問(wèn)題并不在于技術(shù)或管理,,而是關(guān)乎哲學(xué)。伯克利倫理學(xué)教授迪爾德麗·穆里根指出,,計(jì)算機(jī)科學(xué)家很難將“公平”編入軟件,,因?yàn)楣降囊饬x會(huì)因人群的不同而發(fā)生變化。穆里根還指出,,社會(huì)對(duì)于公平的認(rèn)知會(huì)隨著時(shí)間的變化而改變,。而且對(duì)于大家廣泛接受的理想狀態(tài)的“公平”理念,也就是社會(huì)決策應(yīng)體現(xiàn)社會(huì)每位成員的意志,,歷史數(shù)據(jù)存在缺陷和缺失的可能性尤為突出,。

微軟Aether部門(mén)的一個(gè)思想實(shí)驗(yàn)便揭示了這一難題。在這個(gè)實(shí)驗(yàn)中,,人工智能技術(shù)對(duì)大量的求職者進(jìn)行了篩選,,以挑選出適合高管職務(wù)的最佳人選,。編程人員可以命令人工智能軟件掃描公司最佳員工的性格特征。雖然結(jié)果與公司的歷史息息相關(guān),,但很有可能所有的最佳雇員,,當(dāng)然還有所有最高級(jí)別的高管,都是白人,。人們也有可能會(huì)忽視這樣一種可能性,,公司在歷史上僅提拔白人(大多數(shù)公司在前幾十年中都是這樣做的),或公司的文化便是如此,,即少數(shù)族群或女性會(huì)有被公司冷落的感受,,并在得到提升之前離開(kāi)公司。

任何了解公司歷史的人都知曉這些缺陷,,但是大多數(shù)算法并不知道,。霍維茨稱(chēng),,如果人們利用人工智能來(lái)自動(dòng)推薦工作的話,,那么“此舉可能會(huì)放大社會(huì)中人們并不怎么引以為榮的一些偏見(jiàn)行為”,而且是不可避免的,。

谷歌云計(jì)算部門(mén)的人工智能首席科學(xué)家李飛飛表示,,技術(shù)偏見(jiàn)“如人類(lèi)文明一樣由來(lái)已久”,而且存在于諸如剪刀這種普通的事物當(dāng)中,。她解釋說(shuō):“數(shù)個(gè)世紀(jì)以來(lái),,剪刀都是由右撇子的人設(shè)計(jì)的,而且使用它的人大多都是右撇子,。直到有人發(fā)現(xiàn)了這一偏見(jiàn)之后,,才意識(shí)到人們有必要設(shè)計(jì)供左撇子使用的剪刀?!?全球人口僅有約10%是左撇子,,作為人類(lèi)的一種天性,占主導(dǎo)地位的多數(shù)人群往往會(huì)忽視少數(shù)人群的感受,。

事實(shí)證明,人工智能系統(tǒng)最近所犯的其他最為明顯的過(guò)錯(cuò)也存在同樣的問(wèn)題,。我們可以看看俄羅斯科學(xué)家利用人工智能系統(tǒng)在2016年開(kāi)展的選美大賽,。為參加競(jìng)賽,全球數(shù)千名人士提交了其自拍照,,期間,,計(jì)算機(jī)將根據(jù)人們臉部對(duì)稱(chēng)性等因素來(lái)評(píng)價(jià)其美貌。

然而,,在機(jī)器選出的44名優(yōu)勝者當(dāng)中,,僅有一位是深色皮膚,。這一結(jié)果讓全球一片嘩然,競(jìng)賽舉辦方隨后將計(jì)算機(jī)的這一明顯偏見(jiàn)歸咎于用于培訓(xùn)電腦的數(shù)據(jù)組,,因?yàn)檫@些數(shù)據(jù)組中的有色人種照片并不多,。計(jì)算機(jī)最終忽視了那些深色皮膚人種的照片,并認(rèn)為那些淺膚色的人種更加漂亮,,因?yàn)樗麄兇碇鄶?shù)人群,。

這種因忽視而造成的偏見(jiàn)在深度學(xué)習(xí)系統(tǒng)中尤為普遍,在這些系統(tǒng)中,,圖片識(shí)別是培訓(xùn)過(guò)程的重要組成部分,。麻省理工大學(xué)媒體實(shí)驗(yàn)室的喬伊·布沃拉姆維尼最近與微軟研究員葛布魯合作,撰寫(xiě)了一篇研究性別分辨技術(shù)的論文,,這些技術(shù)來(lái)自于微軟,、IBM和中國(guó)的曠視科技。他們發(fā)現(xiàn),,這些技術(shù)在識(shí)別淺膚色男性照片時(shí)的精確度比識(shí)別深膚色女性更高,。

此類(lèi)算法空白在線上選美比賽中看起來(lái)可能是微不足道的事情,但葛布魯指出,,此類(lèi)技術(shù)可能會(huì)被用于更加高風(fēng)險(xiǎn)的場(chǎng)景,。葛布魯說(shuō):“試想一下,如果一輛自動(dòng)駕駛汽車(chē)在看到黑人后無(wú)法識(shí)別,,會(huì)出現(xiàn)什么后果,。想必后果是非常可怕的,?!?

葛布魯-布沃拉姆維尼的論文激起了不小的浪花。微軟和IBM均表示,,公司已采取針對(duì)性的措施來(lái)完善其圖片識(shí)別技術(shù),。盡管這兩家公司拒絕透露其舉措的詳情,但正在應(yīng)對(duì)這一問(wèn)題的其他公司則讓我們窺見(jiàn)了如何利用科技來(lái)規(guī)避偏見(jiàn),。

當(dāng)亞馬遜在部署用于篩除腐爛水果的算法時(shí),,公司必須解決抽樣偏見(jiàn)問(wèn)題。人們會(huì)通過(guò)研究大量的圖片數(shù)據(jù)庫(kù)來(lái)培訓(xùn)視覺(jué)辨認(rèn)算法,,其目的通常是為了識(shí)別,,例如,草莓“本應(yīng)”具有的模樣,。然而,,正如你所預(yù)料的那樣,,與完好漿果光鮮亮麗的照片相比,,腐爛的漿果相對(duì)較為稀少。而且與人類(lèi)不同的是,,機(jī)器學(xué)習(xí)算法傾向于不計(jì)算或忽視它們,而人類(lèi)的大腦則傾向于注意這些異常群體,,并對(duì)其做出強(qiáng)烈反應(yīng),。

亞馬遜的人工智能總監(jiān)拉爾夫·荷布里奇解釋道,作為調(diào)整,,這位在線零售巨頭正在測(cè)試一項(xiàng)名為過(guò)采樣的計(jì)算機(jī)科學(xué)技術(shù),。機(jī)器學(xué)習(xí)工程師可通過(guò)向未充分代表的數(shù)據(jù)分配更大的統(tǒng)計(jì)學(xué)“權(quán)重”,來(lái)主導(dǎo)算法的學(xué)習(xí)方式,。在上述案例中便是腐爛水果的照片,。結(jié)果顯示,培訓(xùn)后的算法更為關(guān)注變質(zhì)食物,,而不是數(shù)據(jù)庫(kù)中可能建議的食品關(guān)聯(lián)性,。

荷布里奇指出,過(guò)采樣也可被應(yīng)用于學(xué)習(xí)人類(lèi)的算法(然而他拒絕透露亞馬遜在這一領(lǐng)域的具體案例),。荷布里奇說(shuō):“年齡,、性別、種族,、國(guó)籍,,這些都是人們特別需要測(cè)試采樣偏見(jiàn)的領(lǐng)域,以便在今后將其融入算法,?!睘榱舜_保用于識(shí)別照片人臉面部所使用的算法并不會(huì)歧視或忽視有色、老齡或超重人士,,人們可以為此類(lèi)個(gè)人的照片增加權(quán)重,,以彌補(bǔ)數(shù)據(jù)組所存在的缺陷。

其他工程師正在專(zhuān)注于進(jìn)一步“追根溯源”——確保用于培訓(xùn)算法的基本數(shù)據(jù)(甚至在其部署之前)具有包容性,,且沒(méi)有任何偏見(jiàn),。例如,在圖形識(shí)別領(lǐng)域,,在錄入計(jì)算機(jī)之前,,人們有必要對(duì)用于培訓(xùn)深度學(xué)習(xí)系統(tǒng)的數(shù)百萬(wàn)圖片進(jìn)行審核和標(biāo)記。數(shù)據(jù)培訓(xùn)初創(chuàng)企業(yè)iMerit首席執(zhí)行官雷德哈·巴蘇解釋道,,公司遍布于全球的1400多名訓(xùn)練有素的員工會(huì)代表其客戶,,以能夠規(guī)避偏見(jiàn)的方式對(duì)照片進(jìn)行標(biāo)記。該公司的客戶包括Getty Images和eBay,。

巴蘇拒絕透露這種標(biāo)記方式是否適合標(biāo)記人像圖片,但她介紹了其他的案例,。iMerit在印度的員工可能會(huì)覺(jué)得咖喱菜不是很辣,,而公司位于新奧爾良的員工可能會(huì)認(rèn)為同樣的菜“很辣”,。iMerit會(huì)確保這兩項(xiàng)信息均被錄入這道菜照片的標(biāo)記中,因?yàn)閮H錄入其中的一個(gè)信息會(huì)讓數(shù)據(jù)的精確性打折扣,。在組建有關(guān)婚姻的數(shù)據(jù)集時(shí),,iMerit將收錄傳統(tǒng)的西式白婚紗和多層蛋糕圖片,同時(shí)還會(huì)收錄印度或非洲精心策劃,、色彩絢麗的婚禮,。

iMerit的員工以一種不同的方式在業(yè)界脫穎而出。巴蘇指出:公司會(huì)聘用擁有博士學(xué)位的員工,,以及那些受教育程度不高,、較為貧困的人群,公司53%的員工都是女性,。這一比例能夠確保公司在數(shù)據(jù)標(biāo)記過(guò)程中獲得盡可能多的觀點(diǎn),。巴蘇表示,“良好的倫理政策不僅僅包含隱私和安全,,還涉及偏見(jiàn)以及我們是否遺漏了某個(gè)觀點(diǎn),。”而找出這個(gè)遺漏的觀點(diǎn)已被更多科技公司提上了戰(zhàn)略議程,。例如,,谷歌在6月宣布,公司將在今年晚些時(shí)候于加納的阿格拉開(kāi)設(shè)人工智能研究中心,。兩位谷歌工程師在一篇博文上寫(xiě)道:“人工智能在為世界帶來(lái)積極影響方面有著巨大的潛力,,如果在開(kāi)發(fā)新人工智能技術(shù)時(shí)能夠得到全球各地人士的不同觀點(diǎn),那么這一潛力將更大,?!?

人工智能專(zhuān)家還認(rèn)為,他們可以通過(guò)讓美國(guó)從事人工智能行業(yè)的員工更加多元化,,來(lái)應(yīng)對(duì)偏見(jiàn),,而多元化問(wèn)題一直是大型科技公司的一個(gè)障礙。谷歌高管李飛飛最近與他人共同創(chuàng)建了非營(yíng)利性機(jī)構(gòu)AI4ALL,,以面向女孩,、婦女和少數(shù)群體普及人工智能技術(shù)和教育。該公司的活動(dòng)包括一個(gè)夏令營(yíng)計(jì)劃,,參與者將到訪頂級(jí)大學(xué)的人工智能部門(mén),,與導(dǎo)師和模范人物建立聯(lián)系??傊?,AI4ALL執(zhí)行董事苔絲·波斯內(nèi)表示:“多樣性的提升有助于規(guī)避偏見(jiàn)風(fēng)險(xiǎn)。”

然而,,在這一代更加多元化的人工智能研究人員進(jìn)入勞動(dòng)力市場(chǎng)數(shù)年之前,,大型科技公司便已然將深度學(xué)習(xí)能力融入其產(chǎn)品中。而且即便頂級(jí)研究人員越發(fā)意識(shí)到該技術(shù)的缺陷,,并承認(rèn)他們無(wú)法預(yù)知這些缺陷會(huì)以什么樣的方式展現(xiàn)出來(lái),,但他們認(rèn)為人工智能技術(shù)在社會(huì)和金融方面的效益,值得他們繼續(xù)向前邁進(jìn),。

Facebook高管坎德拉說(shuō):“我認(rèn)為人們天生便對(duì)這種技術(shù)的前景持樂(lè)觀態(tài)度,。” 他還表示,,幾乎任何數(shù)字技術(shù)都可能遭到濫用,,但他同時(shí)也指出:“我并不希望回到上個(gè)世紀(jì)50年代,體驗(yàn)當(dāng)時(shí)落后的技術(shù),,然后說(shuō):‘不,,我們不能部署這些技術(shù),因?yàn)樗鼈兛赡軙?huì)被用于不良用途,?!?

微軟研究負(fù)責(zé)人霍維茨表示,像Aether團(tuán)隊(duì)這樣的部門(mén)將幫助公司在潛在的偏見(jiàn)問(wèn)題對(duì)公眾造成負(fù)面影響之前便消除這些偏見(jiàn),。他說(shuō):“我認(rèn)為,,在某項(xiàng)技術(shù)做好投入使用的準(zhǔn)備之前,沒(méi)有人會(huì)急著把它推向市場(chǎng),?!彼€表示,相比而言,,他更關(guān)心“不作為所帶來(lái)的倫理影響,。”他認(rèn)為,,人工智能可能會(huì)降低醫(yī)院中可預(yù)防的醫(yī)療失誤,。霍維茨詢(xún)問(wèn)道:“你的意思是說(shuō),,你對(duì)我的系統(tǒng)偶爾出現(xiàn)的些許偏見(jiàn)問(wèn)題感到擔(dān)憂嗎,?如果我們可以通過(guò)X光拍片解決問(wèn)題并拯救眾多生命,但依然不去使用X光,,倫理何在,?”

監(jiān)督部門(mén)的反映是:說(shuō)說(shuō)你所做的工作。提升人工智能黑盒系統(tǒng)所錄入數(shù)據(jù)的透明度和公開(kāi)度,,有助于研究人員更快地發(fā)現(xiàn)偏見(jiàn),,并更加迅速地解決問(wèn)題,。當(dāng)一個(gè)不透明的算法可以決定某個(gè)人是否能獲得保險(xiǎn),或該人是否會(huì)蹲監(jiān)獄時(shí),,麻省理工大學(xué)研究人員布沃拉姆維尼說(shuō)道:“非常重要的一點(diǎn)在于,,我們必須嚴(yán)謹(jǐn)?shù)厝y(cè)試這些系統(tǒng),,而且需要確保一定的透明度,。”

確實(shí),,很少有人依然持有“人工智能絕對(duì)可靠”的觀點(diǎn),,這是一個(gè)進(jìn)步。谷歌前任人工智能公共政策高管蒂姆·黃指出,,在互聯(lián)網(wǎng)時(shí)代初期,,科技公司可能會(huì)說(shuō),他們“只不過(guò)是一個(gè)代表數(shù)據(jù)的平臺(tái)而已”,。如今,,“這一理念已經(jīng)沒(méi)有市場(chǎng)”。(財(cái)富中文網(wǎng))

本文最初發(fā)表于《財(cái)富》雜志2018年7月1日刊,。

譯者:馮豐

審校:夏林

財(cái)富中文網(wǎng)所刊載內(nèi)容之知識(shí)產(chǎn)權(quán)為財(cái)富媒體知識(shí)產(chǎn)權(quán)有限公司及/或相關(guān)權(quán)利人專(zhuān)屬所有或持有,。未經(jīng)許可,禁止進(jìn)行轉(zhuǎn)載,、摘編,、復(fù)制及建立鏡像等任何使用。
0條Plus
精彩評(píng)論
評(píng)論

撰寫(xiě)或查看更多評(píng)論

請(qǐng)打開(kāi)財(cái)富Plus APP

前往打開(kāi)
熱讀文章