OpenAI董事會(huì)之爭(zhēng)似已告一段落,,但它預(yù)示著,,AI技術(shù)帶給人類社會(huì)的沖擊以及人類圍繞它的思辨,才剛剛開始,。
這場(chǎng)爭(zhēng)議被總結(jié)為“加速派”與“對(duì)齊派”之爭(zhēng),。前者認(rèn)為應(yīng)當(dāng)加速AI研發(fā)及應(yīng)用,讓它盡快造福人類,,在發(fā)展中解決可能出現(xiàn)的問題,;后者則認(rèn)為應(yīng)當(dāng)謹(jǐn)慎行事,先要確保AI“對(duì)齊”人類利益,,并為之設(shè)置足夠護(hù)欄后,,再推進(jìn)技術(shù)進(jìn)步。兩派意見都有著大量擁躉,。
一位接近OpenAI的知情者引述一位前董事會(huì)成員說:“我們每向人工智能靠近一步,,每個(gè)人都會(huì)承受十分的精神錯(cuò)亂”——那些站在AI技術(shù)最前沿、有可能在可見的未來(lái)為通用人工智能(AGI)“接生”的技術(shù)公司決策者們肩負(fù)的巨大責(zé)任,,從這句話中可窺一斑,。
這些技術(shù)人今天所做的思考與決策,將決定未來(lái)人類與AI的共處方式,。
在近日于上海舉辦的2023年《財(cái)富》MPW女性峰會(huì)上,,三位來(lái)自技術(shù)企業(yè)的女性高管以及一位女性技術(shù)學(xué)者同臺(tái),圍繞AI路線之爭(zhēng),、如何構(gòu)建負(fù)責(zé)任的AI,、女性在AI研發(fā)中的作用等議題分享了思考與實(shí)踐。以下為編輯后的對(duì)話實(shí)錄:
王昉:我想從最近大熱的電影《奧本海默》談起。奧本海默是個(gè)天才物理學(xué)家,,發(fā)明了核彈,,但后來(lái)悲哀地發(fā)現(xiàn)核彈可以被用來(lái)毀滅人類。很多人認(rèn)為,,在這一點(diǎn)上,,AI 與核技術(shù)高度類似。請(qǐng)問董老師,,您同意嗎,?
董潔林:AI和核技術(shù)完全不同。核技術(shù)的邊界非常清晰,,它對(duì)人類的好處和壞處,,大家也都理解得很明白。另外它的制造門檻非常高,。各個(gè)國(guó)家一旦認(rèn)識(shí)到它的負(fù)面破壞力,,可以用政策和手段來(lái)控制它的擴(kuò)散。
但是AI不一樣,,它帶來(lái)的善和惡是混搭的,。研發(fā)大模型的技術(shù)門檻比較高一點(diǎn),但沒有那么高,,應(yīng)用這個(gè)技術(shù)的門檻則比較低,,所以它非常容易擴(kuò)散。現(xiàn)在的開源模式下,,它已經(jīng)擴(kuò)散得到處都是了,。在這個(gè)情況下,AI在未來(lái)行善作惡的可能性,,讓很多人充滿期待的同時(shí),,讓另一些人憂心忡忡。所以AI與核是非常不同的兩類科技,。
王昉:在OpenAI之爭(zhēng)中,,代表“對(duì)齊派”的OpenAI首席科學(xué)家伊利亞·蘇茨克維爾(Ilya Sutskever)打過一個(gè)讓我印象深刻的比方。他說,,未來(lái)AI將會(huì)監(jiān)管人類,,那時(shí)的AI對(duì)于人類,就像今天的人類對(duì)寵物一樣,人類并不憎恨寵物,,但是當(dāng)人類決定在城市與城市之間修建高速公路的時(shí)候,,也不會(huì)向?qū)櫸飩冋髑笠庖?;?dāng)未來(lái)的AI可以自行其是的時(shí)候,,也不會(huì)來(lái)向人類征求意見。我們?cè)撛趺纯催@個(gè)比喻,?
董潔林:AI與人的關(guān)系,,和人與寵物的關(guān)系還是非常不一樣的,因?yàn)閷櫸锊皇侨藙?chuàng)造的,,而AI是人創(chuàng)造的,。寵物頂多是在跟人互動(dòng)的過程中形成了某一種關(guān)系,這個(gè)關(guān)系一直在演化,。但AI是人創(chuàng)造的,,在創(chuàng)造的過程中,我們有主動(dòng)權(quán)來(lái)決定它能做什么,、不能做什么,。即使將來(lái)有一天它有了某種“自主性”,人類依然可以為它設(shè)置負(fù)面清單,,使得它在做“決策”時(shí)無(wú)法做一些事情,,必須人來(lái)做。所以這個(gè)事情還是可控的,,沒有必要自己嚇自己,。
王昉:伊利亞認(rèn)為,AGI,,也就是通用人工智能技術(shù),,一旦問世,將不斷進(jìn)化,。如果它誕生之初的代碼沒寫對(duì),,它將在歧路上越走越遠(yuǎn)。那么,,我們現(xiàn)在怎么才能把代碼“寫對(duì)”,?
崔麗:首先,大模型或生成式AI還處于技術(shù)發(fā)展初期,,技術(shù),、生態(tài)、市場(chǎng)都在快速迭代之中,,因此,,僅憑預(yù)判和思考來(lái)提前解決未來(lái)可能出現(xiàn)的問題是非常困難的。所以我主張?jiān)诎l(fā)展中去發(fā)現(xiàn)問題,解決問題,,去摸著石頭過河,。
其次,技術(shù)沒有善惡,,善惡在人,。AI的本質(zhì)依然是硅基、無(wú)機(jī),、數(shù)學(xué)范疇,。而人類則是碳基、有機(jī)生物,,除了自然科學(xué)還有社會(huì)科學(xué),,人類的認(rèn)知、決策和行為都有深刻的文化,、歷史,、價(jià)值觀等背景。AI甚至不理解什么叫“責(zé)任”,,更談不上“負(fù)責(zé)”,,因此,應(yīng)當(dāng)是由人類去負(fù)責(zé)任地構(gòu)建,、使用和監(jiān)管AI,。
目前產(chǎn)業(yè)界已經(jīng)為AI設(shè)定了一個(gè)3H的理想目標(biāo):Helpful,即幫助使用者解決他們的問題,;Honest即不捏造資訊或誤導(dǎo)使用者,;Harmless即不能對(duì)人或環(huán)境造成物理、心理,、社會(huì)危害,,與人類價(jià)值觀對(duì)齊。
然而這些原則非常寬泛,,我們需要更具體地考慮諸如幻覺(hallucination),、黑盒帶來(lái)的不可解釋性和不可控性,隱私,、偏見,、濫用和資源消耗等等問題。為應(yīng)對(duì)這些挑戰(zhàn),,我們需要在四大方面去努力,,依次是安全、公平,、透明和高效,。
此外,還需結(jié)合應(yīng)用場(chǎng)景來(lái)考慮問題,比如面向大規(guī)模公眾的應(yīng)用,,要更多關(guān)注安全和公平,,而面向特定領(lǐng)域的應(yīng)用則需要同時(shí)關(guān)注準(zhǔn)確、安全,、透明和高效,。比如說,如果AI給出的答案用在創(chuàng)意領(lǐng)域,,那沒太大關(guān)系,,但是如果用在專業(yè)領(lǐng)域,,比如醫(yī)療或電信行業(yè),,我們當(dāng)然不希望它一拍腦袋整個(gè)網(wǎng)絡(luò)就宕機(jī)了。
王昉:幻覺(hallucination)是生成式AI目前存在的比較突出的問題,。我們應(yīng)當(dāng)如何更好地訓(xùn)練AI,?
崔麗:一是“換位思考,因材施教”,,比如將我們虛擬的概念或?qū)R要求,,轉(zhuǎn)化成AI的語(yǔ)境,壓縮空間或聯(lián)合概率,,徹底回歸到對(duì)它更有效的工作方式上,,因材施教,提高輸出更準(zhǔn)確內(nèi)容的概率,。二是原型知識(shí)萃取,,加強(qiáng)數(shù)據(jù)治理,比如在給予虛擬概念時(shí)需要謹(jǐn)慎,,同時(shí)常識(shí)或原型類知識(shí)優(yōu)先級(jí)應(yīng)該提升,,而不是完全平等地考慮精調(diào)。最后是“用魔法打敗魔法”,,我們可以采用Agent或多個(gè)優(yōu)秀大模型聯(lián)合決策,,對(duì)各自形成制衡。合理的組織設(shè)計(jì)可以減少犯錯(cuò)的次數(shù),。
王昉:OpenAI戰(zhàn)火告一段落之后,,《紐約時(shí)報(bào)》發(fā)布了一篇文章,標(biāo)題是“AI belongs to the capitalists now”,,意思就是資本主義又一次獲得了勝利,。資本總是勝利嗎?IBM也做很多與AI相關(guān)的研發(fā),,內(nèi)部是如何思考AI發(fā)展方向的,?
孟繁晶:IBM一直是AI技術(shù)的創(chuàng)造者和推動(dòng)者,在我們看來(lái),AI一定是要負(fù)責(zé)任的,。我們最近與Meta以及50多家機(jī)構(gòu),、大學(xué)、開源社區(qū)一起,,構(gòu)建了一個(gè)AI Alliance,,承諾把所有的技術(shù)開放出去,讓大家一起來(lái)避免出現(xiàn)一些負(fù)面的仇恨,,或者對(duì)人類的威脅,。
我認(rèn)為,負(fù)責(zé)任AI有兩個(gè)層面的含義,。一是,,如何負(fù)責(zé)任地研發(fā)AI技術(shù)?在IBM,,我們開發(fā)了一個(gè)叫“watsonx”的平臺(tái),,提供全生命周期的AI訓(xùn)練、驗(yàn)證以及部署,,既監(jiān)管數(shù)據(jù)——數(shù)據(jù)里如果就有偏見,,就有仇恨,最后的模型一定會(huì)學(xué)到,,又監(jiān)管整個(gè)AI的模型——在運(yùn)行過程當(dāng)中,,模型有沒有出現(xiàn)偏移和仇恨?
負(fù)責(zé)任AI的另一層含義是,,AI可以對(duì)我們的可持續(xù)發(fā)展作出巨大貢獻(xiàn),。舉個(gè)簡(jiǎn)單的例子,IBM和很多機(jī)構(gòu)合作,,嘗試用AI來(lái)解決人口拐賣這個(gè)社會(huì)問題,。人口拐賣80%的受害者是女性和兒童,為什么這個(gè)行業(yè)一直都存在,?因?yàn)楦弑├?,利?rùn)高達(dá)1500億美金,跟毒品,、走私一樣,。我們可以把跟人口拐賣相關(guān)的各個(gè)利益鏈條上的所有數(shù)據(jù),包含交通數(shù)據(jù),、衛(wèi)星數(shù)據(jù),、銀行間的轉(zhuǎn)賬數(shù)據(jù),融合在一起后交給AI模型,,就可以在交易發(fā)生的過程中甚至之前就發(fā)現(xiàn)風(fēng)險(xiǎn),,預(yù)防拐賣行為的發(fā)生,。
王昉:圍繞AI研發(fā)是盡量加速還是步伐慢一點(diǎn),IBM內(nèi)部有沒有過爭(zhēng)論,?
孟繁晶:不僅是爭(zhēng)論,,IBM已經(jīng)付諸行動(dòng)。我們內(nèi)部有一個(gè)AI倫理委員會(huì),,審查相關(guān)所有工作,,我們決定做審慎的AI技術(shù),也就是有所為有所不為,。一個(gè)典型例子是,,IBM做了一個(gè)決定,雖然人臉識(shí)別技術(shù)可以解決很多問題,,但是因?yàn)槲覀儧]有辦法確信它將只被用在向善的方面,,所以我們放棄了人臉識(shí)別相關(guān)的所有研究工作。
王昉:來(lái)自南京的硅基智能站在AI應(yīng)用的前沿,,已經(jīng)為全世界50萬(wàn)人他們制作了數(shù)字分身,。你們是堅(jiān)定的“加速派”?
陳莉萍:對(duì),,我們是科技加速派。只需看看,,過去300多年的技術(shù)發(fā)展,,并沒有給人類造成非常大的沖擊,而是給人類帶來(lái)了很多的便利性,。當(dāng)然每個(gè)技術(shù)在初期會(huì)帶來(lái)一些風(fēng)險(xiǎn),,比如汽車發(fā)明的時(shí)候會(huì)代替馬車,但是也會(huì)發(fā)生交通事故?,F(xiàn)在的新能源車也可能會(huì)引起火災(zāi),,但是大家還是會(huì)選擇它,這是一個(gè)進(jìn)化的方向,。所以我們認(rèn)為,,發(fā)展中遇到的問題,一定是由發(fā)展來(lái)解決,,也一定能夠解決,。
硅基智能是2017年成立的,那時(shí)大家對(duì)“硅基”兩個(gè)字還比較陌生,。我們認(rèn)為AI基于硅基,,是一種生命體,我們就是一家在實(shí)驗(yàn)室里造生命體的公司,。我們的愿景是2025年為全球創(chuàng)造1億硅基勞動(dòng)力,,為各行各業(yè)服務(wù),。
比如我們會(huì)生產(chǎn)數(shù)字老師,讓成千上萬(wàn)的孩子擁有家庭教師的陪伴,;我們可以生產(chǎn)數(shù)字醫(yī)生,,讓更多的患者擁有醫(yī)療顧問,隨時(shí)了解自己的醫(yī)療方案,;我們也去做很多的數(shù)字律師,,讓更多人獲取法律援助。我們認(rèn)為這就是一種科技向善,。
我們?nèi)绾巫孉I負(fù)責(zé)任,?首先,在大模型的訓(xùn)練過程中,,我們遵循了阿希莫夫的“機(jī)器人三定律”:機(jī)器人不能傷害人類,;它們必須服從于人類;它們必須保護(hù)自己,。其次,,在大模型的訓(xùn)練過程當(dāng)中,我們?cè)黾恿艘粋€(gè)訓(xùn)練,,叫“人類反饋強(qiáng)化學(xué)習(xí)”,,通過人為標(biāo)注,告訴它人類更喜歡哪些結(jié)果,,這樣訓(xùn)練出來(lái)的模型就更偏向于人類的價(jià)值觀和選擇偏好,。
崔麗:對(duì)于如何讓AI更負(fù)責(zé),我補(bǔ)充一些看法,。在立法及監(jiān)管側(cè),,我們可以強(qiáng)制要求對(duì)AI生成的內(nèi)容做標(biāo)識(shí),同時(shí)應(yīng)區(qū)別對(duì)待客觀問題——比如幻覺,、黑盒,,和主觀問題——包括隱私、IPR,、濫用等,。法規(guī)也要與時(shí)俱進(jìn),加強(qiáng)對(duì)偏主觀問題的約束,,而對(duì)于偏客觀問題,,應(yīng)該給予一定的容錯(cuò)空間,以促進(jìn)創(chuàng)新,。此外,,我們可以嘗試將現(xiàn)有的大模型納入立法建設(shè)中,尊重大模型的知識(shí)來(lái)賦能現(xiàn)有的監(jiān)管體系,。最后,,我們普通人作為AI技術(shù)的使用者,,不應(yīng)該過度依賴AI,要保持獨(dú)立思考和批判性思維,。
王昉:雖然 OpenAI事件中,,出現(xiàn)了一位短暫出任CEO的女性,但AI競(jìng)技場(chǎng)中的前臺(tái)活躍人物,,包括馬斯克,、扎克伯格、奧特曼,,絕大多數(shù)還是男性,。在AI技術(shù)的發(fā)展中,女性缺失會(huì)帶來(lái)什么樣的問題,?
董潔林:女性缺失會(huì)造成很嚴(yán)重的女性歧視,,女性現(xiàn)在馬上應(yīng)該做的就是參與。從學(xué)生時(shí)代開始,,女生要大量進(jìn)入理工科領(lǐng)域,,進(jìn)入計(jì)算機(jī)和與AI相關(guān)的行業(yè),不參與就會(huì)受到歧視,。等到歧視已經(jīng)發(fā)生,,再呼吁平權(quán)就太晚了。
實(shí)際上女性參與的主要障礙是我們自己,,大學(xué)理工科一般并不歧視女生,,但是女性自己選擇不參與,可能因?yàn)槿狈εd趣,,可能因?yàn)槠渌颍@導(dǎo)致技術(shù)公司中女性程序員比較少,,產(chǎn)品經(jīng)理人也比較少,,高管也比較少,董事會(huì)成員也比較少,。女性要把自己的障礙去掉,,從做學(xué)生開始參與到AI大潮中,我相信這樣做的社會(huì)回報(bào)和個(gè)人經(jīng)濟(jì)回報(bào)都會(huì)是非常高的,。
孟繁晶:呼應(yīng)一下董老師的觀點(diǎn),。IBM從2019年開始做 “千人百校AI啟蒙季”,面對(duì)中小學(xué)生推開,,要在他們心中種一個(gè)小種子,。IBM中研發(fā)體系中,女性占50%,,所以在技術(shù)研發(fā)那一刻起,,男女生已經(jīng)在一起了,。
王昉:請(qǐng)問硅基智能的莉萍,找你們做數(shù)字人分身的,,是女性多還是男性多,?
陳莉萍:很多女性已經(jīng)參與到這個(gè)行業(yè)里面來(lái),用自己的數(shù)字分身做知識(shí)博主,、做直播,。數(shù)字世界特別適合展現(xiàn)美的文化,而女性更容易展示自己的美,,所以她們更有優(yōu)勢(shì)利用數(shù)字化的平臺(tái)展示自己,,甚至不一定要掌握很多技術(shù)的女性都很容易在這個(gè)平臺(tái)上找到自己的定位。
王昉:AI時(shí)代,,女性管理者是否更有優(yōu)勢(shì),?
崔麗:在這個(gè)事情上,男人女人是共同體,,大家應(yīng)該把自己的優(yōu)勢(shì)貢獻(xiàn)出來(lái),。女性的優(yōu)勢(shì)是非常敏感,可以獲取多元的知識(shí),,本能意識(shí)到危機(jī),;容易有直覺,且往往是基于常識(shí)的判斷,;而且女性通常更包容及有同理心,。如果能夠有效的將這些特點(diǎn)與男性的優(yōu)勢(shì)相結(jié)合,可以共同推動(dòng)AI向更好的方向發(fā)展,。(財(cái)富中文網(wǎng))