該相信人工智能還是人類直覺

策 略
位于香港的投資公司Deep Knowledge Ventures在2014年因?yàn)樵诙聲?huì)引入計(jì)算機(jī)算法而聲名大振。該公司旗下管理的資產(chǎn)約為1億歐元,,希望找到一種方法來實(shí)施數(shù)據(jù)驅(qū)動(dòng)型的投資策略,,而不是依靠人類的直覺以及與創(chuàng)始人之間的關(guān)系。執(zhí)行合伙人德米特里·卡明斯基(Dmitry Kaminskiy)表示,,該算法大多用來行使否決權(quán),,如果它發(fā)現(xiàn)危險(xiǎn)信號(hào),Deep Knowledge就不會(huì)投資,。
自從Deep Knowledge的人工智能技術(shù)參與董事會(huì)五年來,,市場上并沒有出現(xiàn)多少真正意義上的效仿者。事實(shí)上,,Deep Knowledge自身也已經(jīng)轉(zhuǎn)移其精力,,而且不再使用這一算法。美國西北大學(xué)(Northwestern University)凱洛格管理學(xué)院(Kellogg School of Management)的教授布萊恩·烏茲(Brian Uzzi)說:“如今,,重大策略決策基于直覺”—也就是說,,由人來制定—“因?yàn)槲覀內(nèi)狈ο嚓P(guān)數(shù)據(jù)?!睂?shí)際上,,各大公司所做重大決策的數(shù)量還不足以用來有效地培訓(xùn)算法。
然而,,隨著我們搜集更多的數(shù)據(jù)或解決數(shù)據(jù)缺乏問題的模型獲得商業(yè)市場的青睞,,人工智能承擔(dān)更多的策略性職責(zé)只是遲早的事情,包括就開展哪些并購交易提供洞見,,進(jìn)駐哪個(gè)地域,,是否推出與競爭者類似的產(chǎn)品。
這一現(xiàn)象在一定程度上也引發(fā)了一些反對(duì)聲音。一些管理大拿和理論學(xué)家則突然一反常態(tài)地阻礙人工智能發(fā)展,,并借此遏制人工智能趨勢:他們斷然告訴公司的董事會(huì),,不要拋棄人類直覺和常識(shí)。
今年年初,,英國卡迪夫大學(xué)(Cardiff University)的德克·林德鮑姆(Dirk Lindebaum)與位于赫爾辛基(Helsinki)的漢肯經(jīng)濟(jì)學(xué)院(Hanken School of Economics)的米科·韋薩(Mikko Vesa)和弗蘭克·登宏德(Frank den Hond)撰寫了一篇挑釁性的文章,,警告公司董事不要過分迷戀人工智能。為了證明其觀點(diǎn),,這三位學(xué)者將其與經(jīng)典的愛德華·摩根·福斯特
(E.M. Forster)的科幻故事《機(jī)器停了》(The Machine Stops)進(jìn)行了比較,。在該故事中,人類因?yàn)檫^分依賴于全能機(jī)器而失去了獨(dú)立思考和行動(dòng)的能力,。林德鮑姆對(duì)
《財(cái)富》雜志說:“我們放棄了越來越多的自主掌控權(quán),。最終的情形是,人們實(shí)際上已經(jīng)沒有選擇,,并成為了算法盲目的追隨者,。”
包括林德鮑姆在內(nèi)的評(píng)論員提到了兩架波音(Boeing)737 Max 8機(jī)型的墜毀事件,,將其自動(dòng)駕駛系統(tǒng)問題稱之為警世之鐘,。駕駛員對(duì)該系統(tǒng)并不完全了解,而且沒有辦法輕易地判斷,,飛機(jī)是否基于錯(cuò)誤的感應(yīng)器數(shù)據(jù)而做出了決定,。這類“自動(dòng)化驚喜”是人工智能尤為突出的問題,因?yàn)楫?dāng)今眾多強(qiáng)大的機(jī)器學(xué)習(xí)算法都是黑盒子,。我們并不知道它們?yōu)槭裁磿?huì)做出某類預(yù)測,,即便是它的編程人員也搞不懂。
在生死攸關(guān)的局面中,,例如飛機(jī)自動(dòng)駕駛或自動(dòng)駕駛汽車,,林德鮑姆的建議還是非常在理的。然而在商業(yè)策略領(lǐng)域中,,經(jīng)理們?nèi)绻粚W(xué)會(huì)信任他們所采用的算法,,他們是否會(huì)錯(cuò)失黃金洞見。
不妨看看在2016年古老的策略游戲圍棋中,,世界級(jí)選手李世石(Lee Sedol)與Alphabet旗下的人工智能公司DeepMind打造的AlphaGo算法之間的對(duì)弈,。在第二局的第37步,AlphaGo走出了一步十分詭異的棋,,一開始,,評(píng)論這場比賽的圍棋專家認(rèn)為負(fù)責(zé)替AlphaGo在棋盤上走棋的人犯了一個(gè)錯(cuò)誤。根據(jù)AlphaGo自身的評(píng)估,,人類棋手在該棋局中走這一步的概率為萬分之一,。然而,,甚至連DeepMind的研究人員都感到疑惑不解的是,AlphaGo竟然把這步棋看作是一個(gè)制勝招數(shù),。(接下來AlphaGo確實(shí)贏了這盤棋,。)
有鑒于這種“怪異”的洞見,新興的管理層觀點(diǎn)—不要拋棄常識(shí)或人類經(jīng)驗(yàn)—看似完全站不住腳,。如果按照這個(gè)觀點(diǎn)行事,,人們就不會(huì)走第37步棋。另一方面,,董事會(huì)如何去區(qū)分第37步棋和波音737墜機(jī)之間的區(qū)別,。
解決這一緊張的局勢并不是一件容易的事情。教授人工智能課程的紐約大學(xué)(New York University)的商學(xué)教授羅伯特·西曼斯(Robert Seamans)指出,,這也是為什么經(jīng)理們對(duì)人工智能系統(tǒng)工作原理的理解如此重要的原因,。它并非只是制定“正確”的策略決定,還涉及執(zhí)行,。他表示,理解決策背后的邏輯對(duì)獲得實(shí)施這一決策的認(rèn)同(來自于雇員和投資者)至關(guān)重要,。他說:“這并非只是列出概率性的結(jié)果,,公司的每個(gè)人都得接受這種做法。如果你無法解釋清楚其緣由,,也就難以實(shí)施這一決策,。”領(lǐng)導(dǎo)力并非只是決策那么簡單,,它還包括說服他人接受自己的觀點(diǎn),。
譯者:馮豐
-
熱讀文章
-
熱門視頻