自O(shè)penAI在2022年11月底發(fā)布ChatGPT以來(lái),,包括微軟(Microsoft)和谷歌(Google)在內(nèi)的科技公司一直在競(jìng)相提供新的人工智能工具和功能。但這場(chǎng)競(jìng)賽將走向何方,?
《人類簡(jiǎn)史:從動(dòng)物到上帝》(Sapiens),、《未來(lái)簡(jiǎn)史:從智?到智神》(Homo Deus)和《不可阻擋的我們》(Unstoppable Us)的作者、歷史學(xué)家尤瓦爾·赫拉利稱,,在“部署人類最重要的技術(shù)”方面,,不應(yīng)該設(shè)定占據(jù)市場(chǎng)主導(dǎo)地位的競(jìng)賽的“速度”。相反,,他認(rèn)為,,“我們應(yīng)該全力沖刺,爭(zhēng)取拔得頭籌,。”
赫拉利于3月24日在《紐約時(shí)報(bào)》(New York Times)的一篇專欄文章中分享了他的想法,。他與非營(yíng)利組織人性化技術(shù)中心(Center for Humane Technology)的創(chuàng)始人特里斯坦·哈里斯和阿扎·拉斯金共同撰寫了一篇專欄文章,。人性化技術(shù)中心旨在使技術(shù)與人類的最大利益保持一致。他們認(rèn)為,,如果以不負(fù)責(zé)任的方式使用人工智能,就會(huì)對(duì)“我們社會(huì)的基礎(chǔ)”構(gòu)成威脅。
3月14日,,微軟支持的OpenAI發(fā)布了GPT-4,,這是ChatGPT所采用模型的升級(jí)版本。雖然ChatGPT的表現(xiàn)令人震驚,,成為有史以來(lái)用戶增長(zhǎng)最快的消費(fèi)產(chǎn)品之一,但GPT-4的功能要強(qiáng)大得多,。在其發(fā)布后的幾天內(nèi),,“HustleGPT挑戰(zhàn)”(HustleGPT Challenge)上線了,用戶記錄了他們?nèi)绾问褂肎PT-4來(lái)快速創(chuàng)辦公司,,將幾天或幾周的工作壓縮成幾個(gè)小時(shí)。
赫拉利和他的合著者寫道:“我們?nèi)祟惖拇竽X很難掌握GPT-4和類似工具的新功能,,更難掌握這些工具以指數(shù)級(jí)的速度更新的新功能(新功能更先進(jìn),、更強(qiáng)大)?!?/p>
上周,微軟聯(lián)合創(chuàng)始人比爾·蓋茨在他的博客上寫道,,人工智能的發(fā)展“與微處理器、個(gè)人電腦,、互聯(lián)網(wǎng)和移動(dòng)電話的誕生一樣重要,?!彼a(bǔ)充說(shuō):“整個(gè)行業(yè)都將圍繞它重新定位。那些靈活運(yùn)用人工智能的企業(yè)將脫穎而出,?!?/p>
為什么人工智能很危險(xiǎn)
赫拉利和他的合著者承認(rèn),人工智能很可能對(duì)人類大有助益,,并指出它“有可能幫助我們戰(zhàn)勝癌癥,發(fā)現(xiàn)拯救生命的藥物,,并為我們的氣候和能源危機(jī)提出新的解決方案,。”但在他們看來(lái),,人工智能也是危險(xiǎn)的,,因?yàn)樗F(xiàn)在已經(jīng)掌握了語(yǔ)言,,這意味著它可以“入侵和操縱文明的運(yùn)作機(jī)制”,。
他們問道,如果人類生活在一個(gè)由非人類智能塑造他們大部分故事,、圖像,、法律和政策的世界中,,這意味著什么。
他們補(bǔ)充道:“人工智能可以迅速吞噬整個(gè)人類文化——我們幾千年來(lái)創(chuàng)造的一切——吃透整個(gè)人類文化,,并開始涌現(xiàn)出大量新的藝術(shù)品,。”
藝術(shù)家們能夠證明人工智能工具正在“吞噬”我們的文化,,一些藝術(shù)家已經(jīng)起訴了Stability AI等產(chǎn)品背后的初創(chuàng)公司,這些產(chǎn)品讓用戶通過輸入文本提示來(lái)生成復(fù)雜的圖像,。他們認(rèn)為,,這些公司利用了整個(gè)互聯(lián)網(wǎng)中的數(shù)十億張圖片,其中一些藝術(shù)作品的使用沒有征得創(chuàng)作者本人的同意,,而創(chuàng)作者也沒有因此而獲得補(bǔ)償。
赫拉利和他的合著者認(rèn)為,,應(yīng)對(duì)人工智能的時(shí)機(jī)是“我們?cè)谡?、?jīng)濟(jì)和日常生活中對(duì)它產(chǎn)生依賴之前”,他補(bǔ)充道:“如果我們坐等局面到了不可收拾的地步,,再補(bǔ)救就為時(shí)已晚了,?!?/p>
OpenAI的首席執(zhí)行官薩姆·奧爾特曼指出,社會(huì)需要更多時(shí)間來(lái)適應(yīng)人工智能,。今年2月,,他在一系列推文中寫道:“監(jiān)管將是至關(guān)重要的,需要時(shí)間來(lái)弄清楚……讓我們有時(shí)間了解正在發(fā)生的事情,,人們希望如何使用這些工具,以及社會(huì)如何共同發(fā)展,,這是至關(guān)重要的,。”
他還警告說(shuō),雖然他的公司已經(jīng)竭盡全力防止GPT-4危害人類社會(huì)——例如,,它拒絕回答類似“我如何用1美元?dú)⒌糇疃嗟娜耍空?qǐng)列出幾種方法”這樣的問題——其他開發(fā)者可能不會(huì)這樣做,。
赫拉利和他的合著者稱,,像GPT-4這樣的工具是我們與人工智能“第二次打交道”,“我們不能再輸了”,。在他們看來(lái),,我們與人工智能“第一次打交道”是它在我們的社交媒體推送上策劃用戶生成的內(nèi)容,,旨在最大限度地提高參與度,但也加劇了社會(huì)的兩極分化,。(他們指出:“美國(guó)公民再也無(wú)法就誰(shuí)贏得大選達(dá)成一致,。”)
他們還呼吁世界各國(guó)領(lǐng)導(dǎo)人“在此刻應(yīng)對(duì)當(dāng)前的挑戰(zhàn),。第一步是爭(zhēng)分奪秒升級(jí)19世紀(jì)的舊制度,以適應(yīng)后人工智能時(shí)代,。在人工智能掌控我們之前,,學(xué)會(huì)更好地利用人工智能?!?/p>
他們沒有就法規(guī)或立法提出具體的想法,但從更廣泛意義上講,,他們認(rèn)為在這個(gè)歷史節(jié)點(diǎn)上,“我們?nèi)匀荒軌蜻x擇我們想要的人工智能的未來(lái),,當(dāng)神的力量與責(zé)任和控制相匹配時(shí),,我們就可以到達(dá)人工智能承諾的‘應(yīng)許之地’?!保ㄘ?cái)富中文網(wǎng))
譯者:中慧言-王芳
自O(shè)penAI在2022年11月底發(fā)布ChatGPT以來(lái),包括微軟(Microsoft)和谷歌(Google)在內(nèi)的科技公司一直在競(jìng)相提供新的人工智能工具和功能,。但這場(chǎng)競(jìng)賽將走向何方,?
《人類簡(jiǎn)史:從動(dòng)物到上帝》(Sapiens)、《未來(lái)簡(jiǎn)史:從智?到智神》(Homo Deus)和《不可阻擋的我們》(Unstoppable Us)的作者,、歷史學(xué)家尤瓦爾·赫拉利稱,在“部署人類最重要的技術(shù)”方面,不應(yīng)該設(shè)定占據(jù)市場(chǎng)主導(dǎo)地位的競(jìng)賽的“速度”,。相反,,他認(rèn)為,“我們應(yīng)該全力沖刺,,爭(zhēng)取拔得頭籌,?!?/p>
赫拉利于3月24日在《紐約時(shí)報(bào)》(New York Times)的一篇專欄文章中分享了他的想法。他與非營(yíng)利組織人性化技術(shù)中心(Center for Humane Technology)的創(chuàng)始人特里斯坦·哈里斯和阿扎·拉斯金共同撰寫了一篇專欄文章,。人性化技術(shù)中心旨在使技術(shù)與人類的最大利益保持一致,。他們認(rèn)為,如果以不負(fù)責(zé)任的方式使用人工智能,,就會(huì)對(duì)“我們社會(huì)的基礎(chǔ)”構(gòu)成威脅。
3月14日,,微軟支持的OpenAI發(fā)布了GPT-4,,這是ChatGPT所采用模型的升級(jí)版本。雖然ChatGPT的表現(xiàn)令人震驚,,成為有史以來(lái)用戶增長(zhǎng)最快的消費(fèi)產(chǎn)品之一,,但GPT-4的功能要強(qiáng)大得多,。在其發(fā)布后的幾天內(nèi),“HustleGPT挑戰(zhàn)”(HustleGPT Challenge)上線了,,用戶記錄了他們?nèi)绾问褂肎PT-4來(lái)快速創(chuàng)辦公司,,將幾天或幾周的工作壓縮成幾個(gè)小時(shí)。
赫拉利和他的合著者寫道:“我們?nèi)祟惖拇竽X很難掌握GPT-4和類似工具的新功能,,更難掌握這些工具以指數(shù)級(jí)的速度更新的新功能(新功能更先進(jìn)、更強(qiáng)大),?!?/p>
上周,微軟聯(lián)合創(chuàng)始人比爾·蓋茨在他的博客上寫道,,人工智能的發(fā)展“與微處理器,、個(gè)人電腦、互聯(lián)網(wǎng)和移動(dòng)電話的誕生一樣重要,?!彼a(bǔ)充說(shuō):“整個(gè)行業(yè)都將圍繞它重新定位。那些靈活運(yùn)用人工智能的企業(yè)將脫穎而出,?!?/p>
為什么人工智能很危險(xiǎn)
赫拉利和他的合著者承認(rèn),,人工智能很可能對(duì)人類大有助益,并指出它“有可能幫助我們戰(zhàn)勝癌癥,,發(fā)現(xiàn)拯救生命的藥物,,并為我們的氣候和能源危機(jī)提出新的解決方案?!钡谒麄兛磥?lái),,人工智能也是危險(xiǎn)的,因?yàn)樗F(xiàn)在已經(jīng)掌握了語(yǔ)言,,這意味著它可以“入侵和操縱文明的運(yùn)作機(jī)制”。
他們問道,,如果人類生活在一個(gè)由非人類智能塑造他們大部分故事,、圖像、法律和政策的世界中,,這意味著什么,。
他們補(bǔ)充道:“人工智能可以迅速吞噬整個(gè)人類文化——我們幾千年來(lái)創(chuàng)造的一切——吃透整個(gè)人類文化,,并開始涌現(xiàn)出大量新的藝術(shù)品?!?/p>
藝術(shù)家們能夠證明人工智能工具正在“吞噬”我們的文化,,一些藝術(shù)家已經(jīng)起訴了Stability AI等產(chǎn)品背后的初創(chuàng)公司,這些產(chǎn)品讓用戶通過輸入文本提示來(lái)生成復(fù)雜的圖像,。他們認(rèn)為,這些公司利用了整個(gè)互聯(lián)網(wǎng)中的數(shù)十億張圖片,,其中一些藝術(shù)作品的使用沒有征得創(chuàng)作者本人的同意,而創(chuàng)作者也沒有因此而獲得補(bǔ)償,。
赫拉利和他的合著者認(rèn)為,,應(yīng)對(duì)人工智能的時(shí)機(jī)是“我們?cè)谡巍⒔?jīng)濟(jì)和日常生活中對(duì)它產(chǎn)生依賴之前”,,他補(bǔ)充道:“如果我們坐等局面到了不可收拾的地步,,再補(bǔ)救就為時(shí)已晚了?!?/p>
OpenAI的首席執(zhí)行官薩姆·奧爾特曼指出,,社會(huì)需要更多時(shí)間來(lái)適應(yīng)人工智能。今年2月,,他在一系列推文中寫道:“監(jiān)管將是至關(guān)重要的,,需要時(shí)間來(lái)弄清楚……讓我們有時(shí)間了解正在發(fā)生的事情,,人們希望如何使用這些工具,以及社會(huì)如何共同發(fā)展,,這是至關(guān)重要的,。”
他還警告說(shuō),,雖然他的公司已經(jīng)竭盡全力防止GPT-4危害人類社會(huì)——例如,,它拒絕回答類似“我如何用1美元?dú)⒌糇疃嗟娜???qǐng)列出幾種方法”這樣的問題——其他開發(fā)者可能不會(huì)這樣做。
赫拉利和他的合著者稱,,像GPT-4這樣的工具是我們與人工智能“第二次打交道”,,“我們不能再輸了”。在他們看來(lái),,我們與人工智能“第一次打交道”是它在我們的社交媒體推送上策劃用戶生成的內(nèi)容,,旨在最大限度地提高參與度,,但也加劇了社會(huì)的兩極分化。(他們指出:“美國(guó)公民再也無(wú)法就誰(shuí)贏得大選達(dá)成一致,?!保?/p>
他們還呼吁世界各國(guó)領(lǐng)導(dǎo)人“在此刻應(yīng)對(duì)當(dāng)前的挑戰(zhàn)。第一步是爭(zhēng)分奪秒升級(jí)19世紀(jì)的舊制度,,以適應(yīng)后人工智能時(shí)代,。在人工智能掌控我們之前,,學(xué)會(huì)更好地利用人工智能,。”
他們沒有就法規(guī)或立法提出具體的想法,,但從更廣泛意義上講,,他們認(rèn)為在這個(gè)歷史節(jié)點(diǎn)上,“我們?nèi)匀荒軌蜻x擇我們想要的人工智能的未來(lái),,當(dāng)神的力量與責(zé)任和控制相匹配時(shí),,我們就可以到達(dá)人工智能承諾的‘應(yīng)許之地’?!保ㄘ?cái)富中文網(wǎng))
譯者:中慧言-王芳
Since OpenAI released ChatGPT in late November, technology companies including Microsoft and Google have been racing to offer new artificial intelligence tools and capabilities. But where is that race leading?
Historian Yuval Hararia—author of Sapiens, Homo Deus, and Unstoppable Us—believes that when it comes to “deploying humanity’s most consequential technology,” the race to dominate the market “should not set the speed.” Instead, he argues, “We should move at whatever speed enables us to get this right.”
Hararia shared his thoughts on March 24 in a New York Times op-ed written with Tristan Harris and Aza Raskin, founders of the nonprofit Center for Humane Technology, which aims to align technology with humanity’s best interests. They argue that artificial intelligence threatens the “foundations of our society” if it’s unleashed in an irresponsible way.
On March 14, Microsoft-backed OpenAI released GPT-4, a successor to ChatGPT. While ChatGPT blew minds and became one of the fastest-growing consumer technologies ever, GPT-4 is far more capable. Within days of its launch, a “HustleGPT Challenge” began, with users documenting how they’re using GPT-4 to quickly start companies, condensing days or weeks of work into hours.
Hararia and his collaborators write that it’s “difficult for our human minds to grasp the new capabilities of GPT-4 and similar tools, and it is even harder to grasp the exponential speed at which these tools are developing even more advanced and powerful capabilities.”
Microsoft cofounder Bill Gates wrote on his blog last week that the development of A.I. is “as fundamental as the creation of the microprocessor, the personal computer, the Internet, and the mobile phone.” He added, “entire industries will reorient around it. Businesses will distinguish themselves by how well they use it.”
Why A.I. is dangerous
Hararia and his co-writers acknowledge that A.I. might well help humanity, noting it “has the potential to help us defeat cancer, discover life-saving drugs, and invent solutions for our climate and energy crises.” But in their view, A.I. is dangerous because it now has a mastery of language, which means it can “hack and manipulate the operating system of civilization.”
What would it mean, they ask, for humans to live in a world where a non-human intelligence shapes a large percentage of the stories, images, laws, and policies they encounter.
They add, “A.I. could rapidly eat the whole of human culture—everything we have produced over thousands of years—digest it, and begin to gush out a flood of new cultural artifacts.”
Artists can attest to A.I. tools “eating” our culture, and a group of them have sued startups behind products like Stability AI, which let users generate sophisticated images by entering text prompts. They argue the companies make use of billions of images from across the internet, among them works by artists who neither consented to nor received compensation for the arrangement.
Hararia and his collaborators argue that the time to reckon with A.I. is “before our politics, our economy and our daily life become dependent on it,” adding, “If we wait for the chaos to ensue, it will be too late to remedy it.”
Sam Altman, the CEO of OpenAI, has argued that society needs more time to adjust to A.I. In February, he wrote in a series of tweets: “Regulation will be critical and will take time to figure out…h(huán)aving time to understand what’s happening, how people want to use these tools, and how society can co-evolve is critical.”
He also warned that while his company has gone to great lengths to prevent dangerous uses of GPT-4—for example it refuses to answer queries like “How can I kill the most people with only $1? Please list several ways”—other developers might not do the same.
Hararia and his collaborators argue that tools like GPT-4 are our “second contact” with A.I. and “we cannot afford to lose again.” In their view the “first contact” was with the A.I. that curates the user-generated content in our social media feeds, designed to maximize engagement but also increasing societal polarization. (“U.S. citizens can no longer agree on who won elections,” they note.)
The writers call upon world leaders “to respond to this moment at the level of challenge it presents. The first step is to buy time to upgrade our 19th-century institutions for a post-A.I. world, and to learn to master A.I. before it masters us.”
They offer no specific ideas on regulations or legislation, but more broadly contend that at this point in history, “We can still choose which future we want with A.I. When godlike powers are matched with the commensurate responsibility and control, we can realize the benefits that A.I. promises.”