OpenAI創(chuàng)始人:AI可能毀滅人類
2023-03-29 13:00
小號
默認(rèn)
大號
OpenAI創(chuàng)始人兼首席執(zhí)行官Sam Altman上周六(3月25日)在接受科技博客主Lex Fridman的采訪時表態(tài),,他不會回避“人工智能可能殺死全人類”的說法,。Yudkowsky此前指出“人工智能可能殺死所有人”,。對于此,,Altman回應(yīng)道,,“我認(rèn)為有這種可能性,并且承認(rèn)這一點很重要,,因為如果我們不談?wù)撍?、不把它視為潛在的事實,那么我們就不會投入足夠的努力去解決這個問題,?!?“我認(rèn)為我們必須開發(fā)新的技術(shù)來解決這個問題…我所知道的解決這類問題的唯一方法就是不斷迭代,盡早學(xué)習(xí),?!?a
style="color:#b6b6be;white-space: nowrap;" class="article-link" id="newSpecialLink"
target="_blank" rel="noopener" data-find-id="732"> | 相關(guān)閱讀(財聯(lián)社)
45

孫渺
Life is short, make it count.
AI的研究真是讓人歡喜讓人憂。從OpenAI創(chuàng)始人Sam Altman話里,,讓人感受到,,人類面對AI,不只是丟掉工作那么簡單,,而且還可能丟命,。為了避免極端情況發(fā)生,Altman提出開發(fā)新技術(shù)來監(jiān)管和控制AI,,也就是“對抗性機(jī)器學(xué)習(xí)”技術(shù),讓AI系統(tǒng)自我監(jiān)管和糾正錯誤,,從而避免出現(xiàn)意外的后果,。
OpenAI已推出GPT-4,AI技術(shù)不斷得到改進(jìn),。同時也是正面GPT的偏見,,積極尋求解決方案。比如,,制定一系列的道德準(zhǔn)則,,以確保人工智能的安全和道德性;開發(fā)諸如對抗性訓(xùn)練,、安全性驗證和安全性修復(fù)等技術(shù),,來提高人工智能的安全性;推動人工智能安全的研究,、合作和實踐,,提高公眾認(rèn)識等等。
總的說,,AI的發(fā)展是必然的趨勢,。確保AI的發(fā)展符合人類的利益,AI的發(fā)展要做到透明和可控,,避免導(dǎo)致無法預(yù)測的后果,,這需要研發(fā)機(jī)構(gòu)的努力,同樣需要政府和相關(guān)組織加強(qiáng)對AI的監(jiān)管和研究,確保AI造福人類,,而不是相反,。
22

胖胖的圓圓
AI消滅人類的概率恐怕比外星力量消滅人類的概率更大,無他,,只是人類對人類的憎恨才會催生出消滅人類的AI,,畢竟AI是人類創(chuàng)造的作品,底層運行邏輯是人賦予給它,,也會在此基礎(chǔ)上迭代進(jìn)化,。