人工智能的隱性偏見可能會(huì)影響你的想法,。應(yīng)該如何阻止它,?
插圖來源:KAROL GADZALA
在不到兩年的時(shí)間里,,人工智能從根本上改變了許多人寫作和查找信息的方式,。在搜索美國最高法院(Supreme Court)判例的細(xì)節(jié)或者修改大學(xué)論文時(shí),,數(shù)百萬人會(huì)向人工智能聊天機(jī)器人尋求幫助,例如OpenAI的ChatGPT或者Anthropic的Claude,。
《財(cái)富》雜志的人工智能編輯杰里米·卡恩(Jeremy Kahn)在近期出版的《掌握人工智能:超能力未來的生存指南》(Mastering AI: A Survival Guide to Our Superpowered Future)一書中,,探討了這一全新的科技現(xiàn)實(shí),,以及應(yīng)該采取哪些措施來躲避不可避免的陷阱,。在下面的節(jié)選里,他重點(diǎn)討論了人工智能中鮮為人知的微妙偏見問題,,以及它可能對用戶的看法產(chǎn)生的深遠(yuǎn)影響,。
特里斯坦·哈里斯(Tristan Harris)是人道技術(shù)中心(Center for Humane Technology)的聯(lián)合創(chuàng)始人及執(zhí)行董事,,被稱為“硅谷最接近良心的存在”,。2015年,,他曾經(jīng)是谷歌(Google)的一位設(shè)計(jì)倫理學(xué)家,就公司項(xiàng)目的道德影響發(fā)表看法,。在2019年的美國國會(huì)聽證會(huì)上,,哈里斯表示,對科技公司而言,,最重要的貨幣是人們的注意力,。他說,在試圖壟斷用戶注意力市場的過程里,,科技公司正在進(jìn)行一場“爭奪腦干底層的競賽”,,旨在不斷刺激我們的杏仁核,即大腦中處理恐懼和焦慮等情緒的部分,。這種對神經(jīng)系統(tǒng)的操縱導(dǎo)致人們依賴社交媒體應(yīng)用程序,,甚至上癮。他還指出,,通過影響我們對所做、所買和所言的思考,,科技正在削弱我們自由做出決定的能力,。個(gè)性化的人工智能助手將使這些問題變得更為糟糕,把我們包裹在終極過濾氣泡里,,控制著我們生活中的無數(shù)決定,。要防止這種情況發(fā)生,,就需要制造人工智能產(chǎn)品的公司在政府監(jiān)管的推動(dòng)下采取一致行動(dòng),。
大多數(shù)的科技公司將聊天機(jī)器人訓(xùn)練成隨和,、不評判,、“樂于助人”的助手,。問題是,有時(shí)“樂于助人”往往是假象,。為了表現(xiàn)出同理心,,聊天機(jī)器人最終可能會(huì)證實(shí)錯(cuò)誤或者有偏見的想法。友誼和賦能之間只有一線之隔,。大多數(shù)最著名的人工智能聊天機(jī)器人,,比如OpenAI的ChatGPT、Anthropic的Claude和谷歌的Gemini,,都會(huì)在用戶似乎贊同某個(gè)眾所周知的陰謀論[例如新冠疫苗導(dǎo)致自閉癥或者“匿名者Q”組織(QAnon)陰謀]時(shí)提出質(zhì)疑,。但在許多有爭議的話題上,比如巴以問題,,或者人們是否應(yīng)該慶祝哥倫布日(Columbus Day),,機(jī)器人傾向于用諸如“這是一個(gè)復(fù)雜且棘手的話題,,雙方爭執(zhí)不下”之類的某種變體來作出回應(yīng),。
一些右傾政客和技術(shù)專家指責(zé)由領(lǐng)先的科技公司設(shè)計(jì)的人工智能系統(tǒng)“意識覺醒”,并主張創(chuàng)建具有明確“政治個(gè)性”的人工智能模型,,以便用戶可以選擇與支持其觀點(diǎn)的聊天機(jī)器人互動(dòng),。特斯拉(Tesla)的創(chuàng)始人埃隆·馬斯克(Elon Musk)承諾,他的xAI研究實(shí)驗(yàn)室將開發(fā)出反意識覺醒的人工智能,。該實(shí)驗(yàn)室已經(jīng)開發(fā)出一款基于大型語言模型的聊天機(jī)器人Grok。這樣的事態(tài)發(fā)展無疑會(huì)進(jìn)一步激化文化戰(zhàn)爭,,讓人們沒有理由寄希望于人工智能會(huì)采取任何措施來對抗過濾氣泡,。
然而,,聊天機(jī)器人的影響可能比這要微妙得多:康奈爾大學(xué)(Cornell University)的研究人員發(fā)現(xiàn),,使用具有特定隱藏觀點(diǎn)的人工智能助手來幫助撰寫支持或者反對特定立場的文章,,人工智能助手會(huì)巧妙地把用戶本身對該話題的看法轉(zhuǎn)向帶有偏見的方向,。該研究的高級研究員莫爾·納曼(Mor Naaman)將這種現(xiàn)象稱為“潛在說服”,,并表示“你甚至可能不知道自己受到了影響?!痹诖罅繗v史數(shù)據(jù)的訓(xùn)練下,,許多大型語言模型都隱藏著種族或者性別偏見,,這些偏見可能會(huì)對用戶的觀點(diǎn)造成微妙的影響——例如,,醫(yī)生的人工智能助手誤認(rèn)為黑人的皮膚比白人的皮膚更厚,,或者疼痛閾值更高。
對抗這種隱性偏見的唯一方法,,就是強(qiáng)制要求科技公司披露更多有關(guān)人工智能模型訓(xùn)練方式的信息,,并且允許進(jìn)行獨(dú)立審計(jì)和測試,。我們還必須堅(jiān)持要求科技公司公開人工智能助手背后的商業(yè)動(dòng)機(jī),。美國聯(lián)邦貿(mào)易委員會(huì)(Federal Trade Commission)和其他的監(jiān)管機(jī)構(gòu)應(yīng)該取締那些鼓勵(lì)科技公司讓聊天機(jī)器人推薦特定產(chǎn)品,、為特定網(wǎng)站引流或者支持特定觀點(diǎn)的收費(fèi)服務(wù)安排。我們應(yīng)該鼓勵(lì)訂閱等商業(yè)模式,,在這種模式下,,聊天機(jī)器人公司在滿足用戶需求(而不是廣告商需求)方面沒有利益沖突,。當(dāng)你需要一雙新跑鞋,,并且要求人工智能個(gè)人助手研究各種選擇,,為你買一雙最適合的鞋子時(shí),,你希望它訂購最符合需求的鞋子,,而不是那些向聊天機(jī)器人公司支付最多費(fèi)用、引導(dǎo)你消費(fèi)的品牌的鞋子。
誠然,,只告訴你想聽的話的聊天機(jī)器人會(huì)強(qiáng)化過濾氣泡,。然而,,從社會(huì)層面來說,,我們能夠強(qiáng)制規(guī)定,,把人工智能系統(tǒng)設(shè)計(jì)為專門破除這些泡沫,,向人們詢問是否考慮過其他觀點(diǎn),,并且著重突顯其他視角。IBM開發(fā)了一個(gè)名為“辯論家項(xiàng)目”(Project Debater)的人工智能產(chǎn)品,,它可以在一系列話題上與人類辯論冠軍一較高下,,并且提供支持雙方論點(diǎn)的證據(jù),。監(jiān)管機(jī)構(gòu)能夠規(guī)定,人工智能聊天機(jī)器人不可以過于中立,,以至于無法質(zhì)疑錯(cuò)誤的觀點(diǎn),。為了打破現(xiàn)有的過濾氣泡,,我們甚至能夠要求聊天機(jī)器人提供其他的觀點(diǎn)和證據(jù)。
歸根結(jié)底,,問題在于,,我們希望繼續(xù)讓渡多少權(quán)力給少數(shù)的幾家大型科技公司?這最終關(guān)系到我們的個(gè)人自主權(quán),、心理健康和社會(huì)凝聚力,。
譯者:Zhy