地鐵或采用人臉識(shí)別,你在“白名單”里嗎?
去年4月,江西省南昌國(guó)際體育中心,,張學(xué)友舉辦了一場(chǎng)演唱會(huì),,現(xiàn)場(chǎng)約有六萬(wàn)粉絲。演唱會(huì)開(kāi)始沒(méi)多久,,警察來(lái)到中心看臺(tái)帶走了一名男子,。據(jù)警方介紹,男子是一名在逃嫌犯,。為了看張學(xué)友,,前一天上午他和妻子朋友們驅(qū)車近100公里。在一場(chǎng)萬(wàn)人演唱會(huì)上,他以為不會(huì)有人注意到他,。
確實(shí),在6萬(wàn)人中鎖定一個(gè)目標(biāo)不容易,,但對(duì)AI來(lái)說(shuō),,不是問(wèn)題。
人臉識(shí)別技術(shù)的本事可不止是抓逃犯,。在我國(guó),,人臉識(shí)別技術(shù)至少進(jìn)入安防、金融,、交通,、零售、醫(yī)療,、校園等多個(gè)領(lǐng)域,。這項(xiàng)AI技術(shù)給用戶帶來(lái)便捷,給各行各業(yè)帶來(lái)了實(shí)實(shí)在在的推動(dòng)甚至是變革,。
阿里巴巴的螞蟻金服利用“微笑支付”功能,,讓用戶在肯德基點(diǎn)餐更便捷;
杭州一所高中以此技術(shù)監(jiān)控學(xué)生出勤率,;
深圳以及其他城市的交警則以之鎖定亂穿馬路的行人和自行車,;
北京天壇附近一處公園,將該技術(shù)應(yīng)用于公廁,,以防止游客盜竊廁紙,。
北京的地鐵可能也要采用人臉識(shí)別技術(shù)了。

有消息稱,,北京或?qū)⒔⒌罔F“白名單”及快速安檢通道制度,,通過(guò)應(yīng)用人臉識(shí)別技術(shù),乘客“刷臉”即可快速通過(guò)安檢通道,。
據(jù)稱,,此舉能提升安檢效率、精準(zhǔn)識(shí)別可疑乘客,、降低地鐵安檢成本,、增強(qiáng)對(duì)犯罪分子的震懾力。
這項(xiàng)看上去合情合理的舉措,,卻引發(fā)了不少擔(dān)憂,。
有人設(shè)想了一下未來(lái)北京地鐵的情形。
早高峰時(shí)期,,“白名單”乘客有序地通過(guò)無(wú)安檢或者不嚴(yán)格安檢的通道,,比之前確實(shí)快多了。而有少數(shù)乘客——或許是因?yàn)闆](méi)有去申請(qǐng)進(jìn)入白名單,,或許是真的沒(méi)通過(guò)白名單申請(qǐng)——他們需要去到另一個(gè)隊(duì)列,,接受嚴(yán)格的安檢,。半個(gè)月之后,網(wǎng)上開(kāi)始有人呼吁為“可疑”乘客設(shè)置單獨(dú)的地鐵車廂,,因?yàn)楹退麄兂俗卉噹?,感覺(jué)隨時(shí)有危險(xiǎn)。
光明網(wǎng)評(píng)論員在“別把人臉識(shí)別技術(shù)搞成現(xiàn)代‘刺黥’”一文中,,就此事提出質(zhì)疑:“一個(gè)人即使是涉嫌犯罪或涉違約侵權(quán),,其有罪與否、違約侵權(quán)與否,,都要經(jīng)過(guò)法庭的公開(kāi)審理才可定論,。審理期間,公訴人與律師,、原告和被告之間,,都要對(duì)各自的證據(jù)進(jìn)行質(zhì)證,而后經(jīng)庭審法官依法判定,,即使這樣,,還不能避免冤錯(cuò)案件。而應(yīng)用人臉識(shí)別技術(shù)對(duì)乘客實(shí)施分類,,則是公民被一個(gè)設(shè)備看了一下臉,,在無(wú)知情況下就被定類。這,,可行嗎,?”
有偏見(jiàn),與你無(wú)關(guān)

人臉識(shí)別可能帶來(lái)的歧視和偏見(jiàn),,已經(jīng)引發(fā)擔(dān)憂了,。究其原因,一是源于AI技術(shù)本身,,一是源于該技術(shù)被不當(dāng)使用,。
誰(shuí)說(shuō)AI是中立的
軟件公司Salesforce的首席科學(xué)家理查德?佐赫爾在《財(cái)富》國(guó)際頭腦風(fēng)暴科技大會(huì)上指出:“偏見(jiàn)將成為未來(lái)人工智能領(lǐng)域里的一個(gè)根本性問(wèn)題?!?/p>
顛覆認(rèn)知的是,,大規(guī)模的數(shù)據(jù)收集與分析并不代表能產(chǎn)生客觀中立的觀點(diǎn),反而有可能加深先前存在的偏見(jiàn),。
如果一家銀行使用社交媒體來(lái)預(yù)測(cè)某人拖欠貸款的可能性,,或是警方依賴預(yù)測(cè)模型來(lái)決定將哪類人列為嫌疑對(duì)象,那么從數(shù)據(jù)中發(fā)現(xiàn)的任何種族,、性別或階級(jí)偏見(jiàn)都可以反映出來(lái),,并且可能被這些模型放大,從而產(chǎn)生帶有歧視性的結(jié)果。
再具體一點(diǎn)說(shuō),。比如有人發(fā)現(xiàn),,一些人臉識(shí)別系統(tǒng)在識(shí)別深膚色和淺膚色人臉時(shí),精確度往往不高,,原因是用于訓(xùn)練該系統(tǒng)的深膚色人臉數(shù)據(jù)遠(yuǎn)遠(yuǎn)不足,。最臭名昭著的一個(gè)例子是,美國(guó)部分州的司法部門(mén)使用了一套人臉識(shí)別系統(tǒng),,用來(lái)決定是否應(yīng)該批準(zhǔn)犯罪嫌疑人保釋或假釋。然而在犯罪記錄相似的前提下,,系統(tǒng)卻認(rèn)為黑人嫌犯比白人嫌犯有更高的再次犯罪風(fēng)險(xiǎn),。
佐赫爾認(rèn)為,在構(gòu)建人工智能系統(tǒng)的人自身變得更加多元化之前,,有些類型的偏見(jiàn)是不太可能被徹底消除的,。目前,很多從事人工智能軟件開(kāi)發(fā)的計(jì)算機(jī)工程師都是白人,,而且當(dāng)前開(kāi)發(fā)的很多人工智能軟件都只反映了城市富裕人口的需求,。
有爭(zhēng)議的應(yīng)用場(chǎng)景
正如美國(guó)蘋(píng)果CEO庫(kù)克所說(shuō):“技術(shù)本身沒(méi)有好與壞,一切由我們?nèi)藖?lái)決定”,。讓我們感到害怕的不是人臉識(shí)別技術(shù)本身,,而是其被過(guò)度、不當(dāng)?shù)膽?yīng)用,。
今年9月,,一段運(yùn)用人臉識(shí)別技術(shù)來(lái)監(jiān)控學(xué)生的視頻,在網(wǎng)上引發(fā)了熱議,。

“趴桌子2次,,玩手機(jī)2次,睡覺(jué)1次,,聽(tīng)講0次,,閱讀0次,舉手0次,,笑了0次,,厭惡表情出現(xiàn)了10次……”
這項(xiàng)被稱作是能夠?qū)崿F(xiàn)對(duì)學(xué)生“精準(zhǔn)監(jiān)控”的技術(shù),在網(wǎng)絡(luò)上迅速引發(fā)了爭(zhēng)議,。有網(wǎng)友指出,,“學(xué)校應(yīng)該是個(gè)培養(yǎng)人的地方,而正常人就應(yīng)該有喜怒哀樂(lè)興奮懈怠開(kāi)懷懶倦的情緒不是嗎,?”
這條視頻出自AI獨(dú)角獸公司曠視科技,,事發(fā)當(dāng)晚該公司發(fā)出聲明稱:“近日網(wǎng)絡(luò)上出現(xiàn)的一幅課堂行為分析圖片,為技術(shù)場(chǎng)景化概念演示。曠視在教育領(lǐng)域的產(chǎn)品專注于保護(hù)孩子在校園的安全,?!?/p>
但在同一天,剛剛開(kāi)學(xué)的某高校同學(xué)們發(fā)現(xiàn),,校門(mén)口,、學(xué)生宿舍門(mén)口、圖書(shū)館,、實(shí)驗(yàn)樓,、教室里多了很多的人臉識(shí)別攝像頭。所用設(shè)備就是曠視科技的產(chǎn)品,。
危險(xiǎn)的臉歧視并不是最可怕的,,在一些時(shí)候,人臉識(shí)別技術(shù)被認(rèn)為具有危險(xiǎn)性,。
《經(jīng)濟(jì)學(xué)人》刊發(fā)于2017年的報(bào)道提出,,人臉本身存在特殊性,“人臉和其他生物特征數(shù)據(jù),,比如和指紋之間存在一個(gè)巨大區(qū)別是,,它們可以遠(yuǎn)距離起作用。任何人只要有手機(jī)都能拍攝一張照片供人臉識(shí)別程序使用,?!?/p>
因此人臉面部特征有著更為廣闊的運(yùn)用前景,隨之而來(lái)的是更高的風(fēng)險(xiǎn),。

還記得前不久,,一款名為“ZAO”的AI換臉軟件突然火爆全網(wǎng)吧?上線當(dāng)晚就直接沖到了App Store的第二名,??梢哉f(shuō)這款軟件說(shuō)把用戶想要體驗(yàn)的AI換臉門(mén)檻降到了最低。但隨著ZAO越來(lái)越火,,用戶們對(duì)它的質(zhì)疑聲也變得越來(lái)越大,。
我們來(lái)看看它的用戶協(xié)議。該項(xiàng)條款包括但不限于:人臉照片,、圖片,、視頻資料等肖像資料中所含的用戶或肖像權(quán)利人的肖像權(quán),以及利用技術(shù)對(duì)其肖像進(jìn)行形式改動(dòng),。
這也就意味著,,如果你簽了該協(xié)議,你就在無(wú)形中將自己的肖像權(quán)拱手讓人了,,以后你的臉將完全有可能被別人隨意使用,,變換,。
其實(shí)早在2017年12月,國(guó)外某ID名為“deepfakes”的Reddit論壇用戶首次將自己制作的AI換臉視頻發(fā)布在了網(wǎng)絡(luò)上,,它能夠把照片和視頻中的人臉替換成任何想要替換的人臉,,且效果十分逼真,有些肉眼甚至難以分辨真假,。
當(dāng)時(shí),,“deepfakes”把情色電影里的女主角換成了蓋爾?加朵等好萊塢明星,這也是世界上所有人們第一次公開(kāi)見(jiàn)識(shí)到AI換臉的強(qiáng)大——和危險(xiǎn),。
市場(chǎng)調(diào)研公司Market Research Future稱,,人臉識(shí)別市場(chǎng)每年增長(zhǎng)20%,預(yù)計(jì)到2022年將達(dá)到每年90億美元,。
開(kāi)發(fā)頂尖軟件的競(jìng)爭(zhēng)中,,勝出的公司必然要算法精確度很高,可以迅速識(shí)別面部,,盡量減少誤差。與人工智能其他領(lǐng)域一樣,,要開(kāi)發(fā)出最好的面部識(shí)別算法,,就得收集大量數(shù)據(jù),也就是面部圖像用來(lái)訓(xùn)練,。
“收集并分析這些數(shù)據(jù)是有許多益處的,。”凱洛格學(xué)院的一位營(yíng)銷學(xué)副教授卡特勒說(shuō)道,?!叭欢娘L(fēng)險(xiǎn)也很大,因?yàn)橥瑯拥男畔⒁材軌虮粣阂馐褂??!?strong>而即便是出于最大的善意研究這些數(shù)據(jù),它們依然有可能產(chǎn)生預(yù)料之外的負(fù)面副作用,。
為了改進(jìn)算法,,很多公司經(jīng)常在未經(jīng)許可的情況下利用數(shù)十億張面部照片來(lái)進(jìn)行算法訓(xùn)練。你自己的臉就可能在面部識(shí)別公司的“訓(xùn)練庫(kù)”里,,也可能在公司客戶的數(shù)據(jù)庫(kù)里,。
最近,美國(guó)國(guó)家廣播公司的一篇報(bào)道重點(diǎn)批評(píng)了類似做法,,道詳細(xì)描述了IBM如何從照片共享網(wǎng)站Flickr中抓走超過(guò)100萬(wàn)張面部照片,,用作人工智能研究。
此外也存在黑客攻擊的風(fēng)險(xiǎn),。網(wǎng)絡(luò)安全公司Gemini Advisors的安德雷?巴雷舍維奇說(shuō),,曾經(jīng)見(jiàn)過(guò)從印度國(guó)家生物特征數(shù)據(jù)庫(kù)中竊取的資料,,都在“暗網(wǎng)”上出售。他還沒(méi)發(fā)現(xiàn)有人出售美國(guó)人面部數(shù)據(jù)庫(kù),,但補(bǔ)充說(shuō),,“這只是時(shí)間問(wèn)題?!比绻l(fā)生這種情況,,從酒店或零售商盜取的顧客面部圖片可以幫助罪犯實(shí)施詐騙或冒充身份。
我們是否太寬容

數(shù)據(jù)泄露和數(shù)據(jù)嚴(yán)重濫用通常會(huì)引發(fā)消費(fèi)者的強(qiáng)烈抗議,。然而,我們實(shí)際上對(duì)數(shù)據(jù)濫用的容忍度也讓人意外,。
人臉識(shí)別公司FaceFirst的特雷普說(shuō):“80,、90后更愿意提供面部圖像?!渡贁?shù)派報(bào)告》里呈現(xiàn)的世界即將到來(lái),。如果做得好,人們將享受到便利,,而且將變成積極的經(jīng)歷,。不會(huì)感覺(jué)太古怪?!?/p>
那么問(wèn)題來(lái)了:是否越來(lái)越多的人愿意用隱私來(lái)?yè)Q取便利,?他們都知道背后的風(fēng)險(xiǎn)么?監(jiān)管部門(mén)是否能扮演保護(hù)者的角色,?
喬治敦大學(xué)的研究員加維支持由法律監(jiān)督該項(xiàng)技術(shù),。但她也表示立法者很難跟上技術(shù)發(fā)展的腳步:“跟指紋不一樣的是,長(zhǎng)期以來(lái)指紋采集的方式和時(shí)間一直有規(guī)則限制,,而面部識(shí)別技術(shù)領(lǐng)域沒(méi)有規(guī)則,。”
很多情況下,,消費(fèi)者沒(méi)有意識(shí)到自己在巨大數(shù)據(jù)集的正式與非正式研究中扮演“參加者”的角色,。
在注冊(cè)獲得一項(xiàng)免費(fèi)服務(wù),或申請(qǐng)信用卡時(shí),,“大多數(shù)人都不知道自己同意了哪些事項(xiàng),,也不知道他們的數(shù)據(jù)會(huì)被用來(lái)做什么?!?凱洛格學(xué)院的卡特勒教授說(shuō),?!八麄兓蛟S會(huì)感到不安,但對(duì)于他們的數(shù)據(jù)會(huì)被如何使用,,以及可能帶來(lái)的損害則無(wú)了解,。”
大多數(shù)人除了接受伴隨新技術(shù)的益處而來(lái)的弊端之外別無(wú)選擇,,因?yàn)榫芙^的成本往往太高,。
不能缺席的法律法規(guī)

很多人開(kāi)始警惕人臉識(shí)別技術(shù)的濫用,“反人臉識(shí)別”技術(shù)也開(kāi)始涌現(xiàn),。比如“腦門(mén)貼紙”——穿戴繪制特定圖案的眼鏡,、帽子、衣服能夠有效干擾機(jī)器視覺(jué),,避免算法對(duì)人的識(shí)別,。
當(dāng)然,這并非是理想的解決方案,。
中國(guó)清華大學(xué)法學(xué)教授勞東燕在其公眾號(hào)發(fā)文稱,,有必要對(duì)人臉識(shí)別進(jìn)行法律規(guī)制。勞東燕主闡述了四點(diǎn)原因,,一是人臉是重要的個(gè)人生物數(shù)據(jù),相關(guān)機(jī)構(gòu)或組織在收集之前需證明合法性,;二是需征求公眾意見(jiàn),,經(jīng)過(guò)嚴(yán)格的聽(tīng)證過(guò)程;三是驗(yàn)證分類標(biāo)準(zhǔn)的合理性和合法性,;四是驗(yàn)證人臉識(shí)別技術(shù)的通行效率,。
法學(xué)博士史宇航稱,在我國(guó)正在制定的“民法典人格權(quán)編”草案二審稿中,,就將面部特征等個(gè)人生物識(shí)別信息納入個(gè)人信息的范疇,。除此以外,面部特征還涉及肖像權(quán)的保護(hù)問(wèn)題,,是傳統(tǒng)法律關(guān)系與新興法律關(guān)系的碰撞與融合,。圍繞面部特征等個(gè)人信息的收集、利用,,各國(guó)法律大多是以用戶的“知情-同意”作為合法的基礎(chǔ),。
美國(guó)已經(jīng)有多個(gè)城市制定了與人臉識(shí)別數(shù)據(jù)相關(guān)的法案,禁止人臉識(shí)別技術(shù)的使用,。
英國(guó)警方因?yàn)槭褂萌四樧R(shí)別技術(shù),,被認(rèn)為侵犯了隱私而被告上法庭,。這也是英國(guó)首宗因人臉識(shí)別技術(shù)而起的法律訴訟。
加拿大隱私專員辦公室已在調(diào)查商場(chǎng)使用面部識(shí)別技術(shù)的合法性問(wèn)題,。
2019年8月,,瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)對(duì)瑞典一所中學(xué)因違反通用數(shù)據(jù)保護(hù)條例而判處2萬(wàn)歐元罰款。中學(xué)工作人員在一個(gè)教室里面安裝了一部人臉識(shí)別相機(jī)作為實(shí)驗(yàn),,以檢測(cè)采用此種方式登記學(xué)生考勤是否更為迅速,,該實(shí)驗(yàn)共涉及22名學(xué)生。瑞典數(shù)據(jù)保護(hù)機(jī)構(gòu)認(rèn)為中學(xué)征得的同意不是“自由作出的”,,并且不符合最小必要性原則,。