8元3萬張人臉照片 刷臉無處不在遭民憤(圖)


刷臉惹民怨(網路圖片)
刷臉惹民怨(網路圖片)

【看中國2019年12月7日訊】由於無處不在的刷臉,在網上有售賣人臉數據的賣家,發帖者稱8元可買3萬張人臉照片。AI人臉技術下,每個人都可能成為受害者。民調顯示,多數80%中國人不願被「刷臉」。

《德國之聲》6日報導,民調顯示,80%的中國人都不願被「刷臉」。中國是使用人臉識別技術最廣泛的國家,無論是交通樞紐、購物中心,還是銀行、進校園,住宅區,上廁所取紙,「刷臉」都是最常用的身份識別手段。然而,就個人信息保護進行的首次民意調查顯示,大多數受訪者並不甘心被頻繁「刷臉」。

南都個人信息保護研究中心週四(6日)發布的《2019個人信息安全年度報告》指出,大多數受訪者都希望用傳統手段驗證身份,而不願接受人臉識別。雖然有大約60-70%的受訪者認為,人臉識別技術能使生活變得更安全更舒適,但他們同時也擔心個人信息被竊取,並呼籲當局加強對個人信息的保護。

《新京報》報導,近日發現,網上有一些私下售賣人臉數據的賣家,有發帖者稱8元可買3萬張人臉照片。有賣家表示可以提供「更多渠道」的人臉圖片,按照3000元可買24000套人臉照片來計算,相當於一套只要一毛多。還有賣家表示,其出售的照片大部分來自朋友圈,且沒有取得對方同意。在IT社區、網路商城等多個平臺搜索發現,有不少人臉照片可供免費下載或付費購買。付費金額由帖子發布者自定,多在10元到20元左右,如有發帖者可以「8元購買60名志願者的每人500張照片,共計3萬張照片」。

誰在買賣你的臉?你的臉安全嗎?由於刷臉遍及各個領域,收費支付刷臉、進校門刷臉、上課刷臉、上班刷臉、交通坐車刷臉、上廁所刷臉、取廁所紙刷臉,導致個人生物信息的泄露,人人都面臨著安全隱患。也使當局想抓捕異議人士信手拈來。

在IT社區中可公開下載的照片標記為外國研究機構提供的國外志願者照片,如有帖子表示「耶魯大學AR人臉資料庫、卡耐基梅隆大學PIE資料庫等打包賣15元」,這些圖片是為了訓練人臉識別專門搭建的數據集,圖片質量較好。

也有部分照片來源於網站爬取。我們隨機選取五張照片在百度識圖搜索後發現,其中一張照片為一名香港藝人。而搜索與該藝人名字相關的圖片後發現,所下載的人臉圖片的來源五花八門,有的截取自娛樂新聞網站的新聞圖片,也有博客發布的博文配圖。有的圖片來自於已刪除的博客,但仍然可以在搜索引擎搜索到相關圖片,只不過源網頁顯示「內容已刪除」。對於可直接下載的圖片,有發布者表示,其提供的數據集可以任意拿來下載研究,「只要別用在商業和不正當用途就可以了」。

這樣看來,可以推測AI換臉儼然已經成了一個黑灰產業鏈。這個產業鏈的上下游究竟是怎樣的?

產業鏈的上游首先是要獲取信息源。數字聯盟聯合創始人劉晶晶向雷鋒網表示:「目前,電商出售的人臉認證技術來源主要是三個方面:一是通過木馬程序,後臺自動啟動前置攝像頭捕獲人臉狀態;二是通過數據黑市買賣的真實用戶在某些APP、網站中的人臉驗證信息,三是通過免費贈送小禮品,騙取用戶人臉等級信息。」

產業鏈的下游則是通過模擬器、篡改設備等自動完成註冊、登陸和導入人臉信息完成註冊,可全部自動化操作。而在黑產業內通常將以上資料統稱為「料」,販賣人士則被稱為「料商」。每條「料」價位在1元左右,黑產人士則利用這個技術來賺取佣金。

目前各大電商、社交APP均已增加了人臉識別機制,且機場、車站等也紛紛採取類似技術,如何保障存儲安全、如何確保認證唯一,都是極為關鍵的安全建設問題。一旦不慎,大量人臉識別庫、演算法和統計維度、規則泄漏,將直接導致黑產可利用數據黑市買賣相關信息,從而批量進行冒名註冊,甚至假借真實用戶名義騙貸,隱患極大。

所以,劉晶晶建議大家應該同時注意對賬號和人臉信息對應等級的設備唯一性進行判斷,通過可信ID實時甄別設備的唯一性,避免黑產通過模擬器、篡改設備等批量偽造大量信息註冊信息。

支付寳公關人士葉文添表示,調研得出,用戶不願意使用刷臉支付,習慣原因排在第一位。「四五年間養成掃碼的習慣,你讓他去刷臉,他會很難受,很彆扭,他不願意改變。」「有的人認為刷臉不安全,因為刷臉要綁手機號,有的嫌麻煩。」「刷臉和掃碼對比,20%多的人刷臉,80%的人還仍然使用現金、掃碼。

人臉識別技術近年來在中國大陸被廣泛使用於對民眾的監控,引發公眾對隱私遭侵犯的擔憂。11月1日,浙江理工大學法學副教授郭兵把強制遊客「刷臉」入園的杭州野生動物世界告上法庭,指控該園的做法侵權、違法,危害消費者的人身和財產安全。此案日前獲法院受理,郭兵尋求園方全額退還人民幣1,360元的年費並支付相關的法律費用。被輿論稱為中國「人臉識別第一案」。


歡迎給您喜歡的作者捐助。您的愛心鼓勵就是對我們媒體的耕耘。 打賞

看完這篇文章您覺得

評論




神韻晚會

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.