2017-05-14 13:38?來源 綜合南方都市報
看臉識罪犯引熱議
看臉識罪犯引熱議:人臉識別技術不斷發展,上海交通大學教授武筱林研究“人臉識別罪犯”,就是通過機器識別人臉來判斷罪犯,這項技術引起了巨大的爭議。
5月7日,谷歌人工智能研究員布萊斯、瑪格麗特和普林斯頓大學神經科學教授亞歷山大發布的《相面術的新外衣》一文,質疑武筱林研究的可信性,并稱其研究結論可“具有誤導性,洗白科學種族主義”。
近日,武筱林回應南都記者稱,“他們對我們研究的上下文進行斷章取義,有失學術探討的公正精神,我感到非常失望。”
看臉識罪犯,研究者“原本打算證偽”
事情緣起于2016年11月,上海交大圖像通信與網絡工程研究所教授武筱林和其博士生張熙在國際電子預印本文獻庫arX iv上提前發布了一篇題為《基于面部圖像的自動犯罪概率推斷》的研究。
“這在科學界是很常規的做法。”武筱林回應南都記者稱。
清華大學納米生物領域博士后張旭告訴南都記者,arX iv是國際科研工作者在研究成果未正式發表前,出于和同行交流目的先行發布的一個電子預印本文獻庫,涉及物理、數學、計算機科學等領域,“相當于永不落幕的學術會議”。
在該研究中,武筱林和團隊通過運用計算機視覺和機器學習技術,對1856名18到55歲中國男性的身份證照進行檢測。這些研究對象被分為罪犯組與非罪犯組兩組,罪犯組包含730名犯罪人員,涉及盜竊、貪污、謀殺、強奸、綁架和搶劫等罪行。其余1100名普通人所在的非罪犯組,職業覆蓋司機、醫生、律師、教授、服務員、建筑工人等領域。
“我們當時在公安部、各省公安廳協助下得到這些圖像”,武筱林指出,這些研究對象來自全國不同的地方,“后來這些照片都被調整為80cm×80cm大小,照片的亮度和對比度等都進行了統一處理,隨后通過卷積神經網絡算法(一種高度通用的深度學習技術)進行檢測。”
研究結果顯示:四類分離器(邏輯回歸,K N N,SV M,C N N )對罪犯與非罪犯的區分準確率至少在86%以上。與此同時,兩組面部特征方面在內眼角間距、上唇曲率和鼻唇角角度這三個測度最為顯著。通過計算機模擬出來的罪犯與非罪犯的“平均臉”較相似,但非罪犯之間的面部特征差異要比罪犯小。也就是說,樣本中非犯罪人員的樣貌更為相似,變化幅度更小,犯罪人員的面部表情差異比普通人更大。
對于該結論,武筱林稱,他們當時也很驚訝,“研究結果與預期相反,我們原本想用數據分析推翻‘相由心生’這種說法,原本是打算證偽的。”
看臉識罪犯結論引熱議:被指樣本量太小,研究不科學
結論一出,有研究者質疑武筱林的研究不科學,“樣本量太小了”。部分人士表示擔憂,這會加重人們對樣貌有缺陷人群的歧視。
武筱林告訴南都記者,這半年來他收到了非常多的反饋郵件,“有的來信索取數據,有的想要與我們合作,還有質疑實驗結論的。”有同行還要求他從arX iv上撤稿。
這些聲音中,就包括谷歌研究員布萊斯等人最新發表的文章——— 《相面術的新外衣》。該文開頭指出,武筱林的研究將人類行為中存在的偏見帶入機器學習模型的開發過程中,“通過計算機算法對人類偏見的‘洗白’可能會使這些偏見看來是客觀的。”
“武筱林的研究最讓人不安的是,它讓人群高低貴賤之分的這種說法再次復蘇并且予以證明,是科學種族主義。”布萊斯等人擔憂人工智能和機器學習的快速發展可能使科學種族主義進入了一個新的時代,“讓機器習得人類的偏見。”
對于武的研究的實用性,布萊斯等人認為,“可能讓一名人類法官將圖像從微笑到皺眉來排個序,也可以很好地將‘非罪犯’與‘犯罪分子’區別開來。”
針對上述觀點,武筱林在回應南都記者時表示,“對于純粹的科學問題,我們歡迎一起討論。”
“但谷歌研究者將我們的上下文割裂了。我們的研究設定的邊界是證明機器學習的相關性。我們已經討論過的數據的風險和采取的措施并反復核查,這也被谷歌的研究者忽略了。”武筱林稱。
針對布萊斯等人的“科學種族主義”批評,武筱林表示,“他們對科學種族主義的指責毫無根據。事實上,我們在進步的社會價值觀上與這些作者沒有什么不同。”
武筱林告訴南都記者,近期他將盡快用英文正式回復谷歌研究員質疑。
專家觀點:“該研究在法律上不具有參考意義”
人像識別在人工智能時代越來越成為社會關注重點。針對武筱林的研究是否科學與應用前景,中國政法大學刑事司法學院教授曲新久對南都記者表示,該研究成果“在法律上不具有參考的意義”。
“在刑事偵查中,公安機關早已采用圖像識別技術尋找犯罪嫌疑人,但這種‘面部識別術’僅僅用于鑒定某個人的身份,在法律上,根據嫌疑人的長相特征來判定犯罪的可能性大小是不被允許的。”曲新久說。
一位不愿具名的計算機科學領域的研究人員對南都記者表示,把人臉特征作為判斷犯罪的依據不具有科學性。“從論文本身的研究方式來看,這是一種單純的數據挖掘和探索,即從數據直接關聯標簽,但數據與標簽之間不存在有力的理論支撐。這種做法其實在數據挖掘領域已經有過很多嘗試,而且一般也都是作為數據間某種關聯的一種啟發,不是作為最終判定依據。所以,對于這篇論文的結論的定位問題,如果只是作為數據挖掘中的一種探索,可以接受,但如果就因此認定人臉是判斷犯罪的依據,無法接受。”
他表示,目前人工智能領域還做不到“看臉識別罪犯”,但即使未來技術上能做到,也不能“全看臉”。
“這種研究內容是需要考慮很多其他因素的,如社會因素、心理因素等,而不是簡單地從臉推斷是否為罪犯的概率。嚴肅點說,這種做法其實是很淺顯且不負責任的。”該研究人員稱。
對話
研究者武筱林:
“結論不是百分之百正確,但本著科學的精神在做”
南都:看到谷歌研究員的這篇文章你的第一反應是?
武筱林:我把對方的文章完整地讀下來了。我對他們‘斷章取義’這種有失學術公正精神的做法感到非常失望。今天下午我與同事、學生在會議上也討論了這個事情,不是說對方文章中所有的指責都是錯的,但他們忽略我們研究的上下文、居高臨下進行道德審判這讓人很不舒服。
南都:你怎么看谷歌研究員文章中對你們的批評?
武筱林:對方故意隱瞞了我們文章很多說明性的文字以及關鍵性的實驗,比方數據過濾的問題。其實這個問題我們是排查過的,做過隨機標記測試。當然我們的東西不是百分之百正確,但團隊本著科學的精神做了當時知道的、能夠做的所有的驗證。
南都:網友的觀點是研究樣本量有些小。
武筱林:更多犯罪者的數據公安部門才有。這1856個樣本我們是做了相當大的努力,從公安部、各省公安廳的通緝犯等網頁或公共渠道獲取的。因為存在隱私的問題,目前研究存在一些阻力,更多的數據相關部門不便提供。我們想推進,苦于沒有數據。
南都:當時發起研究的背景是什么?總共花了多少時間進行研究?
武筱林:我們的本質研究是圖像分析。這幾年人工智能、人像處理和在人臉識別上都有長足的進步。這個研究我們前后投入了兩年時間。
南都:2015年實驗結果就出來了,為什么當時沒有發布而推遲了一年?
武筱林:對,一年間我們有進行反復的推敲和認證。是不是罪犯從臉上的特征是很難去區分的,我們本來是想“證偽”,相由心生這種事我們本來是不相信的。結果剛出來時我們也很驚訝。
南都:選擇在arX iv上提前發布的原因是?
武筱林:這是很常規的做法,提前公布自己的研究成果。因為在國際上這方面的研究還是比較有競爭力的,所以就先發表了。但這并不是急功近利,因為很長時間我們都沒有公布這個結果。
南都:你對“相面術”怎么看?
武筱林:我也是受過教育的人,也反對歧視。但純粹的科學問題,就應該用科學的態度。
南都:谷歌研究員指出你們文末提到了對“研究結論感到興奮”。
武筱林:“當時用了一個錯誤的詞‘excited’。我們當時認為,研究也許會對社會心理學、管理學、犯罪學有啟示,讓相關領域的專家去探究真正的原因和解釋。但有意義不是說用來對人進行歧視。只是說可能有這種相關性,比方說犯罪分子具有這種面貌特征,有可能是此前受到歧視被社會歧視邊緣化,最后走向犯罪道路。我們的研究結論,其實恰恰可以用來作為反樣貌歧視的根據。
本文“”來源:http://m.hangqichache.cn/keji/xwzt/68428.html,轉載必須保留網址。編輯: yujeu