「AI已經(jīng)能看出你藏起來的小秘密了!」
斯坦福大學(xué)的兩位研究員發(fā)布了一個研究報告,他們用數(shù)十萬張約會網(wǎng)站的照片來訓(xùn)練一個面部識別系統(tǒng),嘗試讓AI學(xué)會通過照片來判斷一個人是否是同性戀。
權(quán)威外媒《經(jīng)濟學(xué)人》第一個報道了這個研究,之后其他媒體也做了跟進的報道,諸如《可怕!AI只要一張照片就能看出來你是不是同性戀》的標(biāo)題很快散播在各家媒體網(wǎng)站上。
從多家外媒的報道來看,研究指出通過一張面部圖片,該系統(tǒng)就可以判斷出圖片上的人性向如何,判斷準(zhǔn)確率男性81%,女性71%,如果同一人物的圖片素材達到5張,則準(zhǔn)確率可以上升到男性91%,女性83%。
但著名科技媒體TheVerge指出,其實這類報道出現(xiàn)了偏差,斯坦福大學(xué)研究員們的這個研究并不是像諸多文章中寫的那樣,只要一張照片就能看出來性取向,事實上,該研究是通過兩張圖片二選一的機制讓機器選出「更可能是同性戀」的圖片。這種對比判斷其實是從50%的隨機幾率開始計算的,因此與單純對一張圖的分析有著很大的區(qū)別。
除了報道的理解偏差以外,這項研究本身也遭到了不少批評聲。馬里蘭大學(xué)的社會學(xué)家PhilipCohen就表示,人們本來擁有一個私密的生活,性取向也沒有打算公之于眾,結(jié)果去了一趟機場或者運動場就被攝像頭掃描出來了,這樣的可能性會讓人們感到恐懼。
研究人員之一的Michal Kosinski也表示,他們的意圖就是警醒人們AI的危險性。他認(rèn)為人工智能和面部識別在不遠的將來不僅僅可以識別人的性取向,甚至還能檢測出人的政治立場、犯罪傾向,甚至智商。
The Verge文章還認(rèn)為,這種從人臉圖片判斷出性取向的科研成果其實是19世紀(jì)到20世紀(jì)的種族主義披上了神經(jīng)網(wǎng)絡(luò)、機器學(xué)習(xí)等計算機技術(shù)的外衣,對真正科學(xué)的反攻倒算。它像過去的偽科學(xué)、相面術(shù)一樣,給了某些人譴責(zé)、滅絕其他人類同胞的理由。
從道德的角度看,這項研究確實有著很大的缺陷,但人們也無法否認(rèn),機器確實有著人類所沒有的分析能力,也許能夠發(fā)現(xiàn)人類所發(fā)現(xiàn)不了的規(guī)律和事實。
比如AlphaGo就可以從圍棋的規(guī)則和以往的經(jīng)典棋局中「研究」出一套獨特的棋路,而不是簡單的模仿學(xué)習(xí)。
所以該研究指出的同性人群可能存在不同于異性戀人群的某些特征,從人類的角度我們也不能一昧地從道義上反駁,相反,類似的研究成果可能會被性學(xué)專家重視,并加以深入研究。
但另一方面,從訓(xùn)練算法的數(shù)據(jù)來看,這項研究本身也存在著一定的問題。
數(shù)據(jù)源的問題。從婚戀交友網(wǎng)站獲取的數(shù)十萬張照片不能代表人類全體,這些人本身可能就存在著某些特征,而這些特征極有可能會影響到機器對性取向的判斷與學(xué)習(xí)。
數(shù)據(jù)類型的問題。圖片就夠了嗎?判斷一個人的性取向這樣重要的特征,簡單的靜態(tài)圖片就夠了嗎?機器也許可以發(fā)現(xiàn)人類無法發(fā)現(xiàn)的東西,但前提是數(shù)據(jù)的厚度、密度和廣度都必須達到一定的量。
在這一點上,研究者只給機器提供靜態(tài)的圖片作為學(xué)習(xí)的素材,不禁讓人懷疑他們的初衷究竟是出于科學(xué)地研究不同人群的潛在特征,還是一些易于媒體傳播的商業(yè)意圖。
畢竟,從網(wǎng)站上扒圖并不是什么技術(shù)活,讓機器做選擇題的概念,也像極了十多年前哈佛某個宅男做的校園選美網(wǎng)站。