麻省理工學(xué)院和多倫多大學(xué)的研究人員表示,亞馬遜向執(zhí)法部門推銷的面部檢測技術(shù)經(jīng)常誤認為女性,尤其是那些膚色較深的女性。
由于擔(dān)心歧視少數(shù)群體,隱私和民權(quán)倡導(dǎo)者呼吁亞馬遜停止?fàn)I銷其Rekognition服務(wù)。一些亞馬遜投資者也曾要求擔(dān)心它會使亞馬遜容易受到訴訟而要求該公司停止。
研究人員表示,在他們的測試中,亞馬遜的技術(shù)將黑皮膚女性稱為男性的31%。皮膚較淺的女性在7%的時間里被誤診。膚色較深的男性的錯誤率為1%,而膚色較淺的男性則沒有。
人工智能可以模仿人類創(chuàng)造者進入日常生活的偏見。近日發(fā)布的這項新研究警告說,面部檢測技術(shù)可能會導(dǎo)致濫用和威脅隱私和公民自由。
亞馬遜云計算部門人工智能總經(jīng)理Matt Wood 表示,該研究使用的是“面部分析”而非“面部識別”技術(shù)。Wood說,面部分析“可以在視頻或圖像中發(fā)現(xiàn)面部,并指定佩戴眼鏡等通用屬性;識別是一種不同的技術(shù),通過這種技術(shù),個人面部與視頻和圖像中的面部相匹配?!?/p>
在媒體網(wǎng)站近日帖子中,麻省理工學(xué)院媒體實驗室研究員Joy Buolamwini回應(yīng)說,公司應(yīng)該檢查所有分析人臉的系統(tǒng)是否有偏見。
她寫道:“如果你銷售一種已被證明對人臉有偏見的系統(tǒng),那么你的其他基于面部的產(chǎn)品也完全沒有偏見是值得懷疑的?!?/p>
美國公民自由聯(lián)盟(American Civil Liberties Union)的律師雅各布?斯諾(Jacob Snow)表示,亞馬遜的反應(yīng)表明,它并沒有認真對待“這項研究所揭示的真正嚴(yán)重的擔(dān)憂”。
多倫多大學(xué)的Buolamwini和Inioluwa Deborah Raji表示,他們研究亞馬遜的技術(shù),因為該公司已將其推向執(zhí)法部門。Raji在LinkedIn帳戶稱,她目前是Google的人工智能研究人員,該公司與亞馬遜競爭提供云計算服務(wù)。
Buolamwini和Raji表示微軟和IBM已經(jīng)改進了他們的面部識別技術(shù),因為研究人員在2017年5月的研究中發(fā)現(xiàn)了類似的問題。他們的第二項研究,包括亞馬遜,于2018年8月完成。他們的論文將于周一在檀香山舉行的人工智能會議上發(fā)表。
伍德表示亞馬遜自研究以來已對其技術(shù)進行了更新,并通過“零假陽性匹配”進行了自己的分析。
亞馬遜的網(wǎng)站認為Rekognition幫助俄勒岡州華盛頓縣警長辦公室加快了從數(shù)十萬張照片記錄中識別嫌疑人的時間。
注:本文編譯自外網(wǎng)