近期,基于生成對抗網(wǎng)絡(luò)(GAN)的技術(shù),對視頻或者音頻合成人類的假人臉、假聲音的詐騙案件時(shí)有發(fā)生。雖然這些應(yīng)用目前而言并未有完善的法律進(jìn)行限制,但它們已經(jīng)在網(wǎng)絡(luò)犯罪中開始發(fā)芽。
這種行為在國外被稱為“Deepfake”(深度偽造),名稱來源于深度學(xué)習(xí)與偽造的組合。GAN的應(yīng)用范圍較廣,擴(kuò)展性也強(qiáng),可應(yīng)用于圖像生成、數(shù)據(jù)增強(qiáng)和圖像處理等領(lǐng)域。簡單地說它可以分析一個(gè)人數(shù)千個(gè)語音記錄(圖像),在分析結(jié)果上創(chuàng)建一個(gè)聽起來“一樣”的文件(音頻或圖像)。
圍繞這項(xiàng)技術(shù)的討論越來越激烈,人們開始擔(dān)憂不法分子通過其模仿政客或者公眾人物傳播虛假的信息,例如通過發(fā)表極端的主義言論影響選舉結(jié)果或者煽動暴力等。
今年8月,在西班牙就有通過Deepfake技術(shù)詐騙公司22萬歐元的案件發(fā)生,其主要的方式是詐騙者通過模仿該公司ceo的聲音,對公司員工進(jìn)行詐騙。
語音詐騙非常常見,但是通過人工智能與深度學(xué)習(xí)進(jìn)行犯罪的,目前還是比較“新鮮”,據(jù)網(wǎng)上資料統(tǒng)計(jì),2013年-2017年網(wǎng)上詐騙案件增長了350%,一旦犯罪分子利用AI技術(shù),那么這個(gè)比例只會有增不減。
AI作為一項(xiàng)新技術(shù),本身并無善惡之分,人們可以用其進(jìn)行制止犯罪,也可以用于實(shí)施犯罪。從悲觀的角度上看,未來企業(yè)用戶的IT系統(tǒng)與網(wǎng)絡(luò)威脅將迎來更高層次的挑戰(zhàn),因此對于網(wǎng)絡(luò)安全而言任重道遠(yuǎn)。