現(xiàn)在利用開源項目的AI人工智能換臉合成視頻已經(jīng)非常常見,當然合成這些視頻,一方面是展現(xiàn)技術(shù),而一方面則是為了錢,現(xiàn)在犯罪分子已經(jīng)開始合成以假亂真的語音來進行釣魚、詐騙。
國外公司被語音詐騙174萬元:
據(jù)外媒報道日前英國某能源公司遭到犯罪分子使用的語音釣魚,犯罪分子看起來已經(jīng)提前收集這家公司各種信息。例如犯罪分子知道這家公司的母公司老板是德國人,同時也知道這位德國老板的大概聲音已經(jīng)日常溝通的方式等。當然最關(guān)鍵的是網(wǎng)絡犯罪分子應該拿到德國老板的錄音片段,然后合成語音給英國這家公司打電話要求緊急墊付。英國這家公司的首席執(zhí)行官接到電話后聽到那個熟悉的還帶有德國腔調(diào)的口音,因此沒有多家懷疑就完成了付款。付款后德國老板再次致電要求繼續(xù)進行墊付但引起懷疑,經(jīng)過確認后英國這家公司發(fā)現(xiàn)自己遭到語音釣魚的詐騙。
語音合成詐騙增長率每年都會飆升:
在英國這家能源公司的詐騙案例中所有款項被轉(zhuǎn)給匈牙利公司,然后立即分拆成多筆被轉(zhuǎn)移到墨西哥及其他地區(qū)。通常這類結(jié)果都是分散區(qū)域和多個現(xiàn)金賬戶后再取出匯總,由于屬于跨國犯罪這讓警方追蹤起來也變得非常困難。而近年來通過語音合成進行詐騙的增長率每年都會飆升,尤其隨著技術(shù)的發(fā)展語音合成能夠做到惟妙惟肖的地步。尤其是現(xiàn)在越來越多的合成工具內(nèi)置機器學習技術(shù)進行模擬,這讓犯罪分子成功率越來越高也吸引更多犯罪分子。不過至少從現(xiàn)在來看不論是合成色情影片還是合成語音,都是當下需要面臨的問題且想要徹底解決也是非常困難,所以這是大家在平時生活中極度需要警惕的新犯罪手法。