AI詐騙,你知道嗎?
“一鍵換臉,和你愛的明星小哥哥合影”
“大叔秒變蘿莉御姐網(wǎng)紅音”
AI變聲換臉應用玩法多樣
你有沒有嘗試過
需要注意的是
騙子也盯上了AI技術
利用它玩起了“真假美猴王”
AI詐騙常用手法
level1 合成聲音
騙子通過
騷擾電話錄音等來提取某人聲音,獲取素材后進行
聲音合成,從而可以用偽造的聲音騙過對方。
案例
2020年12月,某公司財務小王接到領導電話,要求立刻給供應商轉(zhuǎn)款2萬元,并將轉(zhuǎn)賬信息以郵件形式發(fā)送,轉(zhuǎn)款理由是避免繳納滯納金。由于老板的口音十分逼真,小王信以為真,在1小時內(nèi)轉(zhuǎn)款完成,后發(fā)現(xiàn)被騙。
level2 AI換臉
騙子首先分析公眾發(fā)布在網(wǎng)上的各類信息,根據(jù)所要實施的騙術,通過AI技術
篩選目標人群。在
視頻通話中利用AI換臉,騙取信任。
案例
近日,小李的大學同學通過QQ跟她借錢。對方打過來一段四五秒的視頻電話,小李看到確實是本人,便放心轉(zhuǎn)賬3000元。然而,她在第二次轉(zhuǎn)賬時感覺異常,便再次撥通對方電話,這才得知同學的賬號被盜,遂報案。警方判斷,那段視頻很有可能是被人換了臉。
如何防范?
面對利用AI人工智能等新型手段的詐騙,我們要牢記以下幾點:
01 多重驗證,確認身份
目前,AI換臉難以肉眼區(qū)分。因此,在涉及錢款時,盡量通過電話詢問具體信息,確認對方是否為本人。
02 保護信息,避免誘惑
加強個人信息保護意識,對于不明平臺發(fā)來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”。
03 相互提示,共同預防
做好家中老人的宣傳防范工作。提醒老年人在接到電話、短信時,要放下電話,再次撥打家人電話確認,不要貿(mào)然轉(zhuǎn)賬。
圖片 | 網(wǎng)絡截圖
素材 | 上海網(wǎng)警
編輯 | 蔡虹
編輯:五港小編1