說明:如果您有任何疑問或想咨詢其他業務請撥打電話 400 685 0732
全網監測海量數據按需發布監測預警
實時把握輿情動態精準追溯信息源頭
近期全國范圍內出現了一種新型電信詐騙——AI換臉詐騙,該詐騙利用AI人工智能,通過“換臉”和“擬聲”技術模仿受害人的朋友或親戚的聲音和外貌,以此騙取受害者的信任,進行網絡詐騙,近日包頭警方就根據一起典型案例,向大家發出了防范AI換臉詐騙的警示。
據五節輿情監測系統顯示,相關話題#AI詐騙正在全國爆發#沖上各大網絡平臺熱搜榜引發關注,全網信息量于5月22日8時至11時達到峰值。
圖源:五節輿情監測系統
AI換臉致福州某公司老板被騙430萬
財聯社5月22日訊,據平安包頭微信公眾號消息,包頭警方發布了一起利用人工智能(AI)實施電信詐騙的典型案例,一家福州市科技公司的法人代表郭先生竟在短短10分鐘內被騙走了430萬元人民幣。
據了解,當日郭先生接到了好友通過微信視頻的聯系,這位自稱是好友的人聲稱正在外地參與競標,需要430萬作為保證金,并要求通過公司賬戶進行轉賬。
由于郭先生對好友的信任以及通過視頻聊天核實了對方身份,他沒有進一步核實轉賬是否成功,便將430萬元分兩筆轉到了對方提供的銀行賬戶上,直到郭先生撥打好友電話才意識到自己已經被騙。
有網友表示詐騙手段隨著科技進步日新月異與時俱進,大數據下的個人隱私收集導致詐騙已經基本實現精準投放了。
也有網友認為AI換臉如果仔細查看、提高警惕是可以避免的,尤其涉及資金交易時,要通過第二通道自主通信確認。
還有網友則認為該詐騙案除了技術因素以外,還涉及雙方個人信息的掌握非常容易暴露,可能存在熟人作案。
AI詐騙成功率近100%需警惕
隨著互聯網技術的發展,各類詐騙模式層出不窮,據湖北網警巡查執法5月6日消息,AI技術改變詐騙,新騙局來襲后,詐騙成功率竟接近100%。
第一種是聲音合成,騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。例如,某公司財務接到領導電話,要求立刻給供應商轉款2萬元,并將轉賬信息以郵件形式發送,轉款理由是避免繳納滯納金,由于老板的口音十分逼真,該財務信以為真,在1小時內轉款完成,后發現被騙。
圖源:湖北網警巡查執法
另外還有AI換臉,因為人臉效果更易取得對方信任,騙子用AI技術換臉,可以偽裝成任何人,再通過視頻方式進行信息確認,騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群,在視頻通話中再利用AI換臉,騙取信任。
結語
在發揮人工智能技術為我們的生活和工作帶來諸多便利的同時,新一輪的AI詐騙威脅也應引起公眾警惕,這樣的警告充分展現了在電話詐騙、網絡釣魚等傳統詐騙手法逐漸為人熟知的今天,不法分子正在利用先進的計算機技術如AI進行更隱蔽的欺詐。
特別值得注意的是,換臉技術和擬聲技術的廣泛應用,讓我們面臨了前所未有的識別難題。這些技術使得騙子能夠偽造他人的面部表情和特征,以及模仿他人的語音,以此達到欺騙的目的。
此外,該案例不僅凸顯了人工智能可能對個人財產構成的風險,也揭示了我們需要面對的一個嚴重問題——人工智能技術的濫用,如何防止濫用,使得AI技術更好地服務于人類,這正是我們在追求科技發展的同時必須要考慮的問題。
為此有關部門需要進一步加強對AI技術的監管,對各類詐騙行為加大打擊力度,同時提高公眾的防范意識,只有在采取了這樣的措施后,我們才能在享受AI帶來便利的同時,盡可能地避免財產安全風險,創造一個更加安全的數字生活環境。
說明:如果您有任何疑問或想咨詢其他業務請撥打電話 400 685 0732