當 AI 與 Deepfake 高度發展下恐迎來詐騙浪潮~
人工智慧應用的成熟,堪稱一項劃時代的技術發展,
為人們的生活與網路使用習慣產生大幅改變,
翻譯語言、組織文章、撰擬文案、生成虛擬圖像,
變成一件極其容易的事情。 ?
然而凡事都有一體兩面,
如此神奇的技術,當應用到犯罪手法時,
恐怕就變成帶來悲劇的技術了
全球知名汽車品牌「法拉利」的高層,日前即遇上詐騙事件。
詐騙犯罪者利用 AI 技術,以 Deepfake 方式偽造該公司執行長的聲音,
聯繫公司高管,並聲稱進行相關文件簽署行為,
執行長的聲音偽造的維妙維肖,令員工差點信以為真,
所幸員工察覺有異,以相關問題讓詐騙者露出馬腳
避免被偽造內容詐騙。 ?
但有位跨國集團的員工,就沒這麼幸運了
〝香港警方聲稱,有跨國公司的財務人員被 Deepfake 矇騙,匯出多達2億港元。該財務人員被騙參加一場視訊通話,他以為其他參加者都是公司同僚因而放下戒心──沒想到所有參加者都是 Deepfake 生成的虛假人物。〞 ?
在 AI 技術高度發達的時代, 詐騙人員將 Deepfake 技術運用的爐火純青,
導致一般人難以分辨真假,因此受騙上當,
或甚至將相關技術運用於其他犯罪手法, 造成難以估計的損失。
因此要提醒大家日常生活與他人聯繫要多點警覺性,
並與親友設定「通關密語」,減少被詐騙蒙蔽而上當的狀況。 ?
資料來源:
詐騙靠Deepfake語音假扮CEO!法拉利高管險遭設局,他如何靠「1句反問」化解危機?|數位時代BusinessNext