「媽,我被綁架了!」AI只需要3秒偽造聲音,成詐騙新招!超真實哭腔你能分辨嗎?|數位時代 BusinessNext
隨著AI應用爆發,AI詐騙也層出不窮。根據專家統計,美國過去一年裡AI詐騙事件,與同期相比增幅足足超過50%。
逐字稿
隨著AI應用爆發,AI詐騙也層出不窮。根據專家統計,美國過去一年裡AI詐騙事件,與同期相比增幅足足超過50%。
當AI風潮盛行,電話詐騙更可怕!美國一對父母某天接到兒子電話,要求他們轉帳高額金額協助處理車禍,爸媽雖疑惑但確認是親生兒子聲音,因此核准,沒想到竟是AI合成語音。據美國研究,由於AI技術太普遍,現在只要你在抖音上傳超過30秒的影片,就有可能被利用來合成你的人聲。怎麼防?專家指只能這樣應對。
以上內容由「Cofacts 真的假的」訊息回報機器人與查證協作社群提供,以 CC授權 姓名標示-相同方式分享 4.0 (CC BY-SA 4.0) 釋出,於後續重製或散布時,原社群顯名及每一則查證的出處連結皆必須被完整引用。