登入以檢視影片內容

逐字稿

喂?
嘿?
對,請問你哪裡找?
你是不是接過陌生電話被推銷產品或是像這種?
喂?
電話接通完全沒聲音這可要小心了
恐怕是有人要趁機竊取你的聲音
可以立刻AI複製跟你一模一樣
先聽一下我剛才克隆了姚蜜的聲音
太可怕了
現在任何人都可以克隆任何人的聲音
別以為不可能
詐騙集團利用AI軟體
透過打騷擾電話複製聲音再拿去詐騙親友
過程可能只需要短短五秒鐘
詐騙犯只需要多給你打幾個騷擾電話
他們就可以生成你的專屬語音包
連足球劇情C羅都開口說中文
中英文轉換
這也是AI變造結果
AI還原音色語調連換氣都能學
幾乎真假難辨
尤其是像一些贅詞啊
一些那種音調啊
那其實很容易學的
大概七八句十句大概就可以學起來
只要騷擾電話防不勝防
避免聲音變詐騙集團蒐集
陌生來電別接
奇怪問卷別做
接通電話先別說話
但可以完全預防嗎
比如說如果有些陌生電話
可能就不跟他多講
直接把它掛掉
真的聽起來很像的
那可能要再次確認
AI科技每天都在進步
短短五秒騷擾電話
就可能偷走聲音去詐騙
讓人防不勝防
最保險的就是再打電話確認
以免下個受害的就是你
記者 葉宗盈 王書宏 高雄報導
近 31 日
11 次瀏覽
本訊息有 1 則查核回應
張鳳軒 認為 含有錯誤訊息
引用自 張鳳軒 查核回應
一、AI專家指出,目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。

專家建議,民眾不需要過度防備,也不需要接起電話先不出聲。

二、資安、AI專家說,對於陌生電話本來就應該小心謹慎,若擔心可能是詐騙電話,應直接掛掉,謹慎求證。民眾也可以跟家人朋友間設立「通話密語」,在接電話時,若不確定是否為親友本人時就能進行多重確認。

資料佐證

https://tfc-taiwan.org.tw/articles/10481

【事實釐清】網傳「接到陌生電話不要先講話,不出聲要直接掛掉,AI會蒐集民眾聲音」?

【報告將隨時更新 2024/4/12版】 AI技術日新月異,近期通訊軟體流傳一段文字訊息,提醒民眾接到陌生電話不要先講話,因為AI會蒐集民眾聲音。專家看法為何: 一、AI專家指出,目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。 專家建議,民眾不需要過度防備,也不需要接起

https://tfc-taiwan.org.tw/articles/10481

以上內容「Cofacts 真的假的」訊息回報機器人與查證協作社群提供,以 CC授權 姓名標示-相同方式分享 4.0 (CC BY-SA 4.0) 釋出,於後續重製或散布時,原社群顯名及每一則查證的出處連結皆必須被完整引用。

ChatGPT 自動分析
加 LINE 查謠言
加 LINE 查謠言
LINE 機器人
查謠言詐騙