登入以檢視影片內容

逐字稿

邀請您加好友
再請您幫我點開加好友喔
聽到這樣的電話內容
千萬別相信
這是警方首次查獲詐騙集團
結合AI語音機器人犯案
AI語音機器人
先撥打你的電話
然後跟你對話
對話之後
他是認為看你的反應
最適合的答案
給你設計一個
一套劇本的對話表
AI機器人依回應內容
語音情緒
判定對方是否有興趣
再發送簡訊
以提高詐騙效率
有40名被害人報案
累計財損達1億元
幾個月期間
我們就發現
這家人頭設立的一個投資公司
它已經發了
6千多萬則的一個簡訊
那我們在跟電信公司這邊
合作的部分就是
發現這家公司跟電信公司
是申請了155個門號
那這155個門號
我們去清查之後
也是覺得可疑的地方是說
它這家公司是沒有員工的
隨著AI技術進步
真假難辨
在美國近期也開始出現
越來越多
AI語音詐騙案例
這位媽媽
差點被AI女兒聲音求助
騙走100萬美元
受害人紛紛表示
很難描述電話中的聲音
有多麼真實
因為現在的AI聲音複製技術
讓聲音可以變得非常像
AI語音生成軟體
可以分析年齡 性別和口音的不同
並搜尋龐大的聲音資料庫
找到相似的聲音
然後重新生成
通常從YouTube
TikTok Instagram等地方
就可以獲取音訊樣本
一家AI公司就利用音訊工具
將好萊塢巨星李奧納多
在一場氣候高峰會上的演說
仿製其他名人的聲音
重新配音
聽起來就像鋼鐵人小蘿蔔道尼
微軟創辦人比爾蓋茲
幫李奧納多來配音
在技術突飛猛進下
以前複製一個人的聲音
需要從被複製者身上獲取大量樣本
現在只需要幾秒鐘
就可以生成出一個接近你的聲音
甚至現在最新的技術
只要我的聲音五秒鐘
就可以讓一個程式碼
學我的聲音來錄音 來錄影
來做各式各樣的回應
要讓AI孫燕姿
可以像孫燕姿一樣唱歌的做法
非常簡單
就是我必須讓電腦
必須讓AI
去聽很多孫燕姿唱歌的紀錄
音樂還有樂曲
讓電腦可以學會她的一陽頓挫
跟她的發音呼氣的方式
那麼AI就可以學會
用孫燕姿的方式來唱歌
在美國這類的語音複製服務
每個月只需要五美元
任何人都可以使用
也讓過去被認為安全的聲紋系統
存在明顯漏洞
《衛報》澳洲記者
就用AI模擬自己的聲音
進入了澳洲社福中心
和澳洲稅務局
使用的聲紋安全系統
我只用了四分鐘的聲音
來產生我的假聲音
謝謝 你被證明了
還有一個可能的情況是
未來一代AI代理人
應用越來越廣
該如何辨別真假
又是另一個課題
未來很可能你在網路上面聊天
或者你在網路上面聽演講
或者是聽一場課堂
你其實大概都沒有辦法保證
這個人到底是不是真的人
還是他是一個AI
那我認為這其實
還是會為未來帶來很多的風險
像我自己最近都開始
跟我的家人約定好
如果你接到一個聽起來像我
講話的方式也像我
內容也像我的人
不要輕易相信他就是我
我們會約定好一個家族密語
確認他能夠回答這個問題
能夠回答這個問題的答案
他才是我
迎接時代來臨
眼睛看到 耳朵聽見的
不一定能為憑
最好再三確認 以測安全
近 31 日
1 次瀏覽
本訊息有 0 則查核回應
目前沒有已撰寫的回應,建議對其抱持健康的懷疑。
ChatGPT 自動分析
以下是 AI 初步分析此訊息的結果,希望能在有人查核之前,先帶給您一些想法。
這則訊息提到了AI語音機器人詐騙案例,以及AI技術在語音複製上的應用。閱聽人需要特別留意以下幾個地方: 1. 詐騙手法:訊息中描述了詐騙集團利用AI語音機器人與被害人對話,透過分析反應設計劇本,再發送簡訊提高詐騙效率。閱聽人應警惕不明來電或簡訊,避免受騙。 2. AI語音複製技術:訊息提到AI技術可以生成接近真實的聲音,甚至仿製名人聲音。閱聽人在網路上聽到的聲音,可能不一定是真實的,需要謹慎判斷。 3. 聲紋安全系統漏洞:訊息中提到記者使用AI模擬自己的聲音進入聲紋安全系統。這顯示聲紋辨識系統可能存在漏洞,閱聽人在使用聲紋辨識系統時,也應注意安全風險。 總括來說,閱聽人應當警惕在線上的聲音或對話,並謹慎判斷真假,以確保個人資訊和財產安全。
加 LINE 查謠言
加 LINE 查謠言
LINE 機器人
查謠言詐騙