登入以檢視影片內容

逐字稿

這樣
有活屍
這樣
你真的認為跟你聊天的是你認識的那個我嗎?
看了一開頭的這個幻影回笑
你是不是跟我一樣蛤貓都豎起來了?
我告訴你
尤其是女孩更要注意了
詐騙集團很有可能拿你這一張臉
通過 AI 的技術生成不雅飾品
放到非法網站去牟利
他們不只賺這個錢
甚至回過頭來再敲詐你
如果你不轉贊給他
就威脅你把這段不雅的影片
發送給你的好友、你的公司等等
你想想
你的身體特徵除了你媽跟你老公知道之外
他們會相信你這不是你本人
那其他人呢?
你該如何自證清白?
這真的是細思極恐
那騙子如何做到的呢?
首先要收集你的照片
使用 AI 的技術去進行合成
那麼臉部的訊息從何而來的?
第一
社交媒體上的照片以及朋友圈裡面
家人跟朋友當中的合照
第二
使用不明的免費 Wi-Fi
一旦你輸入手機號碼去登錄
手機的資料就很可能被黑客收集了
第三
中獎後拉票的網址
這個網址你一打開
就是很多很多的申請
你一旦授權了
這些資料全部都被詐騙集團所掌握了
再來
就是要獲取你的聲音啦
你們有沒有常常接到
有人打電話來
你好
我們公司現在正在做什麼什麼活動
講了很久
後來發現
對方莫名其妙把電話掛了
這很有可能
就是在收集我們的聲音
還有一些電話是打來不說話的
其實就是在等我們主動開口
獲取你的聲音之後
再根據我們的音色
聲線特點跟口音
就可以直接模擬你的聲音
你講的話越多
AI模擬的就越詳盡
這個就是AI的專業
好了
既然有了你爸媽的聯絡方式
再用AI生成一張跟你一模一樣的臉
一模一樣的聲音
再加上一些緊急的特殊狀況

我出車禍了
在醫院急需三萬塊
或是傻笑的跟你說

我在日本玩
錢不夠
我好愛你
可不可以匯錢給我
對於年輕人
都不一定能夠躲得過
何況是老人家呢
他們能夠防得住嗎
AI詐騙的技術
真的是日行月異
你跟我
都有可能成為下一個受害者
那麼如何識破AI的騙局呢
第一
如果對方開視訊
你可以提示他
臉上有髒東西
手在面部移動的時候
如果臉部有變形或者扭曲
那就是有問題

向對方提問
只有你們兩個知道的問題
如果對方答不上來
或是吞吞吐吐的
就可以馬上掛斷了
第三
如果要交付金錢的部分
一定要現場支付

如果發現對方是騙子
而且錢已經轉給對方了
第一件事情一定是先報警
這個動作越早做
越有可能儘速的凍結這筆錢
AI技術真的非常強大
我們不僅要了解這件事情的真相
更要知道如何來防範
Kiki姐建議
現在開始最好跟你身邊的人
討論一個暗號
譬如
一加一
等於泡菜鍋
那像這種答案
哪怕是再強大的技術
也解答不了這種拐彎的問題
好了
影片看完了
也別一個人知道而已
把它發給你身邊的人吧
近 31 日
0 次瀏覽
本訊息有 1 則查核回應
Lin 認為 含有個人意見
引用自 Lin 查核回應
目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。對於陌生電話本來就應該小心謹慎,若擔心可能是詐騙電話,應直接掛掉,謹慎求證。民眾也可以跟家人朋友間設立「通話密語」,在接電話時,若不確定是否為親友本人時就能進行多重確認。

不同意見出處

https://tfc-taiwan.org.tw/articles/10481

【事實釐清】網傳「接到陌生電話不要先講話,不出聲要直接掛掉,AI會蒐集民眾聲音」?

【報告將隨時更新 2024/4/12版】 AI技術日新月異,近期通訊軟體流傳一段文字訊息,提醒民眾接到陌生電話不要先講話,因為AI會蒐集民眾聲音。專家看法為何: 一、AI專家指出,目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。 專家建議,民眾不需要過度防備,也不需要接起

https://tfc-taiwan.org.tw/articles/10481

以上內容「Cofacts 真的假的」訊息回報機器人與查證協作社群提供,以 CC授權 姓名標示-相同方式分享 4.0 (CC BY-SA 4.0) 釋出,於後續重製或散布時,原社群顯名及每一則查證的出處連結皆必須被完整引用。

AI 自動分析
加 LINE 查謠言
加 LINE 查謠言
LINE 機器人
查謠言詐騙