登入以檢視影片內容

逐字稿

各位,從刷到這條視頻開始,請注意,千萬別亂接電話,亂接視頻也千萬不要亂在網上發自拍,這是一個史上最恐怖的新型騙局。
以往騙子騙到你,可能是因為你傻,但現在只需要你接通電話三秒鐘,就只要這三秒鐘,騙子都不需要說一句話,就能讓你重責傾家蕩產。
如今這個騙局已經在全國肆虐,視頻不長,請一定要認真看完。
這段時間發生了一件離奇的詐騙事件,福建的郭先生接到了好友的視頻通話,開視頻的是本人,聲音也沒問題,郭先生沒多想,幫了這位朋友提出的忙。
可當轉賬完成後,郭先生發過去一句,事情都辦妥了,他的好友去回覆了一個問號,注意了,郭先生的好友確實不知情。
好,那問題出在了哪裡,明明開了視頻,人是這個人,聲音是這個聲音,難道這世界上還有兩個一模一樣的人嗎?
來看一下這條視頻,右上角的畫面裡是本人,而左下角畫面裡出現的,則是用AI技術生成的假人,這個技術恐怖在什麼地方呢?
它可以幾乎完美的複製一個一模一樣的你,樣子一樣,聲音也一樣,即使你遮擋臉部,畫面也沒有任何破綻。
有官方號說,AI假人一般不會眨眼,但請相信我,千萬別拿這個當標準去判斷,因為不會眨眼的問題,詐騙犯馬上就會解決。
也就是說各位,以前我們講眼見為真,耳聽為實,但從今天開始你再也無法確定了。
想象一下,今天你的母親突然對你發起了視頻通話,淚流雨下的說,孩子,你爸出車禍了,現在在醫院需要十萬塊錢,你趕緊轉賬過來吧。
即使樣子一樣,聲音一樣,但是這根本不是你的母親,而是一位在背後操控的詐騙犯,這不是我危言聳聽,而是正在發生的恐怖騙局。
就在今年年初,微軟推出的語音模型,只需要三秒就能複製任何人的聲音,詐騙犯鎖定目標後,只需要給你多打幾通騷擾電話,
而你只要接上電話說上那麼一兩句,他們就可以完美複製你的聲音,然後你的家人就會突然接到你的電話。
為什麼號碼不一樣,隨便編個自己被搶劫了,或者手機掉落在旅遊就可以了。
關鍵是,你的家人確認這聲音就是你,此時只要再編造一些緊急情況,又騙你最親近的人上當輕而易舉,獲取你的聲音現在只需要三秒,而獲取你的樣貌更加簡單。
你在網上朋友圈公開的視頻照片都是騙子現成的素材,甚至網路上早已有人專門接單,只需要一張乾淨的正面照,
利用AI技術就可以生成一個眼睛嘴巴都會動,口型也對得上如假包換的你。
這樣一來,詐騙犯甚至根本不需要盜取你的某信,因為只要臉一樣,聲音一樣,你說你今天有個什麼意外情況,
因為我的同學朋友的某信有什麼不合理,有什麼破綻嗎?
而且,獲取你的照片之後,詐騙犯也不一定非得詐騙你的家人,他們完全可以用AI換臉技術把你和大尺度視頻合成在一起,
要麼你答應給錢,否則這些明明就是你的不雅視頻,就會被發給你身邊的親朋好友,到時候他是百口莫辯了。
以上還只是AI詐騙套路的冰山一角,AI時代來了,這未必是人類的話時代,卻一定是詐騙犯的話時代。
從今天開始,一定要保護好你的個人信息,而將來,如果你也遇到你的家人,遇到緊急情況,向你電話或視頻求助,應該怎麼辦呢?
相信我,不要聽那些所謂的畫面鑑別方法,所有破綻一定會逐一被詐騙犯改進的。
這種情況下,假設你越篤定不眨眼就是假,反過來說就是你越相信眨眼就一定真,只要詐騙犯一改進你就更容易掉進陷阱。
在我看來,絕對有效的鑑別方法只有一個,為一個只有你們知道的秘密,答對的是真,答錯的是假,我說清楚了嗎?
近 31 日
0 次瀏覽
本訊息有 0 則查核回應
目前沒有已撰寫的回應,建議對其抱持健康的懷疑。
加 LINE 查謠言
加 LINE 查謠言
LINE 機器人
查謠言詐騙