更新一下最近關於AI的資訊,講一些「不好」的要特別注意的,近兩個月AI技術突飛猛進,包括之前人臉置換Deepfake ,到現在要Clone 一個人的「聲紋」進行詐騙只需要五分鐘訓練即可生成一個以假亂真的對話,現在已經有詐騙集團將ChatGPT引入客服系統,可想而知未來詐騙一定更難以被識破。
先說明一下如何破解Deepfake ,如果未來真的接到Deepfake 詐騙,可以請對方「摸鼻子」,甚至離開螢幕往後退,因為Deepfake 雖然可以進行人臉置換但卻缺乏人類可對應的生物特徵(很重要)。
如果是關於聲紋的部分,暫時的作法就是多和對方進行互動式交談,嘗試發出一些特殊聲音。
這對於長輩來說很重要,因為長輩較沒有能力辨識這些新的AI詐騙技術。
另一個我比較擔心的事情,現在有一種大數據模型可以收集使用者「語意」習慣,簡單的說就是透過使用者常用的關鍵詞,特殊斷句、特定錯字等使用習慣,透過大數模擬一個人用字遣詞,以假亂真的生成文章。
最近我的FB常常出現很多新的交友邀請,有時候一天超過200位(一看就是假帳號),IM等社群軟體常常受到撞庫攻擊,這些很明顯都是在收集使用者的行為模型,各位學長姐要特別留意,AI的時代,如果不認識就儘量不要接受好友邀請,如果收到邀請可以問一下她/他是誰,請他自我介紹,不要只是查看共同朋友,以上分享。
近 31 日
2 次瀏覽
本訊息有 0 則查核回應
目前沒有已撰寫的回應,建議對其抱持健康的懷疑。
ChatGPT 自動分析
以下是 AI 初步分析此訊息的結果,希望能在有人查核之前,先帶給您一些想法。
閱聽人需要特別留意以下幾點: 1. AI技術突飛猛進,包括人臉置換Deepfake和聲紋Clone等技術,已經有詐騙集團將ChatGPT引入客服系統,未來詐騙可能更難以被識破。 2. 當接到Deepfake詐騙時,可以請對方「摸鼻子」或離開螢幕往後退,因為Deepfake雖然可以進行人臉置換但卻缺乏人類可對應的生物特徵。 3. 當接到聲紋詐騙時,可以多和對方進行互動式交談,嘗試發出一些特殊聲音。 4. 現在有一種大數據模型可以收集使用者「語意」習慣,透過大數模擬一個人用字遣詞,以假亂真的生成文章,因此需要特別留意收到的交友邀請或社群軟體訊息是否為真實帳號。
加 LINE 查謠言
加 LINE 查謠言
LINE 機器人
查謠言詐騙