眼見不為憑!DEEPFAKE (深偽技術) 是什麼?3 招教你辨識 AI 變臉詐騙
以前常聽人家說「沒圖沒真相」,意思是,你必須給我照片我才願意相信。
但各位鄉親啊,在這個 AI 爆炸的年代,這句話可能要改一改了。因為不要說圖了,現在連影片或視訊電話,都不一定有真相可言;這些你看到的「人」,都根本不是真人。
這一切的幕後黑手,就是這兩年紅到發紫、也壞到骨子裡的技術——Deepfake (深偽技術)。
今天,善良之槍就要來拆穿這個數位時代最大的謊言,教大家如何練就一雙火眼金睛,看穿這些高科技的AI 換臉詐騙。
DEEPFAKE 是什麼?簡單來說,就是「數位的易容術」
很多長輩聽到英文就頭痛,別怕,讓我用最白話的方式解釋 Deepfake 是什麼。
Deepfake 這個詞是由「Deep Learning(深度學習)」和「Fake(偽造)」組合而成。翻譯成中文就叫「深偽技術」。
想像一下電影《不可能的任務》裡,湯姆克魯斯撕下人皮面具變了一個人的場景。Deepfake 就是電腦版的「人皮面具」,而且不需要好萊塢特效團隊,只要有足夠的照片和聲音樣本,AI 電腦就能自己學習,把 A 的臉完美地貼到 B 的頭上,甚至連聲音都能模仿得維妙維肖。
以前修圖只能修照片(照騙),現在 Deepfake 連影片和即時視訊都能造假。這已經不是美顏開太大的問題,而是根本換了一個人的問題!
手法揭密:壞人怎麼利用 DEEPFAKE 來騙你?
科技本身沒有好壞,但壞人拿到新科技,就會想出新花樣來騙錢。為了提高大家的警覺心,我們得知道他們都在玩什麼把戲:
1. 名人代言假廣告 (AI 換臉詐騙)
這是最常見的。詐騙集團把馬斯克 (Elon Musk)、或是台灣知名財經專家的臉,換到一個正在推銷詐騙投資平臺的影片上。你以為跟著名人投資準沒錯,結果錢都進了詐騙集團口袋。這就是標準的 AI 換臉詐騙。
2. 「媽!救我!」假綁架電話 (AI 語音詐騙)
這最惡劣!詐騙集團只要收集到你家人在社群媒體上短短幾秒鐘的聲音(例如 IG 限時動態),就能用 AI 複製出他的聲音。接著打電話給你,用跟你家人一模一樣的聲音哭喊:「我被綁架了!快匯贖金!」。人在緊張時很難分辨真假,這就是恐怖的 AI 語音詐騙。
3. 色情勒索與假新聞
把無辜民眾(特別是女性)的臉移花接木到不雅影片上進行勒索,或是製造政治人物說出荒謬言論的假新聞影片,意圖製造社會混亂。
防禦教學 (重點):3 招教你識破 AI 的假面具
聽到這裡是不是覺得很可怕?難道我們只能任人宰割嗎?別擔心,雖然現在的深偽技術越來越厲害,但魔鬼藏在細節裡,AI 目前還是有一些破綻的。
下次看到可疑影片,請用這 3 招來「找碴」:
第 1 招:盯著他的眼睛看 (眨眼頻率)
人類眨眼是自然的生理反應,通常幾秒鐘就會眨一次。但早期的 Deepfake AI 常常「忘記」讓人眨眼,或者眨得非常不自然、甚至像機器人一樣快速閃爍。如果影片裡的人盯著你看了半分鐘都不眨眼,那肯定有鬼。
第 2 招:檢查邊緣有沒有「糊掉」
這就像是剪貼簿沒剪好一樣。請仔細看人物的臉部邊緣,特別是下巴、頭髮和脖子交接的地方。如果發現邊緣模糊不清、有奇怪的馬賽克,或者臉部的膚色跟脖子有明顯色差,這很可能就是換臉留下的痕跡。
第 3 招:光影與物理法則怪怪的
AI 雖然會換臉,但它對物理世界的光影變化還不夠在行。注意看影片裡的光源方向,如果陽光從左邊來,但臉上的陰影卻跑到左邊;或是眼鏡鏡片上沒有合理的反光,這些違反物理常識的畫面,都是重要的線索。
結論:保持懷疑,才是最好的防毒軟體
科技進步很快,也許 AI 馬上就會進化到連上面 3 招都破解不了了。所以,對抗 Deepfake 最強的武器,其實是你大腦裡的「懷疑精神」。
如同「善良之槍」一直強調的:我們學習這些知識,不是為了去攻擊別人,而是為了保護自己和家人。當下次在網路上看到太過震撼、好到不可思議,或是讓你感到恐慌要你馬上匯款的影片/電話時,請先深呼吸,告訴自己:「這可能是假的」。
多方查證,與家人事先約定好「通關密語」(例如:我們家屁最臭的人是誰?第一隻養的小狗叫什麼名字?),才能在這個真假難辨的數位世界裡,守護好自己的安全。別忘了把這篇文章分享給家人或朋友,你的舉手之勞,就能替他們守住荷包!
