AI換臉,就是用AI把一個人的人臉換到另一個人的照片/視頻當中。這項技術有著相當多的「犯罪應用」, 直接影響到了我們普通人的財產安全,本篇文章就來講講AI換臉這項技術,以及我們該如何應對AI換臉所形成的不法行為,快來看看吧。
AI換臉,曾經只會困擾名人,如今卻會直接影響到我們普通人的財產安全。
偽造人臉盜號、轉賬的新聞不在少數,今年8月,就有兩名犯罪嫌疑人因使用手機軟體製作人臉識別動態視頻,並「偽裝」登錄他人的網路賬號盜取資金而被警方抓獲。
另一則新聞提到,由於製作簡單,一個視頻價格僅為2至10元,
「客戶」往往是成百上千購買,牟利空間巨大 | 圖源:北京青年報
根據新聞報道和法院裁定書,這類案件的非法獲利幾千至幾十萬元不等,全國各地都已經發生了許多類似案件。甚至有不法分子利用銀行的人臉識別授權功能,再通過木馬病毒攔截簡訊驗證碼盜取存款,涉案總金額超200萬元。
一、騙不過人,可以騙攝像頭啊!
AI換臉,術語是Deepfake(深度偽造),是把Deep learning(深度學習)和Fake(偽造)組合在一起,用AI把一個人的人臉換到另一個人的照片/視頻當中的技術。
圍繞AI換臉有著相當多的「犯罪應用」,包括且不限於:
- 攻擊刷臉驗證:直接從支付寶、微信錢包、甚至貸款軟體里,偽造他人信息套現;
- 製作虛假色情圖片/視頻:詐騙、敲詐勒索或損壞他人名譽;
- 實時換臉通話:盜號並詐騙號主親友;
- 製造虛假信息:矇騙政客、法官、投資者等;
- 發布假新聞:煽動民眾、引起混亂恐慌、打擊商業對手、製造股市動蕩等。
在這當中,刷臉驗證與普通人關係最大,因為它驗證的是一個人的身份,一旦這個信息被突破,你的資產安全與信息安全都會受到威脅,很容易在網路上「裸奔」。
除了Deepfake技術,還有相當多的方法可以干擾人臉識別認證,比如造一個「騙AI眼鏡」:
圖源:Accessorize to a crime: Real and stealthy attacks on
state-of-the-art face recognition.
在一篇圖像識別領域的經典文獻中,研究者通過數學運算設計了一種特定的「眼鏡」(中圖),戴上就可以讓一個人(左圖)被AI人臉識別認成另外一個人(右圖)。
另一種騙檢測設備的方式是3D面具,比如下面這些圖:
圖源:businessinsider & kneron
這是Kneron這家公司的產品,他們在2019年底聲明,對於微信、支付寶的刷臉支付和火車站的人臉識別閘機,都可以戴著面具偽裝成別人通過。
二、AI換臉,特別在哪?
對普通人來說,上述技術還不必過於擔心,因為它們有著各種各樣的缺陷,比如「騙AI眼鏡」主要是針對靜態圖片識別,無法突破動態人臉識別,而「人臉面具」需要定製、價值不菲且製作工藝複雜,用在普通人身上性價比並不高。
但AI改變了一切,簡直把造假成本降到了「白菜價」。
視頻越短、像素越低、實時性要求(需要實時換臉還是可以製作完視頻再發出)越低、欺騙對象警惕性越低、可用素材(就是目標人物的多角度照片、視頻)越多,造假成本就越低。
舉個例子,同樣是一個人說話,AI換成另一個人的臉,直接上手就能用的AI模型配合NVIDIA GTX1080 Ti可以做到這樣,動作還算流暢,但「塑膠感」嚴重,一眼就能看出不是真人的視頻。
圖源:Youtube@Matthias Niessner
而經過NVIDIA RTX 3090 Ti長時間(數小時甚至數天)訓練的AI模型,可以做出相當以假亂真的效果。可能只有在認真反覆的觀看下,才會發現:誒?剛剛這個人額頭的皺紋是不是在閃?
圖源:Youtube@Druuzil Tech & Games
針對「人臉識別」,deepfake便宜很多;因為攻破「人臉識別」不需要最「精細」,最費工夫的Deepfake技術,只需要一個清晰度一般的幾秒鐘的視頻。
而提高成本后製作的更精細的視頻,則可以用於其他的詐騙用途。並且這種造假是一種「一本萬利」的買賣,在設備與演算法齊全后,就可以根據不同的情境與需求,批量生產假視頻。
三、普通人能怎麼辦
當AI換臉進入普通人的生活,我們能做些什麼來應對跟它相關的不法行為呢?
1. 「騙」機器的換臉咋辦?
針對刷臉驗證身份這一類場景,偽造的視頻需要通過的是人臉識別系統的自動驗證,或者說「騙過」機器。所需的視頻時間短(幾秒鐘以內)、動態簡單(只有少量固定動作、甚至有些系統僅僅識別圖片)、沒有實時要求,從技術上來講是相對簡單的,識別端也不在真人的掌控之中。
對於這類案件,普通人能做的就是平時守護好自己的個人信息(包括人臉信息),並且盡量採用多種方式結合的身份驗證。
密碼、指紋、手機號,能選的驗證方式都選上,雖然自己也會麻煩點,但是相當於多幾道保險,全部被同時攻破的可能性還是小很多的。
如果不幸被盜刷,立刻報警,配合警察追蹤不法分子、追回違法所得,同時上報平台,讓平台獲取更多的信息來修補漏洞、升級系統。
2. 「騙」真人的換臉,咋辦?
欺騙真人的AI換臉,比如面對個人的勒索、詐騙,還有面對大眾的虛假新聞,則顯得更加隱蔽和多樣化。
從根本上來說,有了AI換臉技術以後,普通人面對圖像信息都應該多留個心眼,不能一味相信「眼見為實」。
如果被人用偽造的裸照、不雅視頻勒索,不要回應,直接報警。
這類犯罪的AI換臉目標就是受害人,所以只要看到視頻的人知道自己沒有拍過此類照片、視頻,就可以判斷視頻是偽造的。最大的難點反而在於不要自亂陣腳、不要因為害怕而向不法分子交付錢財。
如果被人用偽造的視頻詐騙,比如騙子盜了你朋友的號,用AI換臉跟你實時通話借錢。這個時候,多渠道驗證就很重要,各個社交平台、郵箱、簡訊、電話,不要因為對方看起來很著急就想都不想地打錢。
在觀看網上的新聞、視頻時,多查查新聞來源是否可靠。尤其是什麼拜登講話,馬斯克講話,這些名人們可用於機器學習的訓練集太多了,仿造高精度視頻很容易。
這張圖裡的馬斯克是假的哈…… | 圖源:VR陀螺
四、識別Deepfake的億些小技巧
還有一些小訣竅,可以幫助你更好地判斷一個視頻是不是AI換臉偽造的(如果開了十級美顏,這些方法就不是很可靠了。畢竟,十級美顏也可以被看作一種AI換臉呢):
1. 關注臉型
多看看臉的大小、形狀、下顎線位置,尤其是動起來的樣子,和本人是否一致。
2. 關注皺紋
畢竟每個人的皮膚情況和皺紋走向都是不一樣的,AI模型僅憑一些照片(而且不一定是最近的照片),生成的皺紋很難跟本人一模一樣。
一個人皮膚過於光滑、皺紋過多、或者全臉皮膚狀況不一致(比如額頭很多皺紋、臉頰卻很光滑)、一段視頻中年齡感不一致(一會兒看著年輕一會兒看著年長),都可能是偽造視頻的特徵。
3. 關注背景
看看這個背景是不是這個人平時用的背景、背景和人的銜接是不是自然、背景本身有沒有變形等等。
4. 關注光影
AI換臉生成的視頻並不遵循現實世界的物理光影規則,因此面部的陰影、眼鏡的反光等等,都可能出賣偽造的視頻。
5. 關注五官的位置和大小
AI偽造的視頻可能會出現五官忽大忽小、位置飄移的現象。
6. 關注獨特的面部特徵
如果這個人臉上有痣、文身、疤痕,它們看起來都在正確的位置嗎?
7. 關注頭髮
發量、髮際線看起來真實嗎?頭髮邊緣看起來自然嗎?
8. 關注動態
比如眨眼的頻率和方式是否正常、眉毛和嘴的運動是否像這個人平時的樣子、轉頭(尤其是轉到90度的側面)的時候有無變形、臉部被遮擋的時候遮擋物是否清晰可見,都是一些辨別AI偽造視頻的要點。
一些容易露餡的動作 | 圖源:metaphysic & VFXChris Ume
除了以上的理論知識,你還可以試著去這個網站(https://detectfakes.media.mit.edu/)實操做題,提升一下自己鑒別假視頻的能力,說不定還能幫科學家對抗使用AI換臉的不法行為。
名人們有說過這些話嗎?| 圖源:MIT Media Lab
只要還有很高的潛在非法收益,不法分子就會不惜加大投入,製作更精美、更「真實」的虛假視頻,去欺騙普通人、大公司、大機構乃至政府。
所以,除了個人能做到的事情外,其實也更應該由政府、公司從政策法規和技術建設上不斷完善和加強,讓技術的進步真正造福於人類,而不是淪為傷害他人的犯罪工具。
參考資料
[1]http://epaper.ynet.com/html/2022-04/14/content_396257.htm?div=-1
[2]驚堂木 | 眼見為實?「變臉」盜刷支付寶!已有人中招… (2022). Retrieved 25 October 2022, from https://mp.weixin.qq.com/s/qNEaUN-A_83OL53vHvbWww
[3]https://www.theverge.com/2019/12/13/21020575/china-facial-recognition-terminals-fooled-3d-mask-kneron-research-fallibility
[4]Kneron’s Edge AI & Facial Recognition Survey Pushes Forward Industry | Kneron – Full Stack Edge AI. (2020). Retrieved 25 October 2022, from https://www.kneron.com/news/blog/85/
[5]All it takes to fool facial recognition at airports and border crossings is a printed mask, researchers found. (2022). Retrieved 25 October 2022, from https://www.businessinsider.com/facial-recognition-fooled-with-mask-kneron-tests-2019-12
[6]To Uncover a Deepfake Video Call, Ask the Caller to Turn Sideways – Metaphysic.ai. (2022). Retrieved 25 October 2022, from https://metaphysic.ai/to-uncover-a-deepfake-video-call-ask-the-caller-to-turn-sideways/
[7]Detecting deepfakes by looking closely reveals a way to protect against them. (2022). Retrieved 25 October 2022, from https://phys.org/news/2019-06-deepfakes-reveals.html
[8]Europol report finds deepfake technology could become staple tool for organised crime | Europol. (2022). Retrieved 25 October 2022, from https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime
[9]Project Overview ‹ Detect DeepFakes: How to counteract misinformation created by AI – MIT Media Lab. (2022). Retrieved 25 October 2022, from https://www.media.mit.edu/projects/detect-fakes/overview/
[10]Sharif, M., Bhagavatula, S., Bauer, L., & Reiter, M. K. (2016, October). Accessorize to a crime: Real and stealthy attacks on state-of-the-art face recognition. In Proceedings of the 2016 acm sigsac conference on computer and communications security (pp. 1528-1540).
[11]Thies, J., Zollhöfer, M., Theobalt, C., Stamminger, M., & Nießner, M. (2018). Headon: Real-time reenactment of human portrait videos. ACM Transactions on Graphics (TOG), 37(4), 1-13.
[12]Li, Y., Yang, X., Wu, B., & Lyu, S. (2019). Hiding faces in plain sight: Disrupting AI face synthesis with adversarial perturbations. arXiv preprint arXiv:1906.09288.
[13]Westerlund, M. (2019). The emergence of deepfake technology: A review. Technology Innovation Management Review, 9(11).
[14]Mirsky, Y., & Lee, W. (2021). The creation and detection of deepfakes: A survey. ACM Computing Surveys (CSUR), 54(1), 1-41.
[15]Li, C., Wang, L., Ji, S., Zhang, X., Xi, Z., Guo, S., & Wang, T. (2022). Seeing is living? rethinking the security of facial liveness verification in the deepfake era. CoRR abs/2202.10673.
[16]Nguyen, T. T., Nguyen, Q. V. H., Nguyen, D. T., Nguyen, D. T., Huynh-The, T., Nahavandi, S., … & Nguyen, C. M. (2022). Deep learning for deepfakes creation and detection: A survey. Computer Vision and Image Understanding, 223, 103525.
[17]警惕!偽造「人臉」盜取賬號,漳州兩男子被抓_騰訊新聞. (2022). Retrieved 25 October 2022, from https://new.qq.com/rain/a/20220830A068U500
作者:羅碗,編輯:Emeria、游識猷,公眾號:果殼(ID:Guokr42)
原文鏈接:https://mp.weixin.qq.com/s/NiYQywzCLGIADk2LZUYYGw