AI換臉的興起意味著圖像技術日趨成熟,同時也面臨 “AI 黑產”帶來的系列問題。近日,百度在權威DeepFake防偽數據集FaceForensics Benchmark上刷新紀錄,以整體檢測準確率0.821的成績超越SOTA,領跑行業。

faceforensic-benchmark榜單結果
FaceForensics Benchmark是德國慕尼黑工業大學(TUM)聯合Google等多家機構共同發布的大規模人臉偽造數據集,用于促進對人臉偽造檢測的學術研究,并提升工業界對于人臉防偽業務落地的重視程度。FaceForensics Benchmark數據集擁有四種業界先進的人臉偽造技術,分別是Face2Face、FaceSwap、DeepFakes和NeuralTextures。這些偽造出來的人臉圖像自然逼真,人眼幾乎無法辨別真偽,極大地提高了任務難度。
基于此,百度將自研的Learning Generalized Spoof Cue算法(論文參考:https://arxiv.org/pdf/2005.03922.pdf)引入人臉合成圖像鑒別任務,整體檢測準確率進一步提高,并登頂FaceForensics Benchmark榜單。

LGSC網絡結構圖
據悉,LGSC方法最早用于解決人臉活體的鑒別問題,在解決活體問題時引入異常檢測的思想,假設活體為具有相同特征的閉集,活體攻擊為閉集以外的離群樣本,以解決攻擊方式的多樣性對于活體判別效果的影響,其對攻擊圖像與活體圖像之間的可區分攻擊線索(Spoof Cue)進行建模,將活體的攻擊線索定義為與輸入圖像尺度相同的all-zero map,將活體攻擊的攻擊線索定義為none-zero map,設計了一種攻擊線索生成器進行攻擊線索生成并引入輔助分類器進行聯合訓練。
在模型訓練過程中,LGSC方法只對活體進行顯式的L1 Regression Loss監督,對非活體不進行任何回歸監督,通過隱式的多級triplet Loss將活體樣本在特征空間中進行拉近,將攻擊樣本推離活體區域,通過與原始圖像的殘差連接和輔助分類器進一步提升攻擊線索的可區分性和泛化性。值得注意的是,LGSC方法通過聯合監督的方式學習得到了兼具可區分性和泛化性的攻擊線索,在預測時其并不使用分類器輸出進行結果判別,而是直接使用攻擊線索圖的量化數值用于評估一張圖片是否為攻擊圖像,該方法已在多個活體數據集中的多項protocol上均取得State Of The Art結果。
隨著DeepFake、FaceSwap等人臉編輯及生成技術的發展,極大的推動了如虛擬主播、人臉合成等新興娛樂文化的應用,但同時也給人臉安全帶來了潛在威脅。例如通過 “換臉”技術進行色情視頻生成、虛擬政治人物講話等,對社會造成嚴重不良影響。有調查顯示,目前的AI換臉儼然已經形成了一個黑產產業鏈,上游提供軟件及技術、中游提供視頻、照片定制、下游售賣成品視頻,也有商家做全產業鏈的生意,已造成嚴重危害。
此外,在一些使用人臉注冊識別場景下,可能會存在不法分子通過上傳AI合成人臉圖像企圖蒙混過關。一系列“換臉”技術合成的人臉圖像很難通過肉眼辨別真偽,加上人臉數據涉及到用戶的肖像和個人隱私,篡改人臉數據也將對用戶個人信息安全造成威脅。
“換臉”引發的問題,已在業界引起廣泛關注。百度LGSC方法在學術研究的同時已完成落地,百度大腦已基于該算法在人臉識別的活體模塊中首發對人臉合成圖鑒別能力,并在“人臉檢測”、“H5視頻活體檢測”、“在線活體檢測” API中上線。在多種活體技術加持的基礎上,新增功能可以準確鑒別AI換臉技術和黑客工具生成的人臉圖像,安全等級實現進階。此外,該項新功能在人臉審核、新聞鑒真、肖像維權、色情圖像審核等諸多方面均有很高的實用價值,不僅保護著廣大個人用戶的信息、權益,還協助企業提升了其服務安全性。
目前,百度已開放線上合成圖檢測接口,后續將持續優化針對不同落地場景的差異化能力,保障人臉相關應用的安全,以技術美化生活,更以技術守護生活。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
海報生成中...
海藝AI的模型系統在國際市場上廣受好評,目前站內累計模型數超過80萬個,涵蓋寫實、二次元、插畫、設計、攝影、風格化圖像等多類型應用場景,基本覆蓋所有主流創作風格。
IDC今日發布的《全球智能家居清潔機器人設備市場季度跟蹤報告,2025年第二季度》顯示,上半年全球智能家居清潔機器人市場出貨1,2萬臺,同比增長33%,顯示出品類強勁的市場需求。