螞蟻數科向全球開源180萬深度偽造定位數據集,助力AI算法可解釋觀點

生成式AI引發的欺詐風險席卷全球,研究與之對抗的鑒別技術,成為AI時代的長期命題。
生成式AI引發的欺詐風險席卷全球,研究與之對抗的鑒別技術,成為AI時代的長期命題。
近日,在加拿大蒙特利爾舉行的國際人工智能聯合會議(IJCAI)期間,螞蟻數科與新加坡科技研究局聯合主辦“深度偽造檢測、定位、可解釋性”研討會。會上,螞蟻數科與斯坦福大學分別開源兩大深度偽造數據集,涵蓋人類面部及動作偽造、聲音克隆等多種模態,為行業提供了關鍵的基礎數據資源,推動AI安全技術發展。
該研討會聚焦Deepfake(深度偽造)識別方向,來自中國、美國、澳大利亞、巴西、新加坡等多國知名機構學者與行業專家分享前沿技術和應用成果。
螞蟻數科將用于IJCAI“深度偽造檢測挑戰賽”的180萬訓練數據集(DDL-Datasets),正式向全球研究者開源。該數據集包含人臉偽造、視頻篡改、聲音克隆三大高危場景,涵蓋80余種偽造手法,清晰標注了AI造假的畫面位置、時間節點,有助于提升算法可解釋性。研究者可在Modelscope(磨搭社區)下載獲取。
圖:螞蟻數科國際算法負責人李建樹分享深度偽造定位數據集
由斯坦福大學、谷歌與加州大學伯克利分校聯合開源的視頻數據集 DeepAction,包含7款大模型生成的2,600段人類動作視頻以及相匹配的真實鏡頭,這些視頻展示了行走、奔跑、烹飪等日常行為,研究者可在Hugging Face(抱抱臉社區)下載獲取。此外,研究團隊發表的論文《AI生成人體動作檢測》(Human Action CLIPs: Detecting AI-Generated Human Motion)獲得該主題workshop最佳論文。該論文提出了一種基于多模態語義嵌入的鑒別技術,可精準區分真實人體動作與AI生成動作。該方法具有較強的魯棒性,可有效抵御數據篡改手段(如調整分辨率、壓縮視頻等)對檢測算法的干擾。
圖:新加坡科技研究局周天異教授為斯坦福大學Matyas Bohacek頒發最佳論文獎
澳大利亞莫納什大學Abhinav Dhall教授分享了其研究團隊通過腦電圖數據發現:不同文化背景人群對AI造假視頻存在感知差異,當視頻語言為參與者熟悉的英語且演員來自相似種族背景時,其區分真實視頻與深度偽造視頻的表現更佳。該研究為全球化多元背景下的深度偽造分析領域鋪就了未來探索路徑。
公開信息顯示,螞蟻數科長期關注并持續投入AI安全及風險防范,旗下安全科技品牌ZOLOZ自2017年起服務海外機構的數智化升級,目前已覆蓋超25個國家和地區,“實人認證”產品準確率達99.9%。
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。