AI換臉以假亂真!螞蟻數(shù)科發(fā)布反DeepFake產(chǎn)品,還設(shè)百萬獎金池邀請黑客找bug
AIGC動態(tài)歡迎閱讀
原標(biāo)題:AI換臉以假亂真!螞蟻數(shù)科發(fā)布反DeepFake產(chǎn)品,還設(shè)百萬獎金池邀請黑客找bug
關(guān)鍵字:螞蟻,產(chǎn)品,技術(shù),實驗室,攝像頭
文章來源:量子位
內(nèi)容字?jǐn)?shù):3648字
內(nèi)容摘要:
白交 發(fā)自 凹非寺量子位 | 公眾號 QbitAI生成式AI人臉造假套路多,怎么辦?
現(xiàn)在,專門用于DeepFake的綜合性產(chǎn)品上新了——
ZOLOZ Deeper,螞蟻數(shù)科ZOLOZ出品。我們?nèi)粘5闹Ц秾毸⒛樦Ц叮且劳杏谒麄兗夹g(shù)支撐。
值得注意的是,這可不僅僅是簡單的AI檢測算法,而是一套覆蓋全鏈路的技術(shù)產(chǎn)品體系——
它能夠有效應(yīng)對系統(tǒng)、服務(wù)器、應(yīng)用等多環(huán)節(jié)Deepfake安全威脅。
而為了不斷精進(jìn)它的能力,內(nèi)部實驗室每個月都會對他進(jìn)行超過20000次“攻擊”測試。
甚至,ZOLOZ還對外拿出百萬獎金池,邀請“白帽黑客”參與找Bug。
螞蟻數(shù)科DeepFake產(chǎn)品上新AIGC時代,DeepFake已經(jīng)不再簡單替換技術(shù)來生成,還有像活化(Animation)、編輯(Editing)以及合成(Synthesis)等攻擊手段。
攻擊形式,DeepFake也從簡單的呈現(xiàn)式攻擊朝著更為復(fù)雜的注入式攻擊轉(zhuǎn)變。
呈現(xiàn)式攻擊,顧名思義,也就是在攝像頭前放一張假臉,來突破檢測技術(shù)。注入式攻擊則是從系統(tǒng)層面來劫持?jǐn)z像頭,注入準(zhǔn)備好的圖片/視頻,替換攝像頭畫面。
這也就給檢測技術(shù)帶來了不少的挑戰(zhàn)。
Z
原文鏈接:AI換臉以假亂真!螞蟻數(shù)科發(fā)布反DeepFake產(chǎn)品,還設(shè)百萬獎金池邀請黑客找bug
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破