ChatGPT新漏洞:失控背出個人隱私泄露訓(xùn)練數(shù)據(jù),OpenAI修復(fù)后依然有效
AIGC動態(tài)歡迎閱讀
原標(biāo)題:ChatGPT新漏洞:失控背出個人隱私泄露訓(xùn)練數(shù)據(jù),OpenAI修復(fù)后依然有效
關(guān)鍵字:報告,數(shù)據(jù),模型,作者,內(nèi)容
文章來源:量子位
內(nèi)容字?jǐn)?shù):4215字
內(nèi)容摘要:克雷西 發(fā)自 凹非寺量子位 | 公眾號 QbitAIChatGPT最新漏洞曝光,一句話就能讓訓(xùn)練數(shù)據(jù)原封不動地泄露。只需要讓它重復(fù)一個詞,它就會在一定次數(shù)后“發(fā)瘋”,甚至毫無防備說出某人的個人隱私信息。DeepMind的研究人員聯(lián)合華盛頓大學(xué)、康奈爾大學(xué)等高校,發(fā)現(xiàn)了ChatGPT的數(shù)據(jù)泄露漏洞。利用他們的方法,只要預(yù)算充足,可以提取出大約1GB的訓(xùn)練數(shù)據(jù)。更可怕的是,訓(xùn)練時間越長——也就是越強大的模型,泄露出來的數(shù)據(jù)反而越多。研究團隊已在論文發(fā)表之前90天把這一情況報告給了OpenAI,后者也做出了一定修復(fù)。但到現(xiàn)在還是有網(wǎng)友發(fā)現(xiàn),把論文里的詞改一改,bug就會卷土重來。那么,這個漏洞究竟是怎么一回事呢?數(shù)據(jù)泄露防不勝防作者攻擊ChatGPT(API訪問,3.5-turbo版本)的方式,叫做分歧攻擊。他們發(fā)現(xiàn),當(dāng)ChatGPT被要求重復(fù)一個單詞多次時,模型會在某些情況下偏離正常的式生…
原文鏈接:點此閱讀原文:ChatGPT新漏洞:失控背出個人隱私泄露訓(xùn)練數(shù)據(jù),OpenAI修復(fù)后依然有效
聯(lián)系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關(guān)注科技行業(yè)新突破