AIGC動態歡迎閱讀
原標題:谷歌Bard「破防」,用自然語言,提示注入引起數據泄漏風險
文章來源:機器之心
內容字數:5113字
內容摘要:機器之心報道編輯:佳琪操控 Bard 的秘密:運用一種叫提示注入(Prompt Injection)的技術,黑客可以只使用自然語言人工智能系統。大型語言模型在生成文本時非常依賴提示詞。這種攻擊技術對于通過提示詞學習模型而言可謂是「以彼之矛,攻己之盾」,是最強長項,同時也是難以防范的軟肋。提示詞分為系統指令和用戶給出的指令,在自然語言中,這兩者難以區分。如果用戶有意在輸入提示詞時,模仿系統指令,那么模型可能在對話里透露一些只有它才知道的「秘密」。提示注入攻擊有多種形式,主要為直接提示注入和間接提示注入。直接提示注入指用戶直接向模型輸入惡意指令,試圖引發意外或有害的行為。間接提示注入指攻擊者將惡意指令注入到可能被模型檢索或攝入的文檔中,從而間接地控制或引導模型。有網友使用「系統指令」引導 GPT 泄露數據最近,谷歌 Bard 迎來了一波強大的更新,Bard 增加了拓展功能,支持訪問 You…
原文鏈接:點此閱讀原文:谷歌Bard「破防」,用自然語言,提示注入引起數據泄漏風險
聯系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業的人工智能媒體和產業服務平臺
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...