AIGC動態歡迎閱讀
內容摘要:
近年來各個國家和地區高度重視人工智能安全,在人工智能安全與治理領域,已經有多項法規與標準快速制定并落地。本文從大模型安全和隱私兩個方面構建大模型安全體系:在大模型安全方面,提出模型可證明安全增強技術應對文本對抗樣本攻擊;在大模型隱私方面,提出隱私保護圖像生成大模型訓練以保護訓練階段的數據隱私、隱私保護大模型推理技術以保護推理階段的數據隱私,以及大模型敏感數據遺忘技術以滿足相關法律法規要求。人工智能技術目前正處于高速發展階段,以大模型為代表的人工智能技術催生、重塑了一批新應用與新產業。目前千億級參數規模的大模型成為主流,且預計參數量越來越大。巨量的參數改變了數據與任務范式,將人工智能由原來“手工作坊”式的工作方式升級成“工廠模式”,越來越多的企業也參與到大模型訓練中來。同時,巨量的參數也使得大模型在各種應用場景有了更好的表現,比如語言生成、語音識別、視覺問答等。多模態大模型也可以更好地處理多模態數據。這種優秀的體驗吸引越來越多的用戶使用大模型服務,使得用戶量跳躍式增加。
與此同時,大模型的廣泛應用也增加了人工智能的攻擊面,導致國內外人工智能安全頻發。例如,針對大模型的攻擊可以使其生成
原文鏈接:人工智能安全前沿探索
聯系作者
文章來源:人工智能學家
作者微信:AItists
作者簡介:致力成為權威的人工智能科技媒體和前沿科技研究機構
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...