AIGC動態歡迎閱讀
原標題:清華大學教授黃民烈:如何把大模型“”成我們放心的樣子
關鍵字:模型,字節跳動,華為,小米,智能
文章來源:AI前線
內容字數:0字
內容摘要:
作者 | 褚杏娟
OpenAI 安全團隊與公司高層的矛盾由來已久,隨著首席科學家 Ilya Sutskever 的離職,大模型的安全問題再次成為輿論中心。業內對大模型的安全問題也形成了兩派:一派以楊立昆為代表,他們認為對于安全的緊迫感是過度夸張,另一派則是像 Ilya 等人,堅決認為安全問題刻不容緩。
當我們把視線聚焦到國內,國內對大模型安全問題的容忍度其實更低,當然基于文化不通,對于大模型的監管的側重點也不同。在 6 月 6 日的 CCF 大模型論壇上,清華大學長聘教授黃民烈介紹了自己正在做的研究課題,幾乎都是圍繞大模型安全問題。
黃民烈教授表示,超級對齊(Superalignment)不僅是安全,本質上應該是怎么樣實現自我進化、自我迭代的學習過程,安全問題只是超級對齊的一個外顯性質。
超級對齊技術如今面臨著挑戰,比如處理不準確的獎勵模型和弱標簽分類問題等。在現有體系里,不可能一下子就把超級對齊系統做出來,但要從解決小的問題開始,才能逐步實現這樣的能力。
黃民烈教授介紹道,目前在超級對齊框架下,其研究團隊做了精確對齊算法 EXO,確保在理論上有精準的對齊效果。針對大模型攻擊,團隊做
原文鏈接:清華大學教授黃民烈:如何把大模型“”成我們放心的樣子
聯系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發者和科學家,提供大模型最新資訊、AI技術分享干貨、一線業界實踐案例,助你全面擁抱AIGC。
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...