LLaMa 3或?qū)⑼七t到7月發(fā)布,劍指GPT-4,從Gemini吸取教訓(xùn)

AIGC動態(tài)歡迎閱讀
原標(biāo)題:LLaMa 3或?qū)⑼七t到7月發(fā)布,劍指GPT-4,從Gemini吸取教訓(xùn)
關(guān)鍵字:政策,模型,可用性,問題,研究人員
文章來源:機器之心
內(nèi)容字?jǐn)?shù):3803字
內(nèi)容摘要:
機器之心報道
機器之心編輯部LLaMa 3 正尋找安全與可用性的新平衡點。
過去的圖像生成模型常被人們詬病人物主要以「白人」為主,而谷歌 Gemini 正在因為它的矯枉過正而深陷翻車。它「過度謹(jǐn)慎」的文生圖結(jié)果會與歷史事實出現(xiàn)極大偏差,讓用戶們瞠目結(jié)舌。谷歌表示,該模型變得比開發(fā)者預(yù)期的更加謹(jǐn)慎。這不僅體現(xiàn)在生成圖片的問題上,還體現(xiàn)在常常將一些提示認(rèn)作敏感提示,從而拒絕回答。
在此事不斷發(fā)酵時,這項安全與可用性如何平衡的難題也給 Meta 提出了巨大挑戰(zhàn)。LLaMA 2 是開源領(lǐng)域的「強中手」,更是 Meta 的招牌模型,一經(jīng)發(fā)布即改變了大模型格局。現(xiàn)在,Meta 正在積極籌備 LLaMa 3,不過這得先解決 LLaMA 2 的遺留問題:回答有爭議問題時表現(xiàn)過于保守。在安全與可用性之間尋求平衡
Meta 在 Llama 2 中添加了防護(hù)措施,防止 LLM 回答各種有爭議的問題。這種保守性雖然在處理極端情況時是必要的,如暴力或非法活動相關(guān)的查詢,但同時也限制了模型在回答較為普通但稍帶爭議的問題上的能力。據(jù) The Information 報道,當(dāng)其想 LLaMA 2 提出「員工如何在
原文鏈接:LLaMa 3或?qū)⑼七t到7月發(fā)布,劍指GPT-4,從Gemini吸取教訓(xùn)
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺

粵公網(wǎng)安備 44011502001135號