圖靈獎得主Bengio親自打分,首份《人工智能安全指數(shù)報告》發(fā)布,中國一家公司上榜
原標題:圖靈獎得主Bengio親自打分,首份《人工智能安全指數(shù)報告》發(fā)布,中國一家公司上榜
文章來源:人工智能學家
內(nèi)容字數(shù):13710字
生命未來研究所發(fā)布《人工智能安全指數(shù)報告》,Anthropic安全性最高,Meta墊底
生命未來研究所(FLI)近期發(fā)布了首份《人工智能安全指數(shù)報告》(FLI AI Safety Index 2024),對Anthropic、Google DeepMind、Meta、OpenAI、x.AI和智譜6家公司在人工智能安全方面的實踐進行了評估。報告顯示,雖然Anthropic獲得了最高的安全性評級,但分數(shù)僅為“C”,所有公司在安全實踐方面均有提升空間。該報告引發(fā)廣泛關(guān)注,Max Tegmark在X平臺上直言Anthropic排名第一,Meta排名最后,但強調(diào)此舉旨在激勵公司改進。
1. **報告評估維度:**報告從六個關(guān)鍵維度評估了這些公司,包括:風險評估、當前危害、安全框架、生存性安全策略、治理和問責制以及透明度和溝通。
2. **風險評估:**OpenAI、Google DeepMind和Anthropic在識別潛在危險方面表現(xiàn)較好,但AGI相關(guān)風險尚未被充分理解。Meta對自治、謀劃和說服相關(guān)威脅模型的覆蓋不足,智譜和x.AI的風險評估相對薄弱。
3. **當前危害:**Anthropic的人工智能系統(tǒng)在安全性與信任度基準測試中得分最高,Google DeepMind緊隨其后。Meta因公開前沿模型權(quán)重而被批評,增加了濫用風險。對抗性攻擊仍然是一個主要問題,OpenAI的模型尤為脆弱。
4. **安全框架:**所有公司都簽署了《前沿人工智能安全承諾》,但只有OpenAI、Anthropic和Google DeepMind公布了相關(guān)框架,其中Anthropic的框架最為詳盡。專家強調(diào)安全框架需要強有力的外部審查和監(jiān)督。
5. **生存性安全策略:**Google DeepMind、OpenAI和Anthropic在控制與安全性方面開展了較為嚴肅的研究,但目前沒有公司提出官方策略以確保高級人工智能系統(tǒng)可控并符合人類價值觀。
6. **治理和問責制:**Anthropic在建立負責任的治理結(jié)構(gòu)方面表現(xiàn)突出,而OpenAI最近的變化引發(fā)了對安全重要性下降的擔憂。Meta的開放源代碼策略增加了濫用風險,削弱了其問責制。
7. **透明度和溝通:**OpenAI、Google DeepMind和Meta在安全法規(guī)游說方面的努力引發(fā)了擔憂,而x.AI因支持加強人工智能安全的監(jiān)管措施而受到表揚。Anthropic在風險溝通和支持行業(yè)透明度方面表現(xiàn)突出。
8. **評分方法:**報告基于42項關(guān)鍵指標,結(jié)合公開信息和公司問卷調(diào)查,由專家小組進行評估。評分過程注重結(jié)構(gòu)化標準化評估,也保留了專家專業(yè)判斷的靈活性。
9. **報告結(jié)論:**報告指出,盡管Anthropic在安全實踐方面表現(xiàn)最佳,但所有公司仍然有很大的改進空間。 這份報告旨在促進人工智能安全領(lǐng)域的進步,而非單純的排名比較。 FLI強調(diào),未來報告可能會關(guān)注不同的公司,以反映不斷變化的競爭格局。
10. **未來展望:** 這份報告不僅展現(xiàn)了當前人工智能安全實踐的現(xiàn)狀,也為各公司提供了改進方向,促進行業(yè)共同努力,提升人工智能的安全性和可靠性,最終造福人類。
聯(lián)系作者
文章來源:人工智能學家
作者微信:
作者簡介:致力成為權(quán)威的人工智能科技媒體和前沿科技研究機構(gòu)