奧特曼被套上“緊箍咒”?OpenAI發(fā)布27頁安全指南,董事會有權(quán)否決新AI模型發(fā)布
AIGC動態(tài)歡迎閱讀
原標(biāo)題:奧特曼被套上“緊箍咒”?OpenAI發(fā)布27頁安全指南,董事會有權(quán)否決新AI模型發(fā)布
關(guān)鍵字:報(bào)告,華為,解讀,風(fēng)險(xiǎn),模型
文章來源:AI前線
內(nèi)容字?jǐn)?shù):5501字
內(nèi)容摘要:
整理|冬梅、核子可樂
生成式人工智能的潛在危險(xiǎn)引起了公眾、家和人工智能研究人員的關(guān)注。隨著各國希望壓制該技術(shù),OpenAI 擴(kuò)大了其內(nèi)部安全流程,以應(yīng)對有害人工智能 (AI) 的威脅。
近日,OpenAI 公司 CEO Sam Altman 現(xiàn)身美國佐治亞州亞特蘭大召開的全球希望論壇。全球 40 個國家的 5200 多名代表參會,旨在重新構(gòu)想全球經(jīng)濟(jì)體系,讓企業(yè)的效益與機(jī)遇惠及所有人。OpenAI 董事會有權(quán)阻止
“有害的”新 AI 模型發(fā)布
OpenAI 公司已經(jīng)制定計(jì)劃,遏制當(dāng)前及未來正在開發(fā)的強(qiáng)大 AI 技術(shù)可能引發(fā)的一切最壞情況。作為席卷全球的機(jī)器人 ChatGPT 的締造者,該公司本周公布了一份長達(dá) 27 頁的“準(zhǔn)確框架”文件,概述了 OpenAI 如何跟蹤、評估及防范由前沿 AI 模型所引發(fā)的“災(zāi)難性風(fēng)險(xiǎn)”。
具體風(fēng)險(xiǎn)范圍從 AI 模型被用于實(shí)施大規(guī)模網(wǎng)絡(luò)安全破壞,到協(xié)助制造生物、化學(xué)或核武器等等。作為這份準(zhǔn)備框架中制衡章節(jié)的一部分,OpenAI 表示該公司領(lǐng)導(dǎo)層將對是否發(fā)布新 AI 模型擁有決策權(quán),但最終決定權(quán)將始終歸董事會所有,即保有對 OpenAI 高
原文鏈接:奧特曼被套上“緊箍咒”?OpenAI發(fā)布27頁安全指南,董事會有權(quán)否決新AI模型發(fā)布
聯(lián)系作者
文章來源:AI前線
作者微信:ai-front
作者簡介:面向AI愛好者、開發(fā)者和科學(xué)家,提供AI領(lǐng)域技術(shù)資訊、一線業(yè)界實(shí)踐案例、搜羅整理業(yè)界技術(shù)分享干貨、AI論文解讀。每周一節(jié)技術(shù)分享公開課,助力你全面擁抱人工智能技術(shù)。