Science: 如何“學(xué)會(huì)”不再害怕?視覺(jué)皮層的奇妙作用
原標(biāo)題:Science: 如何“學(xué)會(huì)”不再害怕?視覺(jué)皮層的奇妙作用 文章來(lái)源:人工智能學(xué)家 內(nèi)容字?jǐn)?shù):11295字倫敦大學(xué)學(xué)院研究:大腦如何克服本能恐懼 本文總結(jié)了...
OpenAI聯(lián)合創(chuàng)始人Altman:AI成本每12個(gè)月下降10倍
原標(biāo)題:OpenAI聯(lián)合創(chuàng)始人Altman:AI成本每12個(gè)月下降10倍 文章來(lái)源:人工智能學(xué)家 內(nèi)容字?jǐn)?shù):11873字OpenAI聯(lián)合創(chuàng)始人Sam Altman談?wù)揂I經(jīng)濟(jì)學(xué):算力為王,指...
人工智能是一個(gè)哲學(xué)大,預(yù)示著新的軸心時(shí)代的來(lái)臨
原標(biāo)題:人工智能是一個(gè)哲學(xué)大事件,預(yù)示著新的軸心時(shí)代的來(lái)臨 文章來(lái)源:人工智能學(xué)家 內(nèi)容字?jǐn)?shù):86484字人工智能:一場(chǎng)哲學(xué)的突破與新軸心時(shí)代的預(yù)兆 本文...
張俊林從Deepseek R1看Scaling Law的未來(lái)
原標(biāo)題:張俊林從Deepseek R1看Scaling Law的未來(lái) 文章來(lái)源:人工智能學(xué)家 內(nèi)容字?jǐn)?shù):16988字大模型Scaling Law與S型智能增長(zhǎng)曲線:一個(gè)思想實(shí)驗(yàn) 本文探討了...
DeepSeek是否有國(guó)運(yùn)級(jí)的創(chuàng)新?2萬(wàn)字解讀與硬核分析DeepSeek V3/R1的架構(gòu)
本文由淺入深分析和解讀DeepSeek V3/R1的模型架構(gòu),適合投資人和行業(yè)人士了解新技術(shù)趨勢(shì)
“首席炒作官”Altman “碰瓷”摩爾定律引社區(qū)不滿,1400萬(wàn)美元廣告被批“都能訓(xùn)練3個(gè)DeepSeek V3了!”
距離上次發(fā)文過(guò)去了一個(gè)月多,OpenAI CEO Sam Altman 再次發(fā)表了一篇 2000 多字的“小作文”
從 DeepSeek 看 AI 編程新熱潮:我們離 “告別手敲代碼” 還有多遠(yuǎn)?| 直播預(yù)告
最近DeepSeek 非?;?,大家怎么看它的編程能力?本次直播借著這股熱浪,我們一起聊聊 AI 驅(qū)動(dòng)下的編程能力!
Meta 即將開(kāi)啟全公司大裁員,不會(huì)透露更具體細(xì)節(jié)
當(dāng)?shù)貢r(shí)間 2 月 7 日,據(jù)紐約路透社消息,F(xiàn)acebook 所有者 Meta Platforms 的內(nèi)部備忘錄顯示,該公司向員工透露,計(jì)劃下周在全公司范圍內(nèi)進(jìn)行裁員,同時(shí)加快招...
北航推出TinyLLaVA-Video,有限計(jì)算資源優(yōu)于部分7B模型,代碼、模型、訓(xùn)練數(shù)據(jù)全開(kāi)源
全開(kāi)源小尺寸簡(jiǎn)易視頻理解框架!
如何優(yōu)化測(cè)試時(shí)計(jì)算?解決「元強(qiáng)化學(xué)習(xí)」問(wèn)題
通過(guò)改變 LLM 訓(xùn)練目標(biāo),可以重用現(xiàn)有數(shù)據(jù)以及更多的測(cè)試時(shí)計(jì)算來(lái)訓(xùn)練模型以做得更好。
人大劉勇團(tuán)隊(duì)「慢思考」機(jī)理分析:從雪球誤差到正確推理概率
本文探討了外部慢思考在LLM推理中的作用機(jī)制,為理解外部慢思考方法提供了理論支撐,并為優(yōu)化LLM的推理能力提供了新思路。
粵公網(wǎng)安備 44011502001135號(hào)