標簽:表征

開箱黑盒LLM!谷歌大一統框架Patchscopes實戰教程來了

新智元報道編輯:LRS 【新智元導讀】大模型最為人詬病的問題就是不透明、不可解釋。谷歌的最新框架Patchscopes可以提供關于模型內部隱藏表征的自然語言解釋,...
閱讀原文

Sora場景轉「3D資產」!浙大CAD&CG全重實驗室提出文本轉3D新SOTA:多功能、可拓展

新智元報道編輯:LRS 【新智元導讀】3D-SceneDreamer采用基于Stable Diffusion的Inpainting模型來對不斷對場景未見區域進行補全,并通過單目深度方法來輔助優...
閱讀原文

首次攻克「圖基礎模型」三大難題!港大開源OpenGraph:零樣本學習適配多種下游任

新智元報道編輯:LRS 【新智元導讀】港大發布通用圖基座模型OpenGraph,巧妙從LLM中蒸餾零樣本圖泛化能力。圖學習(Graph Learning)技術能夠對復雜的關系數...
閱讀原文

顏水成/程明明新作!Sora核心組件DiT訓練提速10倍,Masked Diffusion Transformer V2開源

新智元報道編輯:LRS 好困 【新智元導讀】Masked Diffusion Transformer V2在ImageNet benchmark 上實現了1.58的FID score的新SoTA,并通過mask modeling表征...
閱讀原文

圖靈獎得主LeCun最新專訪:為什么物理世界終將成為LLM的「死穴」?

來源:轉自機器之心 機器之心編輯部在人工智能領域,很少有像 Yann LeCun 這樣的學者,在 65 歲的年齡還能高度活躍于社交媒體。 一直以來,Yann LeCun 都是以...
閱讀原文

LeCun最新專訪:為什么物理世界終將成為LLM的「死穴」?

機器之心報道 機器之心編輯部在人工智能領域,很少有像 Yann LeCun 這樣的學者,在 65 歲的年齡還能高度活躍于社交媒體。 一直以來,Yann LeCun 都是以「直言...
閱讀原文

怒斥Sora之后,LeCun放出「視覺世界模型」論文,揭示AI學習物理世界的關鍵?

機器之心報道 機器之心編輯部Sora 的發布讓整個 AI 領域為之狂歡,但 LeCun 是個例外。 面對 OpenAI 源源不斷放出的 Sora 生成視頻,LeCun 熱衷于尋找其中的...
閱讀原文

海馬體掌管記憶的神,我是你的破壁人 | 追問頂刊

?本文為追問特約長文,7000字,閱讀需17min。建議收藏或轉發朋友圈,分多次閱讀,愿有所收獲。本文已開快捷轉載,如需另外開白,還請留言。記憶是如何形成的...
閱讀原文

CV大神何愷明正在招收博士后和實習生!

夕小瑤科技說 原創作者 | 謝年年 想必大家都知道,CV大神何愷明將在24年加入MIT EECS(電子工程和計算機科學系),而就在近日,何愷明在個人主頁上官宣招收研...
閱讀原文

OpenAI新模型用的嵌入技術被網友扒出來了

機器之心報道 編輯:蛋醬學起來吧。前幾天,OpenAI 來了一波重磅更新,一口氣宣布了 5 個新模型,其中就包括兩個新的文本嵌入模型。 我們知道,嵌入是表示自...
閱讀原文

何愷明謝賽寧團隊步步解構擴散模型,最后竟成經典去噪自編碼器

機器之心報道 編輯:Panda去噪擴散模型(DDM)是當前圖像生成技術的一大主流方法。近日,Xinlei Chen、Zhuang Liu、謝賽寧與何愷明四人團隊對 DDM 進行了解構...
閱讀原文

Llama-2+Mistral+MPT=? 融合多個異構大模型顯奇效

機器之心專欄 機器之心編輯部融合多個異構大語言模型,中山大學、騰訊 AI Lab 推出 FuseLLM隨著 LLaMA、Mistral 等大語言模型的成功,各家大廠和初創公司都紛...
閱讀原文

AAAI 2024 | TEx-Face,5秒內按需生成照片級3D人臉

大數據文摘授權轉載自將門創投 作者:Xiaolong Shen 本文介紹一篇來自浙江大學ReLER實驗室的工作,'Controllable 3D Face Generation with Conditional Style...
閱讀原文

性能大漲20%!中科大「狀態序列頻域預測」方法:表征學習樣本效率max|NeurIPS 2023 Spotlight

新智元報道編輯:LRS 好困 【新智元導讀】SPF算法是一種基于狀態序列頻域預測的表征學習方法,利用狀態序列的頻域分布來顯式提取狀態序列數據中的趨勢性和規...
閱讀原文

谷歌MIT最新研究證明:高質量數據獲取不難,大模型就是歸途

新智元報道編輯:桃子 【新智元導讀】數據獲取最新解,便是從生成模型中學習。獲取高質量數據,已經成為當前大模型訓練的一大瓶頸。 前幾天,OpenAI被《紐約...
閱讀原文