標簽:問題

今日Arxiv最熱NLP大模型論文:復旦大學最新研究,如何讓大模型說出“我不知道”?

夕小瑤科技說 原創作者 | 松果引言:AI助手的真實性挑戰在人工智能(AI)的發展進程中,基于大型語言模型(LLMs)的AI助手已經在多個任務中展現出驚人的性能...
閱讀原文

Linus新年首罵:和谷歌大佬大吵4天,“你的代碼就是垃圾”

金磊 發自 凹非寺量子位 | 公眾號 QbitAI風風火火的Linux之父,Linus Torvalds,他又躍入公眾的視線。 “打開方式”依舊是熟悉的配方——罵人。 我們先來看下Linu...
閱讀原文

Perplexity 交互剖析:如何基于尼爾森設計原則,開發讓用戶滿意的 AI-Native 產品?

LUI 還是 GUI,AI 時代的產品交互應該遵循怎樣的產品交互原則,在 2023 年被討論過很多次,似乎大家得到的共識是,需要 LUI,但 GUI 也是不可少的。 而作為 A...
閱讀原文

OpenAI出手后,GPT-4真的不懶了?網友不買賬:只靠打補丁恐怕無濟于事!

整理 | 凌敏、核子可樂 大模型會從人類經驗中學習,如果人類本身越來越懶,那模仿人類的程序是不是也會越來越懶? OpenAI 發布更新, 解決 GPT-4“變懶”問題 ...
閱讀原文

更適合中文LMM體質的基準CMMMU來了:超過30個細分學科,12K專家級題目

機器之心專欄 機器之心編輯部近期,隨著多模態大模型(LMM) 的能力不斷進步,評估 LMM 性能的需求也日益增長。與此同時,在中文環境下評估 LMM 的高級知識和...
閱讀原文

「think step by step」還不夠,讓模型「think more steps」更有用

機器之心報道 機器之心編輯部本文對思維鏈的推理步長進行了控制變量實驗,發現推理步長和答案的準確性是線性相關的,這種影響機制甚至超越了問題本身所產生的...
閱讀原文

“哄女友挑戰”上線即爆火,兩天燒掉10億token,AI已通關

夢晨 克雷西 發自 凹非寺量子位 | 公眾號 QbitAI女朋友生氣了哄不好怎么辦? 這款哄哄模擬器,由AI扮演生氣的男/女朋友,限定對話次數訓練,幫助你提高獲得原...
閱讀原文

小模型增強可超GPT-4?北航 && 人大 | 提出大模型ICL增強范式,模型越小收益越高!

引言:上下文學習(In-context Learning,ICL)技術是提高模型在自然語言處理任務上表現的高效提示技術,因而眾多研究在這個方向上提出各種方法,但大多數都...
閱讀原文

AlphaGeometry:DeepMind 大算力再造奇跡,但「算力代替智力」或許并非最優解

作者:李寶珠 編輯:三羊 封面圖來源:Google DeepMind DeepMind 用算力堆出奇跡?被夸上天的 AlphaGeometry 含金量有多高近日,谷歌 DeepMind 的 Alpha 系列...
閱讀原文

如何1秒內快速總結100多頁文檔?QQ 瀏覽器首次揭秘大模型實現技術細節

嘉賓|郭偉東 編輯|李忠良 隨著人工智能技術的飛速發展,大型語言模型已成為行業熱點,引領著一系列技術創新。在長文檔閱讀場景下,利用大模型提升閱讀效率也...
閱讀原文

【數學與物理學】數學家利用量子場論的數學新發現

來源:陳方的發現數學之旅 圖的??臻g是數學中一個迷人的主題,與各種領域有聯系,包括拓撲、代數幾何和數學物理。特別是它與代數曲線理論密切相關,代數曲線...
閱讀原文

數學界AlphaGo來了!攻破奧數難題登Nature,接近人類金牌水平

谷歌連發兩大AI數學模型,奧數金牌得主親自點贊。 作者|李水青 編輯|心緣 智東西1月18日報道,1月17日,谷歌研發的AI數學模型AlphaGeometry登上國際頂刊Natur...
閱讀原文

奧數逼近金牌水平!谷歌最新AlphaGeometry模型登上Nature!菲爾茲獎得主點贊

夕小瑤科技說 原創作者 | 王二狗大家好,我是二狗。 谷歌DeepMind 最新AI研究突破登上了《Nature》! 這篇《Solving olympiad geometry without human demons...
閱讀原文

DeepMind人工智能突破邁向AGI關鍵一步,解題能力接近奧數巔峰

點擊上方藍字關注我們“Google DeepMind的AlphaGeometry系統在解決幾何問題方面幾乎趕上了世界最聰明學生的水平。其成功回答了國際數學奧林匹克競賽高中組的25...
閱讀原文

數學推理與AI:機器學習系統能在多大程度上理解數學?

導語2023年12月的 NeurIPS 會議上舉辦了許多主題研討會,其中 MATH AI 研討會為第三屆,主題為“數學推理與AI”。數學推理是人類認知的基本方面,涉及分析復雜...
閱讀原文
1222324252636