AIGC動態歡迎閱讀
原標題:讓大模型看圖比打字管用!NeurIPS 2023新研究提出多模態查詢方法,準確率提升7.8%
文章來源:量子位
內容字數:6742字
內容摘要:轉載自 沁園夏量子位 | 公眾號 QbitAI大模型“識圖”能力都這么強了,為啥還老找錯東西?例如,把長得不太像的蝙蝠和拍子搞混,又或是認不出一些數據集中的稀有魚類……這是因為,我們讓大模型“找東西”時,往往輸入的是文本。如果描述有歧義或太偏門,像是“bat”(蝙蝠還是拍子?)或“魔鳉”(Cyprinodon diabolis),AI就會大為困惑。這就導致用大模型做目標檢測、尤其是開放世界(未知場…
原文鏈接:點此閱讀原文:讓大模型看圖比打字管用!NeurIPS 2023新研究提出多模態查詢方法,準確率提升7.8%
聯系作者
文章來源:量子位
作者微信:QbitAI
作者簡介:追蹤人工智能新趨勢,關注科技行業新突破
? 版權聲明
文章版權歸作者所有,未經允許請勿轉載。
相關文章
暫無評論...