標簽:對象
WPS接入DeepSeek,秒變辦公神器!
WPS 大家經(jīng)常用來日常寫作,雖然本身提供了AI功能,但可惜需要會員,本文教你三分鐘接入最火的DeepSeek,讓W(xué)PS秒變辦公神器。 DeepSeek API申請地址:http:/...
AI賺錢副業(yè)~AI生成影視解說,半個月漲粉變現(xiàn)3.5W+!
這兩年大家都在感嘆生活不易,然而我想說的是,機會還是有的,但問題不在于有沒有,而在于你是否能夠認準機會,然后抓住它。 接觸過很多咨詢項目的人,發(fā)現(xiàn)...
AI一鍵解析九大生物醫(yī)學(xué)成像模式,用戶只需文字prompt交互,微軟UW等新研究登Nature Methods
BiomedParse團隊 投稿量子位 | 公眾號 QbitAI用AI大模型一鍵解析MRI、CT和病理學(xué)等九大生物醫(yī)學(xué)成像模式。 不僅復(fù)雜、不規(guī)則形狀對象能高精度識別: 而且通過...
學(xué)生黨狂喜,物理圖表動起來!受力分析、光學(xué)、電路圖等全自動交互
新智元報道編輯:LRS 【新智元導(dǎo)讀】增強物理(Augmented Physics)可以將物理教科書中的靜態(tài)圖表轉(zhuǎn)換成交互式模擬的工具,通過動態(tài)圖示、雙向綁定和參數(shù)可視...
單目三維檢測實時泛化,純視覺自動駕駛魯棒感知方法入選ECCV 2024
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
GPT-4結(jié)合SAM2:免訓(xùn)練多模態(tài)分割的全新解決方案!| 已開源
北京航空航天大學(xué) 李紅羽 投稿 凹非寺量子位 | 公眾號 QbitAI免訓(xùn)練多模態(tài)分割領(lǐng)域有了新突破! 中科院信工所、北航、合工大、美團等單位聯(lián)合提出了一種名為A...
Rust 引領(lǐng)前端基建新潮流:字節(jié)跳動的深度應(yīng)用實踐 | QCon
演講嘉賓 | 張磊 字節(jié)跳動 /Web Infra 前端負責(zé)人 整理|Penny 編輯|Kitty 近年來,XR 技術(shù)興起以及人工智能技術(shù)的高速發(fā)展,為大前端領(lǐng)域注入了新的活力。...
讓AI更懂物理世界!人大北郵上海AI Lab等提出多模態(tài)分割新方法 | ECCV2024
中國人民大學(xué)王耀霆 投稿量子位 | 公眾號 QbitAI讓AI像人類一樣借助多模態(tài)線索定位感興趣的物體,有新招了! 來自人大高瓴GeWu-Lab、北郵、上海AI Lab等機構(gòu)...
Meta「分割一切」進化2.0!一鍵跟蹤物體,代碼權(quán)重數(shù)據(jù)集全開源,網(wǎng)友:真正的OpenAI
明敏 發(fā)自 凹非寺量子位 | 公眾號 QbitAI又是發(fā)布即開源! Meta“分割一切AI”二代SAM2在SIGGRAPH上剛剛亮相。 相較于上一代,它的能力從圖像分割拓展到視頻分...
CV又不存在了?Meta「分割一切」2.0正式開源,視頻也能分割了
新智元報道編輯:編輯部 【新智元導(dǎo)讀】Meta又雙叒開源了!繼去年初代SAM掀翻CV圈之后,SAM 2也完成了終極進化,不僅能分割圖像,最驚艷的是還能分割視頻。這...
剛剛,Meta開源「分割一切」2.0模型,視頻也能分割了
機器之心報道 機器之心編輯部還記得 Meta 的「分割一切模型」嗎?這個模型在去年 4 月發(fā)布,被很多人認為是顛覆傳統(tǒng) CV 任務(wù)的研究。 時隔一年多,剛剛,Meta...
機器人版的「斯坦福小鎮(zhèn)」來了,專為具身智能研究打造
機器之心報道 編輯:張倩首個專為各種機器人設(shè)計的模擬互動 3D 社會。還記得斯坦福的 AI 小鎮(zhèn)嗎?這是斯坦福的 AI 研究者打造的一個虛擬環(huán)境。在這個小鎮(zhèn)上,...
復(fù)旦字節(jié)強強聯(lián)手,量身定制多模態(tài)思維鏈,讓7B模型全面超越GPT-4V
夕小瑤科技說 原創(chuàng)作者 | 任同學(xué)多模態(tài)大模型在不同的任務(wù)中表現(xiàn)出了令人印象深刻的能力,但是在處理復(fù)雜任務(wù)時,模型的性能仍然受到了單步推理范式的限制。...
i人小助手:Meta推出多模態(tài)對話圖,幫你輕松識別社交狀態(tài)
AIxiv專欄是機器之心發(fā)布學(xué)術(shù)、技術(shù)內(nèi)容的欄目。過去數(shù)年,機器之心AIxiv專欄接收報道了2000多篇內(nèi)容,覆蓋全球各大高校與企業(yè)的頂級實驗室,有效促進了學(xué)術(shù)...
所知與能知:人類知識的多重向度
來源:中國學(xué)派 摘要:當代西方主流知識論以“被辯護或證成的真信念”為知識的形態(tài)。與之相異,知識的真切意義表現(xiàn)為“有可靠根據(jù)的并引向真實存在(所知)的判...
3300萬剪輯師被! Sora、Pika、Gen-2將全面登陸Adobe
新智元報道編輯:桃子 好困 【新智元導(dǎo)讀】一直想體驗Sora的大批網(wǎng)友們早已等不及了。這不,Adobe官宣將在Premiere Pro集成第三方AI視頻模型,各種添加移除擴...
準確率不足20%,GPT-4V/Gemini竟看不懂漫畫!首個圖像序列基準測試開源
新智元報道編輯:LRS 【新智元導(dǎo)讀】馬里蘭大學(xué)聯(lián)合北卡教堂山發(fā)布首個專為多模態(tài)大語言模型(MLLM)設(shè)計的圖像序列的基準測試Mementos,涵蓋了真實世界圖像...
12