入選ECCV 2024!覆蓋5.4w+圖像,MIT提出醫(yī)學(xué)圖像分割通用模型ScribblePrompt,性能優(yōu)于SAM
AIGC動(dòng)態(tài)歡迎閱讀
原標(biāo)題:入選ECCV 2024!覆蓋5.4w+圖像,MIT提出醫(yī)學(xué)圖像分割通用模型ScribblePrompt,性能優(yōu)于SAM
關(guān)鍵字:圖像,數(shù)據(jù),涂鴉,團(tuán)隊(duì),醫(yī)學(xué)
文章來(lái)源:HyperAI超神經(jīng)
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
作者:哇塞
編輯:李姝,李寶珠
麻省理工學(xué)院計(jì)算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室團(tuán)隊(duì)等,提出一種交互式生物醫(yī)學(xué)圖像分割通用模型 ScribblePrompt,支持不同注釋方式靈活地進(jìn)行分割任務(wù),甚至可用于未經(jīng)訓(xùn)練的標(biāo)簽和圖像類型。外行看熱鬧,內(nèi)行看門道,這句話在醫(yī)學(xué)影像領(lǐng)域可謂是絕對(duì)真理。不僅如此,即便身為內(nèi)行人,要想在復(fù)雜的 X 光片、CT 光片或 MRI 等醫(yī)學(xué)影像上準(zhǔn)確看出些「門道」來(lái),也并非易事。而醫(yī)學(xué)圖像分割則是通過(guò)將復(fù)雜的醫(yī)學(xué)圖像中某些具有特殊含義的部分分割出來(lái),并提取相關(guān)特征,從而可以輔助醫(yī)生為患者提供更為準(zhǔn)確的診療方案,也可以為科研人員進(jìn)行病理學(xué)研究提供更為可靠的依據(jù)。
近年來(lái),受惠于計(jì)算機(jī)及深度學(xué)習(xí)技術(shù)的發(fā)展,醫(yī)學(xué)圖像分割的方在逐步由手動(dòng)分割向著自動(dòng)化分割的方向加速邁進(jìn),經(jīng)過(guò)訓(xùn)練的 AI 系統(tǒng)已經(jīng)成為醫(yī)生和科研人員的重要輔助。然而,由于醫(yī)學(xué)圖像本身的復(fù)雜性和專業(yè)性,導(dǎo)致系統(tǒng)訓(xùn)練中仍有大量工作依賴于有經(jīng)驗(yàn)的專家進(jìn)行手動(dòng)分割創(chuàng)建訓(xùn)練數(shù)據(jù),其過(guò)程耗時(shí)耗力。同時(shí),現(xiàn)有基于深度學(xué)習(xí)的分割方法在實(shí)踐中也遇到了諸多挑戰(zhàn),如適用性問(wèn)題、靈活的交互需求等。
為了解決現(xiàn)有交互式分割系統(tǒng)在實(shí)際應(yīng)
原文鏈接:入選ECCV 2024!覆蓋5.4w+圖像,MIT提出醫(yī)學(xué)圖像分割通用模型ScribblePrompt,性能優(yōu)于SAM
聯(lián)系作者
文章來(lái)源:HyperAI超神經(jīng)
作者微信:
作者簡(jiǎn)介: