偏微分方程有了基礎(chǔ)模型:樣本需求數(shù)量級減少,14項任務(wù)表現(xiàn)最佳
AIGC動態(tài)歡迎閱讀
原標(biāo)題:偏微分方程有了基礎(chǔ)模型:樣本需求數(shù)量級減少,14項任務(wù)表現(xiàn)最佳
關(guān)鍵字:算子,樣本,模型,任務(wù),下游
文章來源:機器之心
內(nèi)容字?jǐn)?shù):0字
內(nèi)容摘要:
機器之心報道
編輯:陳萍本文提出的 Poseidon 在樣本效率和準(zhǔn)確率方面都表現(xiàn)出色。偏微分方程(PDEs)被稱為物理學(xué)的語言,因為它們可以在廣泛的時間 – 空間尺度上對各種各樣的物理現(xiàn)象進行數(shù)學(xué)建模。常用的有限差分、有限元等數(shù)值方法通常用于近似或模擬偏微分方程。
然而,這些方法計算成本高昂,特別是對于多查詢問題更是如此,因而人們設(shè)計了各種數(shù)據(jù)驅(qū)動的機器學(xué)習(xí)(ML)方法來模擬偏微分方程。其中,算子學(xué)習(xí)( operator learning)算法近年來受到越來越多的關(guān)注。
然而,現(xiàn)有的算子學(xué)習(xí)方法樣本效率并不高,因為它們需要大量的訓(xùn)練樣例才能以期望的準(zhǔn)確率學(xué)習(xí)目標(biāo)解算子(如圖 1 所示)。這阻礙了算子學(xué)習(xí)的廣泛使用,因為通過數(shù)值模擬或底層物理系統(tǒng)的測量來生成特定任務(wù)的訓(xùn)練數(shù)據(jù)非常昂貴。研究者不禁提出,如何才能顯著減少 PDE 學(xué)習(xí)所需的訓(xùn)練樣本數(shù)量?
來自蘇黎世聯(lián)邦理工學(xué)院等機構(gòu)的研究者提出了 Poseidon,這是一種用于學(xué)習(xí) PDE 解算子的基礎(chǔ)模型。該模型基于多尺度 operator transformer,可實現(xiàn)連續(xù)時間評估。
研究者將 Poseidon 在大規(guī)模數(shù)據(jù)集上進行了
原文鏈接:偏微分方程有了基礎(chǔ)模型:樣本需求數(shù)量級減少,14項任務(wù)表現(xiàn)最佳
聯(lián)系作者
文章來源:機器之心
作者微信:almosthuman2014
作者簡介:專業(yè)的人工智能媒體和產(chǎn)業(yè)服務(wù)平臺