聯系方式 Contact

天氣在線(北京)氣象科技有限公司

地址:北京市海淀區海淀西大街36號9層

電話:010-58995339

手機:18611808504

傳真:010-58995339

網址:www.szad-expo.com

搜索 Search
你的位置:首頁 > 新聞動態 > 行業新聞

使用Dirichlet元模型的Post-hoc不確定性學習,可提高機器學習的可靠性

 2023-03-22 21:25:10  點擊:

原創 ScienceAI 


編輯 | 蘿卜皮

眾所周知,神經網絡在直接使用輸出標簽分布生成不確定性度量時存在過度自信的問題,F有方法主要通過重新訓練整個模型來解決這個問題,以施加不確定性量化能力,使學習模型能夠同時達到預期的準確性和不確定性預測性能。

然而,從頭開始訓練模型的計算成本很高,在許多情況下可能不可行。

在最近的一項研究中,麻省理工學院和 MIT-IBM 沃森人工智能實驗室的研究團隊考慮了一個更實用的事后不確定性學習設置,其中給出了訓練有素的基礎模型,研究人員專注于訓練第二階段的不確定性量化任務。他們提出了一種新穎的貝葉斯元模型,以增強具有更好不確定性量化能力的預訓練模型,這是有效且計算效率高的。

該團隊提出的方法不需要額外的訓練數據,并且足夠靈活,可以量化不同的不確定性并輕松適應不同的應用設置,包括域外數據檢測、錯誤分類檢測和可信遷移學習。研究人員通過多個代表性圖像分類基準證明了他們提出的元模型方法在這些應用程序上的靈活性和卓越的經驗性能。

該研究以「Post-hoc Uncertainty Learning using a Dirichlet Meta-Model」為題,于 2022 10 14 日發布在 arXiv 預印平臺。

盡管深度神經網絡在各種實際任務中取得了令人鼓舞的性能,但近年來不確定性量化(UQ)引起了越來越多的關注,以滿足對更穩健和可靠的機器學習模型的新興需求,因為昆士蘭大學旨在定量衡量模型預測的可靠性。對于自動駕駛、醫療診斷等對誤差預測高度敏感的領域,準確的不確定性估計尤為關鍵。

大多數最先進的方法都側重于構建具有不確定性量化能力的深度模型,以便單個深度模型可以同時實現所需的預測和 UQ 性能。然而,這種 UQ 方法存在實際局限性,因為它要么需要特定的模型結構,要么明確地從頭開始訓練整個模型以施加不確定性量化能力。

更現實的情況是由于實際限制,以事后方式量化預訓練模型的不確定性。例如,(1)與預測精度和泛化性能相比,深度學習模型的不確定性量化能力通常被認為具有較低的優先級,特別是對于以利潤為導向的應用,如推薦系統;(2)一些應用程序要求模型施加其他約束,例如公平性或隱私性,這可能會犧牲 UQ 性能;(3)對于遷移學習等一些應用,預訓練模型通常是可用的,從頭開始訓練新模型可能會浪費資源。

在這些實際問題的推動下,麻省理工的研究人員專注于解決事后不確定性學習問題,即給定一個預訓練模型,如何在不影響其預測性能的情況下提高其 UQ 質量。先前在事后設置中改進不確定性質量的工作主要針對改進校準。這些方法通常無法增強預訓練模型的能力,使其能夠捕獲不同的不確定性來源,例如認知不確定性,這對于分布外 (OOD) 檢測等應用至關重要。最近的幾項工作采用了元建模方法,其中訓練元模型以預測預訓練模型在驗證樣本上是否正確。這些方法仍然依賴于元模型參數的點估計,這可能是不可靠的,尤其是在驗證集很小的時候。

圖示:元模型結構。(來源:論文)

在這里,麻省理工的研究團隊提出了一種新穎的基于貝葉斯元模型的不確定性學習方法來緩解上述問題。該方法不需要除訓練數據集以外的其他數據,并且足夠靈活以量化不同類型的不確定性并輕松適應不同的應用程序設置。

他們的實證結果提供了有關元模型訓練的重要見解:(1) 跨不同層的特征表示的多樣性對于不確定性量化至關重要,尤其是對于域外 (OOD) 數據檢測任務;(2) 利用 Dirichlet 元模型捕捉不同的不確定性,包括總不確定性和認知不確定性;(3)不確定性學習中存在類似于監督學習的過擬合問題,需要通過新穎的驗證策略來解決以獲得更好的性能。此外,該方法具有適應各種應用的靈活性,包括 OOD 檢測、錯誤分類檢測和可信賴的遷移學習。


圖示:在 OOD 檢測應用程序中提出的元模型方法的玩具示例顯示了不同層中特征的多樣性。(來源:論文)

「不確定性量化對于機器學習模型的開發人員和用戶都是必不可少的。開發人員可以利用不確定性測量來幫助開發更強大的模型,而對于用戶來說,它可以在現實世界中部署模型時增加另一層信任和可靠性。我們的工作為不確定性量化提供了一種更靈活、更實用的解決方案!闺姎夤こ毯陀嬎銠C科學研究生、該論文的主要作者 Maohao Shen 說。

量化不確定性

在不確定性量化中,機器學習模型會為每個輸出生成一個數值分數,以反映其對該預測準確性的信心。通過從頭開始構建新模型或重新訓練現有模型來納入不確定性量化通常需要大量數據和昂貴的計算,這通常是不切實際的。更重要的是,現有方法有時會產生降低模型預測質量的意外后果。

因此,麻省理工學院和 MIT-IBM 沃森人工智能實驗室的研究人員將注意力集中在以下問題上:給定一個預訓練模型,他們如何使其能夠執行有效的不確定性量化?

他們通過創建一個更小、更簡單的模型(稱為元模型)來解決這個問題,該模型附加到更大的預訓練模型,并使用更大的模型已經學會的特征來幫助它進行不確定性量化評估。

「元模型可以應用于任何預訓練模型。最好能夠訪問模型的內部結構,因為我們可以獲得更多關于基礎模型的信息,但如果你只有最終輸出,它也可以工作。它仍然可以預測置信度得分!惯@項研究的參與者 Prasanna Sattigeri 說。

他們設計元模型以使用包括兩種類型不確定性的技術產生不確定性量化輸出:數據不確定性和模型不確定性。數據不確定性是由損壞的數據或不準確的標簽引起的,只能通過修復數據集或收集新數據來減少。在模型不確定性中,模型不確定如何解釋新觀察到的數據,并可能做出錯誤的預測,這很可能是因為它沒有看到足夠多的相似訓練示例。在部署模型時,這個問題是一個特別具有挑戰性但很常見的問題。在現實世界中,他們經常遇到與訓練數據集不同的數據。

「當你在新環境中使用該模型時,你的決定的可靠性是否發生了變化?你需要某種方式來確定它是否適用于這種新制度,或者你是否需要為這種特定的新環境收集訓練數據!拐撐耐ㄓ嵶髡 Gregory Wornell 說。

驗證量化

一旦模型產生了不確定性量化分數,用戶仍然需要確保分數本身是準確的。研究人員通常通過創建一個較小的數據集來驗證準確性,該數據集是從原始訓練數據中提取出來的,然后在提取的數據上測試模型。然而,這種技術在測量不確定性量化方面效果不佳,因為該模型可以實現良好的預測精度,同時仍然過于自信,Shen 說。

他們通過向驗證集中的數據添加噪聲創建了一種新的驗證技術——這種噪聲數據更像是可能導致模型不確定性的分布外數據。研究人員使用這個嘈雜的數據集來評估不確定性量化。

他們通過查看元模型如何為各種下游任務捕獲不同類型的不確定性來測試他們的方法,包括分布外檢測和錯誤分類檢測。他們的方法不僅在每個下游任務中優于所有基線,而且實現這些結果所需的訓練時間更少。

這項技術可以幫助研究人員啟用更多機器學習模型來有效地執行不確定性量化,最終幫助用戶更好地決定何時相信預測。

展望未來,研究人員希望將他們的技術應用于更新的模型類別,例如具有與傳統神經網絡不同結構的大型語言模型,Shen 說。

論文鏈接:https://arxiv.org/abs/2212.07359

相關報道:https://techxplore.com/news/2023-02-efficient-technique-machine-learning-reliability.html


久久福利精品福利资源伊人精品