• 
    <ul id="auswy"><sup id="auswy"></sup></ul>
  • <ul id="auswy"></ul>
    ABB
    關注中國自動化產業(yè)發(fā)展的先行者!
    CAIAC 2025
    2025工業(yè)安全大會
    OICT公益講堂
    當前位置:首頁 >> 資訊 >> 行業(yè)資訊

    資訊頻道

    MM-RLHF:多模態(tài)大語言模型對齊新范式
    • 點擊數(shù):744     發(fā)布時間:2025-02-28 13:45:52
    • 分享到:
    當前,多模態(tài)大語言模型(MLLMs)在處理涉及視覺、語言和音頻的復雜任務中取得了顯著進展,但現(xiàn)有的先進模型仍然缺乏與人類意圖偏好的充分對齊,即無法高質量地按照人類偏好習慣理解并完成指令任務。現(xiàn)有的對齊研究多集中于某些特定領域(例如減少幻覺問題),而是否通過與人類偏好對齊可以全面提升多模態(tài)大語言模型的各種能力仍是一個未知數(shù)。
    關鍵詞:

    當前,多模態(tài)大語言模型(MLLMs)在處理涉及視覺、語言和音頻的復雜任務中取得了顯著進展,但現(xiàn)有的先進模型仍然缺乏與人類意圖偏好的充分對齊,即無法高質量地按照人類偏好習慣理解并完成指令任務。現(xiàn)有的對齊研究多集中于某些特定領域(例如減少幻覺問題),而是否通過與人類偏好對齊可以全面提升多模態(tài)大語言模型的各種能力仍是一個未知數(shù)。

    為探究這一問題,中國科學院自動化研究所聯(lián)合快手、南京大學建立了MM-RLHF——一個包含12萬對精細標注的人類偏好比較數(shù)據(jù)集,并基于此數(shù)據(jù)集進行多項創(chuàng)新,從數(shù)據(jù)集,獎勵模型以及訓練算法三個層面入手推動多模態(tài)大語言模型對齊的發(fā)展,全面提升多模態(tài)大語言模型在視覺感知、推理、對話和可信度等多個維度的能力。

    MM-RLHF數(shù)據(jù)集包含三個維度的打分、排序、文本描述的具體原因以及平局等標注。所有標注均由人類專家完成。與現(xiàn)有資源相比,該數(shù)據(jù)集在規(guī)模、多樣性、標注精細度和質量方面均有顯著提升。以此為基礎,本研究提出了一種基于批判的獎勵模型(Critique-Based Reward Model),該模型在評分之前先對模型輸出進行批判分析,相比傳統(tǒng)的標量獎勵機制,提供了更具可解釋性、信息量更豐富的反饋。此外,團隊提出動態(tài)獎勵縮放(Dynamic Reward Scaling)方法,根據(jù)獎勵信號調整每個樣本的損失權重,從而優(yōu)化高質量比較數(shù)據(jù)在訓練中的使用,進一步提高了數(shù)據(jù)的使用效率。

    MM-RLHF數(shù)據(jù)集

    研究團隊在10個評估維度,27個基準測試上對提出的方案進行了嚴格評估。結果表明,模型性能得到了顯著且持續(xù)的提升。比較突出的是,基于提出的數(shù)據(jù)集和對齊算法對LLaVA-ov-7B模型進行微調后,其對話能力平均提升19.5%,安全性平均提升60%。

    全面評估結果

    本研究充分展示了高質量、細粒度數(shù)據(jù)集MM-RLHF在推動多模態(tài)大語言模型對齊工作上的巨大潛力。下一步,研究團隊將將重點利用數(shù)據(jù)集豐富的注釋粒度與先進的優(yōu)化技術,結合高分辨率數(shù)據(jù)來解決特定基準的局限性,并使用半自動化策略高效地擴展數(shù)據(jù)集。這些努力不僅將推動多模態(tài)大語言模型對齊到新的高度,還將為更廣泛、更具普適性的多模態(tài)學習框架奠定基礎。

    MM-RLHF數(shù)據(jù)集、訓練算法、模型以及評估pipeline均已全面開源。

    項目主頁:https://mm-rlhf.github.io


    來源:中國科學院自動化研究所


    熱點新聞

    推薦產品

    x
    • 在線反饋
    1.我有以下需求:



    2.詳細的需求:
    姓名:
    單位:
    電話:
    郵件: