《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 上海AI實驗室聯(lián)合突破強化學習算法

上海AI實驗室聯(lián)合突破強化學習算法

攻克AI推理熵崩潰難題
2025-06-04
來源:IT之家

6 月 4 日消息,上海人工智能實驗室聯(lián)合清華大學、伊利諾伊大學香檳分校等學府,組建國際團隊研發(fā)新方法,通過 Clip-Cov 和 KL-Cov 技術有效應對策略熵崩潰問題。

背景簡介

大型語言模型(LLMs)近年來在推理能力上的突破,讓強化學習(RL)的應用范圍從單一任務擴展到更廣泛的場景,這種進步賦予了模型更強的泛化能力和邏輯推理能力。

然而,與傳統(tǒng)的模仿學習不同,強化學習需要更高的計算資源來支持從經驗中學習,核心問題在于策略熵(反映了模型在利用已知策略和探索新策略之間的平衡)的下降。

熵值過低會導致模型過度依賴已有策略,喪失探索能力。這一探索-利用權衡(exploitation-exploration trade-off)是強化學習的基礎,如何控制策略熵成為訓練中的關鍵難題。

策略熵崩潰的理論與實踐突破

為解決這一問題,研究團隊提出了一個經驗公式:R = ?a exp H + b,其中 H 代表策略熵,R 為下游任務表現(xiàn),a 和 b 為擬合系數。這一公式揭示了策略性能與熵值之間的權衡關系,指出熵耗盡是性能瓶頸。

1.jpg

研究進一步分析了熵動態(tài)變化,發(fā)現(xiàn)其受動作概率與 logits 變化協(xié)方差的驅動。為此,團隊創(chuàng)新性地提出了 Clip-Cov 和 KL-Cov 兩種技術,分別通過裁剪高協(xié)方差 token 和施加 KL 懲罰來維持熵水平。

2.jpg

實驗基于 Qwen2.5 模型和 DAPOMATH 數據集,覆蓋數學任務,結果顯示新方法在 7B 和 32B 模型上分別提升了 2.0% 和 6.4% 的性能,尤其在 AIME24 和 AIME25 等高難度基準測試中,32B 模型性能提升高達 15.0%。

3.jpg

研究團隊在包括 Qwen2.5、Mistral、LLaMA 和 DeepSeek 在內的 11 個開源模型上進行了測試,參數規(guī)模從 0.5B 到 32B 不等,涵蓋數學和編程任務的 8 個公開基準測試。

4.jpg

訓練采用 veRL 框架和零樣本設置,結合 GRPO、REINFORCE++ 等算法優(yōu)化策略性能。結果表明,Clip-Cov 和 KL-Cov 技術能維持更高的熵水平,例如 KL-Cov 方法在基線熵值趨于平穩(wěn)時仍保持 10 倍以上的熵值。

5.jpg

這不僅解決了策略熵崩潰問題,也為強化學習在語言模型中的擴展提供了理論支持。研究強調,熵動態(tài)是性能提升的關鍵瓶頸,未來需進一步探索熵管理策略,以推動更智能語言模型的發(fā)展。


Magazine.Subscription.jpg

本站內容除特別聲明的原創(chuàng)文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。