91精品国产成人久久-777米奇色狠狠俺去啦-91亚洲欧美强伦三区-成年午夜av在线免费观看-欧美性视频欧美欧一欧美-午夜剧场在线观看高清-国产自拍视频在线观看网址-亚洲日韩精品无码专区97-麻豆国产成人免费视频

智快網(wǎng) - 新科技與新能源行業(yè)網(wǎng)絡媒體

英偉達聯(lián)手高校推出Fast-dLLM框架,AI推理速度大幅提升最高達27.6倍

   發(fā)布時間:2025-06-03 12:49 作者:馮璃月

近期,科技界迎來了一項重要突破,英偉達攜手麻省理工學院(MIT)及香港大學,共同推出了Fast-dLLM框架,這一創(chuàng)新成果旨在顯著提升擴散模型(Diffusion-based LLMs)的推理速度,為語言生成任務帶來了全新的可能性。

擴散模型,作為傳統(tǒng)自回歸模型的有力挑戰(zhàn)者,憑借其雙向注意力機制,理論上能夠實現(xiàn)多詞元同步生成,從而加速解碼過程。然而,在實際應用中,擴散模型的推理速度卻往往不盡如人意。原因在于,每次生成步驟都需要重新計算全部注意力狀態(tài),這導致了高昂的計算成本。多詞元同步解碼時,詞元間的依賴關系容易受到破壞,進而影響生成質量,使得擴散模型難以滿足實際應用的需求。

為了突破這一瓶頸,英偉達聯(lián)合團隊研發(fā)了Fast-dLLM框架,該框架引入了兩大核心創(chuàng)新:塊狀近似KV緩存機制和置信度感知并行解碼策略。這一創(chuàng)新設計,為擴散模型的推理速度和質量帶來了顯著提升。

在Fast-dLLM框架中,KV緩存機制通過將序列劃分為塊,預計算并存儲其他塊的激活值,以便在后續(xù)解碼中重復利用,從而顯著減少了計算冗余。而其DualCache版本更進一步,緩存了前后綴詞元,利用相鄰推理步驟的高相似性,進一步提升了效率。這一機制的實施,為擴散模型的推理速度帶來了質的飛躍。

另一方面,置信度解碼策略則根據(jù)設定的閾值,選擇性解碼高置信度的詞元,從而避免了同步采樣帶來的依賴沖突,確保了生成質量。這一策略的實施,使得擴散模型在保持高質量生成的同時,進一步提升了推理速度。

Fast-dLLM框架在多項基準測試中均展現(xiàn)出了驚人的表現(xiàn)。在GSM8K數(shù)據(jù)集上,生成長度為1024詞元時,其8-shot配置下實現(xiàn)了27.6倍的加速,準確率高達76.0%。在MATH基準測試中,加速倍數(shù)為6.5倍,準確率約為39.3%。而在Humaneval和MBPP測試中,分別實現(xiàn)了3.2倍和7.8倍的加速,準確率維持在54.3%和基線水平附近。這些測試結果表明,F(xiàn)ast-dLLM框架在加速推理的同時,僅犧牲了1-2個百分點的準確率,成功實現(xiàn)了速度與質量的平衡。

Fast-dLLM框架的成功推出,標志著擴散模型在實際語言生成任務中具備了與自回歸模型競爭的實力。這一創(chuàng)新成果不僅解決了推理效率和解碼質量問題,更為擴散模型的廣泛應用奠定了堅實基礎。未來,我們有理由相信,隨著技術的不斷進步和完善,擴散模型將在更多領域展現(xiàn)出其獨特的優(yōu)勢和潛力。

 
 
更多>同類內(nèi)容
全站最新
熱門內(nèi)容
本欄最新
 
智快科技微信賬號
微信群

微信掃一掃
加微信拉群
電動汽車群
科技數(shù)碼群