MLA(Multi-head Latent Attention多頭潛在注意力架構(gòu))憑借低秩壓縮KV緩存設(shè)計(jì),實(shí)現(xiàn)長(zhǎng)上下文推理的顯存與帶寬雙重優(yōu)化,其有效性已在 DeepSeek-V2 等模型中得到了驗(yàn)證。但主流預(yù)訓(xùn)練模型如LLaMA、Qwen千問等多基于GQA構(gòu)建,企業(yè)已投入大量工程優(yōu)化,復(fù)用MLA需重訓(xùn),成本極高。為此,在北京大學(xué) 鯤鵬昇騰科教創(chuàng)新卓越中心的算力支持下,北京大學(xué)人工智能研究院助理教授張牧涵團(tuán)隊(duì)提出TransMLA轉(zhuǎn)化框架,實(shí)現(xiàn)了無需重訓(xùn)便可將主流模型向MLA遷移。

TransMLA針對(duì)GQA向MLA遷移的核心痛點(diǎn),實(shí)現(xiàn)四大技術(shù)模塊的精準(zhǔn)破局:一是GQA→MLA結(jié)構(gòu)映射,破解分組KV頭與MLA單頭潛在表示不兼容問題,通過特定的線性變換,將GQA分組后的K、V向量投影/融合為單一的低秩潛在表示,并配備上投影矩陣保障KV信息精準(zhǔn)恢復(fù),筑牢遷移基礎(chǔ);二是提出RoRoPE技術(shù)方案,通過創(chuàng)新適配讓位置編碼順暢融入低秩壓縮流程,解決了直接對(duì)RoPE應(yīng)用PCA等通用降維方法可能導(dǎo)致的位置信息損失或模型性能下降問題;三是通過將RoPE中相鄰頻率的旋轉(zhuǎn)維度進(jìn)行折疊(Folding)與融合,在降低參數(shù)量的同時(shí),更高效地集中和保留關(guān)鍵的位置信息,從而維持模型在長(zhǎng)序列下的語義理解能力;四是通過均衡Key和Value矩陣在壓縮前的范數(shù)分布,提升聯(lián)合壓縮(如PCA)的數(shù)值穩(wěn)定性,減少信息損失。
在技術(shù)落地過程中,昇騰發(fā)揮了關(guān)鍵支撐作用。其高效并行計(jì)算架構(gòu)滿足結(jié)構(gòu)映射模塊的多任務(wù)協(xié)同處理需求,保障了架構(gòu)遷移效率;其優(yōu)化的存儲(chǔ)與緩存體系,為 FreqFold 的頻率信息處理、BKV-PCA 的范數(shù)均衡提供穩(wěn)定硬件基礎(chǔ),有效提升 KV 壓縮的穩(wěn)定性與資源利用效率,助力 TransMLA 核心技術(shù)平穩(wěn)落地。
經(jīng)過實(shí)驗(yàn)顯示TransMLA的轉(zhuǎn)換過程性能優(yōu)勢(shì)明顯,裁剪LLaMA-2-7B模型68.75%的KV緩存后無需訓(xùn)練,核心性能僅輕微損失,在32K序列長(zhǎng)度、FP16精度下,基于昇騰平臺(tái)的推理速度較之于業(yè)界主流GPU平臺(tái)有顯著提升。依托開放的生態(tài)資源,昇騰已推動(dòng)TransMLA穩(wěn)定支持主流模型部署并將集成至vLLM/SGLang等高性能推理框架生態(tài),便于用戶部署,大幅降低企業(yè)落地適配成本。
TransMLA與昇騰的協(xié)同創(chuàng)新,打通了主流模型與MLA架構(gòu)鴻溝,充分發(fā)揮昇騰生態(tài)優(yōu)勢(shì)。昇騰全鏈路支持實(shí)現(xiàn)TransMLA“零重訓(xùn)、低損失”目標(biāo),保留模型參數(shù)優(yōu)勢(shì),降低企業(yè)基于昇騰的升級(jí)門檻。這一軟硬件協(xié)同典范,為長(zhǎng)上下文推理提供昇騰生態(tài)解決方案,推動(dòng)自主計(jì)算與前沿AI融合,彰顯昇騰核心引領(lǐng)作用,為大模型產(chǎn)業(yè)依托自主硬件降本增效提供可行路徑。
| 請(qǐng)勿發(fā)表廣告或無關(guān)留言 |