《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 華為云Tokens服務(wù)全面接入384超節(jié)點(diǎn)

華為云Tokens服務(wù)全面接入384超節(jié)點(diǎn)

憑“大雜燴”打造先進(jìn)算力
2025-08-28
來源:快科技

8月27日消息,在第四屆828 B2B企業(yè)節(jié)開幕式上,華為云宣布其Tokens服務(wù)全面接入CloudMatrix384超節(jié)點(diǎn)。

通過xDeepServe架構(gòu)創(chuàng)新,單芯片最高可實(shí)現(xiàn)2400TPS、50msTPOT的超高吞吐、低時延的性能,超過業(yè)界水平。

過去18個月,中國AI算力需求呈現(xiàn)指數(shù)級增長。數(shù)據(jù)顯示,2024年初中國日均Token的消耗量為1000億,截至今年6月底,日均Token消耗量已突破30萬億,1年半的時間增長了300多倍,反映了我國人工智能應(yīng)用規(guī)??焖僭鲩L,也對算力基礎(chǔ)設(shè)施的需求提出了更大的挑戰(zhàn)。

在以往按卡時計費(fèi)的基礎(chǔ)上,今年3月,華為云正式推出了基于MaaS的Tokens服務(wù)。針對不同應(yīng)用、不同場景的性能和時延要求,還提供了在線版、進(jìn)線版、離線版乃至尊享版等多種服務(wù)規(guī)格,為大模型、Agent智能體等AI工具提供了更為靈活、便捷、低成本的先進(jìn)算力。

而這一次,華為云的Tokens服務(wù)正式接入CloudMatrix384,并通過384原生的xDeepServe框架再次實(shí)現(xiàn)了吞吐量的突破,從年初的1920TPS提升至2400TPS,TPOT僅為50ms。

S22a6ff50-676e-4839-b9f2-ebae4508b569.jpg

大算力的構(gòu)建不是單點(diǎn)突破,而是一個從硬件到軟件、從算子到存儲、從推理框架到超節(jié)點(diǎn)的全棧創(chuàng)新,充分依托了華為的“大雜燴”能力。

首先,CloudMatrix384超節(jié)點(diǎn)以全新的計算架構(gòu)創(chuàng)新,突破性能瓶頸,構(gòu)筑穩(wěn)固澎湃的算力根基;CANN昇騰硬件使能,優(yōu)化算子與高效通信策略,讓云端的算力能夠以最高效的方式被調(diào)用和組合;EMS彈性內(nèi)存存儲打破AI內(nèi)存墻,突破性地實(shí)現(xiàn)“以存強(qiáng)算”,徹底釋放了每一顆芯片的算力;xDeepServe 分布式推理框架則以極致分離架構(gòu)Transfomerless讓超節(jié)點(diǎn)釋放出更高效算力。

作為CloudMatrix384 超節(jié)點(diǎn)的原生服務(wù),xDeepServe以Transformerless 的極致分離架構(gòu),把MoE大模型拆成可獨(dú)立伸縮的 Attention、FFN、Expert三個微模塊,相當(dāng)于在一臺CloudMatrix384上把“大模型”拆成“積木”,并分派到不同的NPU上同步處理任務(wù)。

之后,再用基于內(nèi)存語義的微秒級XCCL通信庫與FlowServe 自研推理引擎把它們重新拼成一個超高吞吐的LLM服務(wù)平臺,即Tokens的“超高速流水線”。通過xDeepServe不斷調(diào)優(yōu),最終實(shí)現(xiàn)了從非超節(jié)點(diǎn)單卡吞吐600tokens/s至超節(jié)點(diǎn)單卡吞吐2400tokens/s的提升。

作為硬件加速計算的中間層,CANN包含多個算子庫和和XCCL這種高性能通信庫等組件,共同支撐AI模型的高效運(yùn)行。其中,XCCL作為專為超節(jié)點(diǎn)上的大語言模型(LLM)服務(wù)而量身打造的高性能通信庫,能夠充分發(fā)揮CloudMatrix384擴(kuò)展后的UB互聯(lián)架構(gòu)(UB fabric)的全部潛力,為 Transformerless的全面分離奠定了帶寬與時延雙重硬底座。

而作為被重構(gòu)的“去中心”式分布式引擎,F(xiàn)lowServe把CloudMatrix384 切成完全自治的 DP 小組,每個小組自帶 Tokenizer、執(zhí)行器、RTC 緩存與網(wǎng)絡(luò)棧,完全自給自足,做到千卡并發(fā)也不“擁堵”。

目前,xDeepServe已實(shí)現(xiàn)MA分離,而下一步,將把Attention、MoE、Decode全部改成自由流動的數(shù)據(jù)流,并把同樣的拼圖方法復(fù)制到多臺超節(jié)點(diǎn),讓推理吞吐像鋪軌一樣線性延伸,最終或?qū)⒁暰€吞吐量的更大突破,讓每塊 NPU 都高效運(yùn)作,芯片永不排隊,推理永不塞車。

目前,華為云MaaS服務(wù)已支持DeepSeek、Kimi、Qwen、Pangu、SDXL、Wan等主流大模型及versatile、Dify、扣子等主流Agent平臺。

華為云積累了大量模型性能優(yōu)化、效果調(diào)優(yōu)的技術(shù)和能力,從而實(shí)現(xiàn)“源于開源,高于開源”,讓更多大模型可以在昇騰云上跑得更快更好。

以文生圖大模型來說,在輕微損失畫質(zhì)的情況下,通過Int8量化、旋轉(zhuǎn)位置編碼融合算子等方式,在在華為云MaaS平臺實(shí)現(xiàn)了2倍于業(yè)界主流平臺的出圖速度,最大尺寸支持2K×2K。

而在文生視頻大模型上,不僅通過量化方式來提速,還通過通算并行等方式,降低延遲與顯存占用,大幅提升視頻生成速度,相較于友商實(shí)現(xiàn)了3.5倍的性能提升。華為云Tokens服務(wù)在性能、模型適配、效果調(diào)優(yōu)方面的基礎(chǔ),也讓更多企業(yè)能夠快速開發(fā)和構(gòu)建AI Agent。

而在應(yīng)用層,華為云已與超過100家伙伴攜手深入行業(yè)場景,共建豐富的Agent,在調(diào)研分析、內(nèi)容創(chuàng)作、智慧辦公、智能運(yùn)維等領(lǐng)域解決產(chǎn)業(yè)難題,讓企業(yè)更便捷地?fù)肀I創(chuàng)新,加速智能化。

如基于MaaS平臺推出的今日人才數(shù)智員工解決方案,集成了先進(jìn)的自然語言處理、機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù),能實(shí)現(xiàn)與用戶的智能交互和任務(wù)處理,顯著提升服務(wù)效率與客戶滿意度;而北京方寸無憂科技開發(fā)的無憂智慧公文解決方案可以提升公文處理效能,實(shí)現(xiàn)政企辦公智能化轉(zhuǎn)型。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。