《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 阿里云新方案英偉達GPU用量削減82%

阿里云新方案英偉達GPU用量削減82%

打造“AI性能壓榨魔鬼”,213張卡干1192張卡的活
2025-10-20
來源:IT之家
關(guān)鍵詞: 阿里云 Aegaeon GPU AI

南華早報10月18日發(fā)布博文,報道稱在韓國首爾舉辦的第 31 屆操作系統(tǒng)原理研討會(SOSP)上,阿里云發(fā)布的“Aegaeon”的計算池化解決方案研究成果成功入選,可解決 AI 模型服務(wù)中普遍存在的 GPU 資源浪費問題。

查詢公開資料,SOSP 是計算機操作系統(tǒng)領(lǐng)域的頂尖會議,相當(dāng)于計算機操作系統(tǒng)界的“奧斯卡”,其錄取率控制非常嚴(yán)格,平均每年收錄的論文數(shù)量僅有數(shù)十篇,入選論文代表了操作系統(tǒng)和軟件領(lǐng)域最具代表的研究成果。

博文稱云服務(wù)商當(dāng)前在提供 AI 模型服務(wù)時,面臨著嚴(yán)重的資源效率低下問題。平臺需要同時托管數(shù)千個 AI 模型以處理海量并發(fā) API 調(diào)用,但用戶請求往往高度集中在少數(shù)幾個熱門模型上,例如阿里巴巴的 Qwen 系列模型。

研究人員發(fā)現(xiàn),這種“長尾效應(yīng)”導(dǎo)致了嚴(yán)重的資源閑置:在阿里云的模型市場中,竟有 17.7% 的 GPU 算力僅被用于處理 1.35% 的請求,造成了巨大的成本浪費。

為解決這一痛點,Aegaeon 系統(tǒng)應(yīng)運而生。它通過創(chuàng)新的 GPU 資源池化技術(shù),允許單個 GPU 動態(tài)服務(wù)于多個不同的 AI 模型,打破了以往 GPU 與特定模型綁定的低效模式。

format,f_avif.avif.jpg

在阿里云模型市場進行的為期超過三個月的 Beta 測試中,Aegaeon 系統(tǒng)展現(xiàn)了卓越的效能。測試數(shù)據(jù)顯示,服務(wù)數(shù)十個參數(shù)量高達 720 億的大模型,所需的英偉達 H20 GPU 數(shù)量從 1192 個成功減少至 213 個,數(shù)量削減高達 82%。

format,f_avif.avif (1).jpg

這項由北京大學(xué)與阿里云合作的研究成果,被認為是“首個揭示并解決市場上并發(fā)大語言模型服務(wù)存在過高成本”的公開工作,為行業(yè)提供了全新的優(yōu)化思路。

值得一提的是,阿里云首席技術(shù)官周靖人也是該論文的作者之一。周靖人是國際電氣與電子工程師協(xié)會會士(IEEE Fellow),國際計算機協(xié)會會士(ACM Fellow),阿里巴巴集團副總裁,阿里云智能 CTO、達摩院副院長。

subscribe.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。